" 如今,我們似乎越來越離不開 AI,而且從認知到情感,一些用戶還開始患上“AI過度依賴癥”。這給我們帶來一個關鍵的問題:“AI合理使用”與“AI過度依賴”的邊界在哪里?
" 過度依賴的形成,意味著個體掉入了“無AI不能”的怪圈,逐漸習慣于“事事找AI”,將自身的決策權力、思考能力乃至情感寄托讓渡于AI。與之相對,合理使用AI倡導一種理性且負責任的用戶參與,人類保留關鍵決策權,根據AI能力使其輔助參與決策,并對其反饋進行監控和修正。
" 遺憾的是,每一項帶來偉大變革的技術總是讓人類面臨逐漸沉迷的風險。從電視依賴、智能手機依賴,但從未有任何一項技術像AI一樣,如此徹底地接管人類生活的方方面面。這意味著,“AI過度依賴癥”將給人類帶來更大的風險與挑戰,亟需社會各界的警醒與重視。
" 于個體而言,“AI過度依賴癥”很可能導致人類的認知力、判斷力、創造力、感知力逐漸萎縮。認知心理學的研究表明,認知功能需要通過鍛煉才能維持。如果個體習慣于借助大語言模型、智能助手獲取答案,將導致“大腦”逐漸懶惰,從而失去思考問題的動力,并養成如AI般“模版化”的思維習慣。此外,長久地過度依賴AI將使人類的認知系統失去除“AI數據庫”之外的養料,這會導致失去對AI生成內容的判斷力,并輕易地將AI的答案奉為圭臬。
" 更令人擔憂的是,對AI的過度依賴,將使那些經由人類想象與探索,依靠時間釀造與沉淀的創作任務被轉交給AI。當人類的創造性因與AI競速而失去用武之地時,我們驗證自我價值的內在需求也將被逐漸消解。在工具性依賴之外,人類也有可能形成對AI的情感性依賴。不加節制的情感依賴將替代或切除人類對社交關系的真實感知,引發對人際情感的逃避與排斥。
" 當然,對“AI過度依賴癥”風險的揭示不意味著要陷入“新技術恐懼”之中。面對人機共生時代的種種隱患,只有敢于問診并開出藥方,才能讓AI為人類所用,向良善而生。“AI過度依賴癥”的有效藥方,既需要政策法規的介入,亦需要個體層面的理性參與。每一個人工智能的使用者,都應多一點對AI潛在風險的認識,多一點與AI保持距離的嘗試,多一點向AI監督問責的意識,牢牢掌握人機交互的主動權。
(摘自《環球時報》張錚、倪彬彬)□