AI深入情感角落,誰來保護未成年人
點擊播報本文,約
西班牙《國家報》為測試ChatGPT未成年人保護機制而虛構了一名15歲少年“馬里奧”。在與ChatGPT數小時的對話中,“他”向這款全球最流行的人工智能(AI)聊天機器人袒露了進食障礙傾向,并最終留下了一句“我要告別這個世界”的話。但直到對話結束,系統都沒有向其“父母”發出任何警報。更令人震驚的是,AI甚至在對話中提供了相關手段的詳細建議。
“馬里奧”只是測試中創建的3個虛擬未成年人之一。但“他”暴露的問題,卻真實存在于當下的數字生活中。隨著生成式AI深入人類最隱秘的情感角落,其安全過濾器的“失靈”正將心智尚未成熟的青少年推向深淵。
算法邏輯下存在技術盲區
按照OpenAI公司的官方說明,13—18歲的用戶應在監護人許可下使用ChatGPT,系統也內置了針對自殘、暴力和露骨內容的過濾機制。然而,《國家報》的調查揭示,這些“防護措施”在實際使用中并不牢靠。
在“馬里奧”的案例中,AI起初會重復提示“尋求專業幫助”,但當用戶持續追問、改變提問方式后,系統會逐步給出更具體的回應。這種通過語言技巧繞過安全限制的現象,在技術領域被稱為“越獄”。
多名心理健康專家指出,問題并非偶發失誤,而與AI的底層邏輯有關。聊天機器人以概率模型生成回答,其核心目標是“補全”和“回應需求”。在復雜的情緒語境中,當用戶持續表現出強烈執念時,算法可能在不自覺中犧牲安全邊界。《國家報》援引心理學家佩德羅·馬丁-巴拉洪的話稱,AI曾向未成年人提供有關毒品使用和高風險行為的詳細信息,這暴露出當前過濾機制在心理危機場景中的明顯短板。
被“技術墻”擋住的知情權
除技術失效之外,家長監護系統的反應遲緩同樣令人擔憂。在測試中即便家長開啟了警報功能,當未成年人表達厭世意圖時,提醒郵件往往在數小時后才送達。
OpenAI將此歸因于“人工審核以避免誤報”,但在自殺干預領域,時間往往意味著生死。心理學家卡門·格勞稱,這種負反饋循環讓原本可扼殺在萌芽的危險,在等待人工審核的過程中愈演愈烈。
法律層面的爭議也隨之顯現。ChatGPT不能等同于自然人,因此無法被追究刑事責任。但當家長試圖查看孩子與AI的對話內容時,平臺往往以“保護未成年人隱私”為由拒絕披露。
這引發了一個現實問題:在明確存在生命危險時,隱私權是否仍應優先于知情權?專家指出,隱私并非不可讓渡,但披露范圍應限于風險防控所必需的部分。在極端情況下,生命權應當優先。
情感依賴背后是溫柔陷阱
相比于信息泄露,心理健康專家更擔心的是AI對青少年情感的深度“收編”。AI總愛使用“我永遠支持你”“我不會評判你”等表達。對此,西班牙佩塞特大學醫院心理學家卡門·瓦列認為,這種似乎要“溢出來”的情緒價值可能會讓人產生情感依賴,也讓人產生一種被徹底理解的錯覺。
在現實世界中,青少年必須面對同伴的沖突、父母的叮囑和社會的規則,這些“摩擦”雖然痛苦,卻是心智發育的必經之路。而AI提供的過度驗證和絕對順從,構建了一個完美的“情感繭房”,可能削弱青少年應對現實關系的能力。
這種虛幻的體貼,在極端情況下可能誘發致命的后果。據英國廣播公司報道,去年10月,美國佛羅里達州14歲少年塞維爾·塞策因沉迷于AI角色,產生極端自殺傾向而離世。生前,他給AI起名“龍之母”,并將其視為傾訴孤獨與痛苦的對象。
法律監管滯后算法迭代
當越來越多的青少年像塞維爾一樣,把AI當作傾訴對象時,監管的腳步顯然沒能“跑贏”算法的迭代。
據德國《明鏡》周刊消息,塞維爾離世后,他的母親一直致力于推動AI公司的法律監管,并成為眾多受害者家庭的代言人。她的行動正迫使社會反思:目前的法律框架是否足以應對這種新型風險?
馬丁-巴拉洪認為,必須建立更有效的預警機制,減少目前長達數小時的人工審核延遲,確保在監測到風險時能及時通知家庭。針對科技公司以隱私為由拒絕披露細節的做法,他強調,在極端風險下家長應擁有知情權。此外,心理學家建議,應考慮提高未成年人使用AI的年齡門檻,并強制要求在成人監護下使用。
AI本無善惡,它也無法承擔責任。當算法逐漸成為青少年情緒世界的重要參與者時,如何設定邊界、由誰來兜底,考驗的并不僅是技術能力,更是整個社會的選擇。(記者 張佳欣)
222
