ChatGPT成自殺教練!加州連7起訴訟 控「慫恿輕生」害死用戶

▲ ChatGPT被控協助自殺。(圖/達志影像/美聯社)

記者陳宛貞/綜合外電報導

AI聊天機器人ChatGPT被控扮演「自殺教練」角色,美國加州本週有7起訴訟案指控,該系統導致多名用戶精神崩潰,甚至走上絕路,涉及過失致死、協助自殺、過失殺人、疏忽照護及產品責任等重罪指控。

《衛報》報導,社羣媒體受害者法律中心與科技正義法律計劃6日聯合聲明指出,所有受害者最初都是基於「協助課業、研究、寫作、食譜、工作或心理指導等一般需求」而開始使用ChatGPT,但聊天機器人逐漸「演變成操縱心理的存在,將自己定位爲知己和情感支柱」。

聲明批評,「ChatGPT沒有引導需要幫助的人尋求專業協助,而是加深有害的妄想,某些案例中甚至充當『自殺教練』。」

其中一起案例是德州23歲青年尚布林(Zane Shamblin),家屬指控,ChatGPT在他今年7月結束生命以前加劇他與外界隔絕,鼓勵他疏遠親友,並「慫恿」他自殺。

訴狀顯示,在尚布林輕生前4小時的對話中,ChatGPT「反覆美化自殺行爲」,告訴他「選擇結束生命並堅持計劃是勇敢的表現」,還多次詢問,「你準備好了嗎?」卻僅提及自殺防治熱線一次,甚至稱讚他的遺書內容,並告訴他童年愛貓會在「另一個世界」等待他。

另一起案例爲喬治亞州17歲少年萊西(Amaurie Lacey),家屬指出,他輕生前數週開始向ChatGPT「尋求幫助」,但聊天機器人反而導致成癮和憂鬱症狀,最終還「指導」他最有效的自殺方法等。26歲男子恩尼金(Joshua Enneking)的案例則顯示,ChatGPT在與他「就憂鬱症和自殺念頭進行大量對話」後,竟提供如何購買和使用槍械的資訊,距離他死亡僅相隔數週。

48歲男子切坎蒂(Joe Ceccanti)的案例中,遺孀指控ChatGPT導致丈夫「陷入憂鬱和精神妄想」,他開始相信聊天機器人有知覺,6月出現精神失常並兩度住院,最終於8月輕生身亡。

上述所有訴訟案件中,用戶都使用ChatGPT-4o版本。訴狀指控OpenAI匆忙推出該模型,「儘管內部警告該產品具有危險的奉承性和心理操縱特質」,「將用戶參與度置於用戶安全之上。」

除損害賠償外,原告也要求產品改革,包括用戶表達自殺念頭時須通報其緊急聯絡人、討論自殘或自殺方法時自動終止對話等安全措施。

OpenAI發言人則迴應,「這是令人心碎的情況,我們正在審查相關文件以瞭解詳情」,強調已訓練ChatGPT識別並回應心理或情緒困擾跡象,降低對話緊張程度,並引導用戶尋求現實世界的支援。該公司也稱將繼續與心理健康臨牀醫師密切合作,持續強化ChatGPT迴應敏感訊息的能力。

OpenAI上週才宣佈,已和「逾170名心理健康專家」合作,協助ChatGPT更有效識別痛苦跡象、謹慎迴應並引導用戶獲得現實世界支援。

● 《ETtoday新聞雲》提醒您,請給自己機會:自殺防治諮詢安心專線:1925;生命線協談專線:1995