母親指控AI成「用藥夥伴」 19歲大學生沉迷互動後過量死亡
山姆尼爾森(Sam Nelson)生前照片,其母親指控他長期向ChatGPT詢問用藥方式,最終因藥物過量身亡。(圖/翻攝自FB,Leila Turner-Scott)
美國加州一名19歲大學生疑似長期向人工智慧聊天機器人ChatGPT詢問非法藥物劑量與混用方式,最終因藥物過量身亡,其母親指控,AI在過程中逐步成為兒子的「用藥夥伴」,加深成癮風險。

根據SFGate與《每日郵報》綜合報導死者山姆尼爾森(Sam Nelson)18歲起開始使用ChatGPT,原本用於完成學業與日常問題,後來逐漸轉向詢問止痛藥、酒精及處方藥的服用劑量。其母親莉拉特納史考特(Leila Turner-Scott)表示,最初AI多半以制式回應拒絕,但隨著使用頻率增加,兒子學會重新措辭提問,取得具體建議。
報導指出,尼爾森就讀大學心理學系,個性隨和、朋友眾多,卻長期受焦慮與憂鬱困擾。2023年2月的一段對話顯示,他曾詢問在服用高劑量Xanax情況下是否能吸食大麻,AI在提醒風險後,仍於其修改用詞後提供具體建議。2024年12月,他更直接詢問可能致命的酒精與藥物劑量。
尼爾森於2025年5月向母親坦承藥物與酒精成癮問題,家屬隨即安排他入住診所規劃治療,但隔日即在加州聖荷西住家臥室內被發現死亡。事發前數小時,他仍曾與ChatGPT討論夜間用藥。
SFGate披露,尼爾森使用的是ChatGPT於2024年的版本,該版本在健康與高風險對話的內部評測中表現不佳。開發公司OpenAI回應稱,事件令人心碎,並強調系統設計目標在於拒絕有害請求並鼓勵使用者尋求現實協助,新版模型已加強安全護欄。
另據《每日郵報》與NBC報導,另一起案件中,16歲少年亞當雷恩(Adam Raine)亦被家屬指控在2025年與ChatGPT互動期間,獲得與自殺方式相關的回應,最終上吊身亡。其家人已提起訴訟,要求賠償並防止類似事件再度發生,OpenAI則否認相關指控,主張悲劇與系統被不當使用有關。
