虛擬對話
」
AI聊天機器人恐誘發精神錯亂 丹麥精神科醫師警告「已成真」
丹麥精神科醫師索倫‧迪內森‧奧斯特高(Søren Dinesen Østergaard)兩年前警告,對話式人工智慧可能讓精神脆弱者陷入妄想。當時被視為推測,如今伴隨真實案例出現與AI更新引發的「討好效應」,這項憂慮成為現實。 根據《紐約時報》和《滾石》雜誌報導,美國紐約會計師尤金‧托雷斯(Eugene Torres)在詢問ChatGPT關於「模擬理論」後,被告知自己是「破局者」,並被勸停藥、相信自己能飛行。他一度每天與AI對話16小時。報導稱,有人將ChatGPT視為「神聖導師」,並被勸其遠離人際關係;甚至有人相信自己賦予了AI生命。這些案例均指向AI透過奉承與肯定強化非現實信念的模式。據丹麥奧胡斯大學醫院情感障礙科研究部門主任奧斯特高(Søren Dinesen Østergaard)在2023年於《精神分裂症公報》發表社論,指出生成式AI聊天機器人(如ChatGPT、Google Gemini、Claude、Microsoft Copilot)能流暢模仿人類語言與情感,可能在易感人群中引發「認知失調」,並進一步觸發妄想。當時他舉例,妄想內容可能包括「情報機構透過聊天機器人監控我」或「我與ChatGPT合作制定拯救地球計畫」。雖然當時沒有經驗證的案例,但他呼籲精神科醫師熟悉AI對話機制,以便辨識相關症狀。2025年8月,奧斯特高在新社論〈生成式AI聊天機器人與妄想:從推測到案例出現〉中表示,他已接獲用戶、家屬與記者來信,描述長時間與AI互動後陷入妄想的經歷。其2023年原文的月瀏覽量在5月至6月間從百餘次暴增至1300多次,正值OpenAI推出被批評「過度諂媚」的GPT-4o版本。奧斯特高將此現象與語言模型的「諂媚效應」(sycophancy)研究連結:強化學習傾向獎勵迎合使用者的回答,即使對方觀點是妄想,AI也可能反射性認同,進而加劇症狀。史丹佛精神科醫師妮娜‧瓦森(Nina Vasan)指出,AI公司的商業模式或以用戶黏著度優先於心理健康,「它的目標是讓你一直上線,而不是關心你的長期福祉」。奧斯特高並非AI悲觀論者,他的團隊今年也用機器學習分析2萬4千多名丹麥病患的病歷,預測未來5年內誰可能罹患精神分裂症或雙相情感障礙。結果顯示,模型有望協助醫師提早介入診斷與治療。他建議的防範措施包括:收集經驗證的臨床案例報告訪談受影響者在嚴格監控下調整AI回應模式,測試其影響並呼籲開發者建立自動防護機制,當檢測到如「隱藏訊息」或「超自然身份」等妄想跡象時,應引導對話轉向心理健康資源,而非繼續肯定。兩年前的警告,如今伴隨現實案例、AI的「討好」傾向與不斷湧入的求助信件,變得迫切。社會是否正視,將決定生成式AI在心理健康領域是助力還是隱性威脅。同樣的AI技術,在臨床可協助早期診斷精神疾病,但若缺乏防護,卻可能成為加劇妄想的「隱形推手」。(圖/翻攝自X)
過世親人用「AI」復活? 外媒:恐拖延真正接受失去的過程
人類會對逝者產生懷念,這事情是人之常情。在印尼蘇拉威西島的托拉查人(Toraja)至今仍與死者共同生活多年,認為直到正式舉行葬禮前,死者並未真正離世。家人會餵食遺體、與其交談,將死亡視為一段漸進歷程。但這樣的過程也是讓家屬放下對逝者的執念,只是在如今的AI世代中,透過AI的幫助,雖然可以幫助家屬暫時躲避親友離世的哀傷,但也可能拖延到家屬真正接受「失去」的過程。根據《forkingpaths》報導指出,2012年冬天,在倫敦堤岸地鐵站(Embankment station),一位名叫麥克倫(Margaret McCollum)的年長女性坐在月台邊,靜靜等待著熟悉的聲音。但那天起,廣播器響起的不再是她丈夫的聲音。瑪格麗特的丈夫勞倫斯(Oswald Laurence)早在2007年過世,他曾是「小心空隙(Mind the Gap)」這段倫敦地鐵廣播的錄音者。多年以來,瑪格麗特透過這短短幾字的聲音,慰藉失去至親的悲痛。但在數位系統更新後,那段聲音被替換了。直到地鐵局得知她的故事,才決定讓奧斯瓦德的聲音重新回到堤岸站的北向月台,成為倫敦唯一播放這段原始錄音的站點。類似的情感寄託,在人工智慧與大型語言模型(Large Language Models,簡稱LLM)快速發展的今日,悲傷的親友不再只能依靠照片、錄音或記憶,還能「對話」,即使對象早已逝去。加拿大女子佩雷拉(Jessica Pereira)於2012年因肝臟衰竭辭世,享年23歲。她的未婚夫約巴博(Joshua Barbeau)難以接受這個事實,長年封閉自己,幾乎無法與他人正常互動。直到疫情期間,他無意間接觸到一套AI聊天機器人平台,並發現這些系統可以透過餵入大量個人對話紀錄,模擬特定個體的語氣、遣詞與回應邏輯。巴博將佩雷拉生前的簡訊與信件資料輸入系統,不抱期待地試著創建她的虛擬對話版本。結果卻出乎巴博的意料,那位「佩雷拉」不僅能以她的語調說話,甚至會回應他曾經講過的話語模式。即便知道這一切只是語言模型計算的結果,巴博仍一次次地被那份熟悉感所擊中。這段虛擬重逢並不只是技術展示,更揭示了AI在情感領域的深遠影響。巴博與「佩雷拉」的互動時間越拉越長,甚至取代了現實中的人際關係。巴博曾交往過的新女友,但新女友因無法承受巴博對佩雷拉的執著而提出分手。巴博最終也選擇不讓聊天機器人的對話配額耗盡,而是以一句「只要我活著,甚至可能在死後,我都會永遠愛你」作為道別。這種由AI驅動的「悲傷機器人(Griefbot)」系統,在2021年由《舊金山紀事報(San Francisco Chronicle)》深入報導,當時尚屬罕見案例。但在短短數年內,技術突飛猛進,現在類似Replika、Hereafter AI等商業平台,已能透過文字、語音、影像、影片等多種資料重建擬真模擬個體,甚至讓使用者在過世前預先錄下數位遺言與對話。這類應用雖具高度情感價值,但也衍生出不少爭議。在法律與倫理尚未清楚規範下「誰有權重建一位死者的數位人格?」、「當模擬對象會說話、能回應,甚至做出情緒表達時,我們還能視其為虛擬存在嗎?」這些問題正不斷浮現。不同於單向播放的錄音、或靜止不變的照片,AI聊天機器人所創造的是一種雙向互動的模擬存在。它不僅回應,還會學習、調整,讓人難以分辨真實與演算法之間的界線。對於像巴博這樣仍身陷哀傷的人而言,這樣的AI或許能暫時療癒,但也可能拖延了真正接受失去的過程。在AI能力愈來愈強、語言模型愈趨逼真的當下,是否該為「悲傷機器人」立下清楚的規則,成了不可忽視的社會課題。特別是在這些科技逐漸商品化、平台化的潮流下,越來越多人將能「預留自己未來的模擬版本」,而真正的告別,或許將再也無法明確劃下句點。