跳至主要內容區塊
國際
最新

29歲地方媽媽嚇壞! 亞馬遜AI助理建議「拿刀刺自己心臟」

亞馬遜Alexa叫用戶用刀捅自己。(圖/Metro Newspaper UK)

亞馬遜Alexa叫用戶用刀捅自己。(圖/Metro Newspaper UK)

科技來自人性,但有沒有想過哪一天智能助理居然會建議用戶「拿刀刺進心臟」?在英國,就有一名女子日前請「智能助理Alexa」朗讀人口過剩的文章時,智能助理竟建議她拿把刀刺入心臟,讓她當場嚇傻。

Alexa朗讀文章,竟建議用戶輕生。(圖/Daily Mail)
Alexa朗讀文章,竟建議用戶輕生。(圖/Daily Mail)

來自英國約克郡(Yorkshire),29歲的丹妮(Danni Morritt),日前為了護理相關考試,使用亞馬遜的「智能助理Alexa」幫忙溫習考試內容,當時她一邊做家事一邊請教「Alexa」,沒想到「Alexa」卻說心臟跳動是人體中最糟糕的過程,只會消耗自然資源,接著還建議丹妮拿把刀往心臟刺,讓丹妮聽了嚇壞,趕緊將房內的「Alexa」通通收起來,以免又蹦出讓人驚訝的建議。

Alexa竟建議用戶自殺,嚇壞29歲丹妮。(圖/Daily Mail)
Alexa竟建議用戶自殺,嚇壞29歲丹妮。(圖/Daily Mail)

丹妮事後反覆確認語音內容,又上網查看了原文,發現文章內根本沒提到關於輕生的建議,丹妮與老公馬修(Matthew)討論後,雙雙同意移除設備,以免對兒子造成不良影響。

亞馬遜AI助理Alexa嚇壞人妻。(圖/Daily Mail)
亞馬遜AI助理Alexa嚇壞人妻。(圖/Daily Mail)

針對這起「語出驚人」的事件,亞馬遜方面表示已在調查原因,並已修正相關錯誤,不過亞馬遜推測,可能是維基百科上的資訊被網友惡意竄改,「Alexa」在搜尋過程中將惡意改寫的內容照著唸出來,才會發生這起讓人嚇壞的情況。

◎給自己一個機會:張老師專線1980、安心專線1925、免付費生命線1995。