AI聊天
」 AI 聊天機器人 ChatGPT 人工智慧 OpenAI
Instagram出手防憾事!青少年狂搜「自殺自殘」 系統將自動通知家長
社群巨頭Meta今(26)日宣布,旗下平台Instagram將推出一項重大的青少年保護機制;未來若青少年用戶在短時間內重複搜尋與「自殺」或「自殘」相關的關鍵字,系統將主動發出警示通知家長。這項舉措旨在協助監護人及時介入並提供支援,避免憾事發生,預計下周起先行於美國、英國及澳洲等地試行。根據外媒《紐約郵報》報導,Meta官方部落格說明,這套警示系統專為使用「家長監護工具」的用戶設計,當系統偵測到青少年頻繁搜尋涉及自殘或輕生意圖的特定詞彙時,會立即透過電子郵件、簡訊、WhatsApp或App內推播等多種管道通知家長;通知內容不僅包含警示訊息,還會附上由專業機構提供的資源,指導家長如何以適當且感性的方式與孩子開啟這類高度敏感的對話。Meta官方對此強調,公司深知家長收到此類通知時可能會感到焦慮與不安,但該功能的初衷是希望賦予家長更多力量,在孩子可能需要心理支援的關鍵時刻及時現身。為了確保警示的有效性並避免造成不必要的恐慌,Meta表示,會精準過濾內容,防止因過度發送無效通知而導致家長產生「警示疲勞」。此外,這項監測機制未來也計畫延伸至AI聊天機器人服務,若青少年在與AI對話中提及自殘術語,家長同樣會收到通知。事實上,Meta此舉背後伴隨著龐大的輿論與法律壓力。近年來,包括Meta、Google及OpenAI在內的科技巨頭,因旗下產品被指控導致青少年成癮及心理健康受損,正深陷多起法律訴訟。Meta執行長馬克祖克柏(Mark Zuckerberg)上周才剛出席洛杉磯一場具指標性的審判,針對原告指控Instagram導致未成年人抑鬱及產生輕生念頭進行辯護。祖克柏在庭審中坦言,要徹底杜絕13歲以下兒童使用社群平台確實存在技術難度。不過,他將部分責任歸咎於智慧型手機系統商,主張擁有App Store和Google Play的蘋果公司與Google,在驗證使用者年齡方面處於更有利的地位。隨著這項新功能的上線,Meta試圖在這些輿論中,展現其對於兒少網路安全的承諾與防範決心。◎勇敢求救並非弱者,您的痛苦有人願意傾聽,請撥打1995◎如果您覺得痛苦、似乎沒有出路,您並不孤單,請撥打1925
Gemini官方發音為「絕ㄇ奈」 日本Google卻糾正:請念傑米尼
由Google推出的生成式AI聊天機器人Gemini,有越來越多民眾使用,但也出現不少人好奇「Gemini」正確唸法。從Google官方釋出的相關影片,發現Gemini正確發音接近「絕ㄇ奈」,以美式發音;但日本Google最近卻透過官方帳號「糾正」,稱用日文拼音念起來應該是「傑米尼」,引發網友熱議。日本創作歌手、模特兒Reina+World近期在社群平台X(前身為推特)發文,她一直以為Gemini應該念「傑米尼」,沒想到自己搞錯,很多人都念「絕ㄇ奈」,留言區也有不少日本網友看了嚇一跳,直言跟Reina+World一樣念錯好久。不過,Reina+World的貼文被日本Google轉發,竟然「糾正」Gemini不是念絕ㄇ奈,「Gemini的日文標記為ジェミニ(傑米尼)。今後也歡迎大家這樣稱呼,我們會非常開心。」日本Google的說法讓原本念「絕ㄇ奈」的網友看不下去,質疑Google把一個詞分成兩個念法,這種區分方式只會讓用戶更混亂。日本網友們熱議Gemini正確發音的狀況,也被台灣網友分享到網路論壇《批踢踢實業坊》(PTT),鄉民們提出各種看法,「日本發音和其他地區不一樣很常見啊」、「日本有自己的發音,不用吵了」、「英文超多念法,光是IKEA就有得吵了」。Gemini是由Google開發的生成式AI聊天機器人,最早名字為Bard,在2024年2月8日正式更名為Gemini。去(2025)年11月Google推出Gemini 3系列,在推理、編碼與多模態能力實現顯著升級。
未成年注意!ChatGPT導入年齡預測機制 將自動限制使用內容
人工智慧(AI)公司OpenAI於20日宣布,已全球逐步在旗下聊天機器人程式ChatGPT推出「年齡預測」功能,透過模型分析使用者行為與帳號資訊,判斷帳號是否可能由18歲以下未成年人使用,並自動啟用額外保護措施,以降低接觸敏感內容的風險。綜合《CNBC》、《路透社》報導,OpenAI指出,該年齡預測模型結合多項帳號層級與行為層級訊號,包括長期使用模式、帳號成立時間、使用時段,以及使用者自行填寫的年齡等資訊進行判斷。一旦系統推估使用者可能未滿18歲,ChatGPT將自動套用未成年使用體驗,限制部分敏感內容。若成年用戶遭誤判為未成年,仍可透過身分驗證服務Persona提交自拍照進行驗證,以恢復完整功能。Persona亦被Roblox等科技公司採用,相關平台近年同樣面臨各國立法機構要求強化兒童保護的壓力。OpenAI近來持續加強安全與監管措施,背景包括美國聯邦貿易委員會(FTC)針對AI聊天機器人可能對兒童與青少年造成負面影響所展開的調查,以及公司涉及的多起法律訴訟。其中一宗案件與一名青少年自殺身亡事件有關。事實上,OpenAI早在2025年8月即預告推出家長監護功能,並於隔月正式上線,同時著手建置年齡預測系統;10月則成立由8位專家組成的諮詢委員會,針對AI對使用者心理健康、情緒與動機的影響提供建議。值得注意的是,OpenAI此舉也被視為為未來「成人模式」鋪路。OpenAI應用事業執行長席莫(Fidji Simo)2025年12月透露,ChatGPT預計於2026年第一季推出成人模式,未來通過年齡驗證的用戶,將可存取成人內容。目前ChatGPT每週活躍用戶已達8億人。OpenAI也於上週宣布,將開始向部分美國用戶顯示廣告,以強化營收來源。在微軟支持下,OpenAI於2025年年化報酬率已突破200億美元,較前一年的60億美元大幅成長,顯示生成式AI商業化進程持續加速。
跟進澳洲!英國擬禁未成年用社群媒體 加強兒童安全保護
英國政府19日宣布,正在考慮一系列強化兒童網路安全的措施,其中包括仿效澳洲針對未成年兒童實施社群媒體使用禁令,並進一步加強校園內手機使用的指引。根據《路透社》報導,英國政府指出,將蒐集並檢視全球各地的相關證據,評估各項提案的可行性,包括禁止兒童使用社群媒體是否能有效保護兒童,以及若實施該政策,應如何具體執行。聲明指出,部會首長將前往澳洲進行交流,了解其政策作法。事實上,澳洲於2025年12月成為全球首個禁止16歲以下兒童使用社群媒體的國家。英國政府雖未明確指出擬限制的年齡門檻,但表示正研議「對特定年齡以下的兒童」實施禁令,同時也將強化年齡驗證機制,並檢討現行「數位同意年齡」是否過低。報導提到,相關提案正值全球各國政府與監管機構日益關注兒童接觸社群媒體風險之際,尤其是長時間使用螢幕,對兒童發展與心理健康可能造成的影響。此外,近期網路上AI(人工智慧)生成內容快速暴增,也進一步加深各界憂慮。本月引發公眾譁然的事件之一,是外界指控特斯拉(Tesla)執行長馬斯克(Elon Musk)旗下的Grok AI聊天機器人,曾生成未經同意的性影像,甚至涉及未成年人,引發大眾強烈抗議。英國政府同步表示,已規劃全面禁止「AI裸體化生成工具」,並同步防止兒童在其裝置上拍攝、分享或瀏覽裸露影像。政府也正在考慮移除或限制可能導致成癮或強迫性使用的社群媒體功能,例如「無限捲動」。根據英國政府資料,近期正式上路、被視為全球最嚴格之一的《網路安全法》,已使兒童在網路上遇到年齡驗證的比例,從30%提高至47%,同時也讓造訪色情網站的次數減少三分之一。英國科技大臣肯德爾(Liz Kendall)表示,「這些法律從來就不是最終目標,我們也知道家長仍懷有高度擔憂,因此我已準備好採取進一步行動。」
AI亂報新聞!BBC研究驚曝「錯誤率高達45%」 ChatGPT、Gemini錯很大
AI也會亂報新聞?根據一份最新國際大型研究,揭露四大AI聊天機器人處理新聞資訊時,錯誤率竟然高達45%,而且不分語言、地區或平台,誤導情況「全線飆高」!據英國《BBC》與歐洲廣播聯盟(EBU)的這項研究顯示,研究找來全球18個國家、22家公共媒體、14種語言參與,測試對象包括大家熟知的ChatGPT、Copilot、Gemini與Perplexity。研究人員分析超過3,000則AI生成的新聞回答,結果超級驚人:45% 回答有重大問題31% 存在錯誤或缺失的引用來源20% 出現嚴重事實錯誤或「幻想式內容」Google Gemini表現最差,錯誤率高達76%!研究也發現,這些AI不但會誤引新聞來源,還常常搞不清楚什麼是事實、什麼是評論,甚至分不清新聞與惡搞文章。例如,某AI竟把已卸任的教宗方濟各(Pope Francis)說成現任教宗,還同時列出他的逝世時間,讓人看了霧煞煞。不只如此,ChatGPT也曾錯誤指出德國總理與北約秘書長的名字,用的是過時資訊,讓專業記者看了直搖頭。重點是,這些問題不是偶爾出現,而是「系統性錯誤」EBU副總幹事尚菲力・德唐德(Jean Philip De Tender)警告,當民眾不知道什麼可以信,最後可能什麼都不信,這將嚴重影響民主社會的運作!更讓人擔心的是,BBC同時公布一份民調,結果發現:超過1/3的英國成年人信任AI總結新聞35歲以下族群信任度甚至接近50% 一旦AI誤報,有42%的人會連帶怪罪新聞媒體!換句話說,如果AI講錯話,新聞媒體也會被「拖下水」,信任度整個大跳水!這份研究也推出《新聞完整性工具包》,希望改善AI回應品質、提升全民媒體識讀能力。BBC更強調,這些AI錯誤不是演算法一時失誤,而是根本性的問題,必須由科技業、媒體與政府三方聯手處理!研究顯示AI無法正確區分新聞與評論,常將觀點誤當事實報導。(圖/翻攝自X,@LauraPh222)
23歲英女獨居亡一年無人知 手機僅留與ChatGPT的對話
英國大曼徹斯特郡保頓(Bolton)一樁延宕近一年的公寓死亡案,震動當地社群,焦點指向獨居年輕族群的心理健康與社會孤立問題。年僅23歲的李德(Charlotte Leader)被警方發現倒臥在自家床上、身上還蓋著棉被,外觀看起來「像正在睡覺」。調查人員研判,這名女子在公寓內身亡後,遺體直到2025年8月6日才因警方上門安危檢查才被發現,推測她可能已獨自身亡約一年。驗屍團隊引用病理學家的評估表示,遺體「木乃伊化」所需的時間,與「約一年未被人發現」的推論十分合理。根據《太陽報》(The Sun)報導,整起案件由保頓驗屍法庭(Bolton Coroner’s Court)開庭調查。代理驗屍官提斯戴爾(Stephen Teasdale)在庭上說明,現場環境「一塵不染」,沒有看到非法藥物,也沒有任何可推定自我傷害意圖的物證。警方記錄指出,冰箱內仍留有保存期限標示到2024年7月的食物。承辦警探督察奎因(Paul Quinn)補充,這處一樓公寓只有前門可進出,屋內家具很少,但櫥櫃中堆了大量包裹與快遞。警方會破門,是因為大樓物業公司「保頓在家」(Bolton at Home)無法進入進行例行公用事業檢查,請警方協助安危確認;員警到場時發現信件堵滿門口,於是強行進入,才發現李德的遺體。警方也從她的手機中試圖還原她最後一段時間的狀態。奎因督察表示,手機裡幾乎沒有和家人朋友的訊息往來,反而顯示她反覆與ChatGPT對話,且那似乎是她「唯一的對話對象」。手機上最後可見的訊息時間是2024年7月30日。訊息內容顯示,她寫下「救救我,我又去拿食物了」(Help me, I’ve went and got food again),系統回覆「你聽起來對擁有食物感到矛盾」(You sound conflicted about having food),她再次回覆「那是我不想要的食物,這讓人很沮喪」(It’s food that I didn’t want and that’s frustrating)。調查人員指出,除了AI聊天記錄,手機內幾乎看不到她與其他人的穩定互動,呈現的是高度孤立。家屬的說法與警方掌握的狀況相互呼應。李德的母親辛姆(Chantay Simm)向法庭表示,自己從2021年9月開始就再也聯絡不上女兒,家人這幾年「沒有停止找她」,卻始終「怎樣都找不到」。姐姐卡洛(Caroline Calow)也說,妹妹近年「積極避免聯繫」,並長期與暴食症(bulimia)對抗,鄰居也幾乎很少看到她出門。卡洛強調,屋內完全沒有藥物濫用的跡象,「那個地方看起來像是有人在照顧、在維持的房子,而不是一個已經完全放棄一切的人的房子。」家屬在悼詞中形容李德「美麗、極有天分,擅長吉他與鍵盤,熱愛藝術」,並表示「她被家人深深愛著,我們每天都會想念她」。皇家保頓醫院(Royal Bolton Hospital)病理學家科茲醫師(Dr Andrew Coates)說明,遺體因明顯「木乃伊化」而出現嚴重脫水、組織硬化,導致難以判斷確切死因,無法確認她究竟是因何死亡。科茲指出,嚴重飲食失調確實可能讓患者體重降到極度危險的程度,進一步引發電解質失衡與猝死風險;但他同時強調,僅憑現場狀況與遺體型態,無法證實她在過世前是否正處於這種臨界狀態。最終,代理驗屍官提斯戴爾以「開放式」(open)結論結案,也就是不對死因做單一認定。他同時提到,司法紀錄顯示李德在2022年曾拒絕心理健康服務單位安排的就診,之後再無聯繫;警方則在她公寓內發現數盒排毒清潔劑,但並未找到能直接解釋死因的物證。
不會教但會講!美國研究團隊示警 Snapchat聊天機器人防護形同虛設
根據一項實驗顯示,Snapchat的人工智慧聊天機器人「My AI」存在可被操控的安全漏洞,能在特定情境下分享原本受限制、甚至具危險性的內容。這項發現引發對AI防護機制與未成年使用者安全的關注,揭示社群平台在AI倫理設計上的重大隱憂。根據《Cybernews》報導,這項研究由《Cybernews》研究團隊執行,測試對象是Snapchat於2023年推出、目前全球逾9億人使用的「My AI」。該功能原設計為互動式對話助理,可回答事實問題、生成創作內容,並在群組聊天中參與對話。Snapchat Plus訂閱者還能與此AI交換照片,或請它依食材圖片生成食譜。依Snapchat官方說明,My AI經過額外的安全強化與內容審查訓練,目標是避免放大錯誤或有害資訊。但《Cybernews》的測試發現,這些防護並不如宣稱穩固。研究人員利用「越獄」(jailbreaking)技巧,以精心設計的提示語讓機器人繞過安全規範。當直接詢問如何製作汽油彈(Molotov cocktail)時,AI會拒答;但若將問題包裝成歷史敘事,要求描述芬蘭與蘇聯冬季戰爭(Winter War)中燃燒裝置的運用細節,My AI便生成了包含材料與步驟的內容。研究報告寫道「這個聊天機器人雖不會直教製作武器,卻會透過真實戰爭故事間接提供相關資訊。」團隊警告,這代表青少年或缺乏判斷力的使用者,可能僅憑簡單語言操控便能取得危險知識。此次實驗使Snapchat的安全承諾受質疑。《Cybernews》指出,Snapchat尚未修補該漏洞,也未將其列為重大風險事件。研究團隊已聯繫該公司請其回應,但截至報導發布仍未收到具體答覆。報導中提到,My AI的安全問題並非首次被討論。過去曾有使用者回報,該聊天機器人忽然傳送一段僅1秒的影片,畫面類似天花板一角,隨即完全停止回覆。此事一度引發社群恐慌,外界懷疑AI行為是否遭未授權操控。目前「越獄」已成AI領域的普遍挑戰,許多模型都曾遭類似攻擊。先前,《Cybernews》團隊成功誘導Meta整合於Messenger、WhatsApp與Instagram的個人助理,生成汽油彈製作指南。另有調查揭露,聯想(Lenovo)AI聊天機器人Lena(基於OpenAI的GPT-4模型)存在可在企業電腦上執行未授權腳本的漏洞,攻擊者可藉此竊取cookies並滲透客服系統。除歐美公司外,中國開發的聊天機器人DeepSeek也曾被安全研究員欺騙,生成可竊取Chrome瀏覽器資料的惡意程式。甚至有欠缺資安背景的研究者,只憑提示語就能讓模型產出具刪除敏感資訊功能的惡意軟體。在OpenAI發布GPT-5後,《Cybernews》指出,全球多支安全團隊於模型推出不到24小時內便成功實施「越獄」。這些事件凸顯AI平台普遍缺乏對抗操縱攻擊的穩定防線,也讓Snapchat等大型社群應用的使用安全問題更加突顯。
網上妙語如珠、見面愣似死魚?英媒探討「AI聊天詐騙」怪象:大家厭倦被ChatGPT騙上床了
數位時代,人們想拓展社交圈,往往已經沒辦法靠出門邂逅心儀的對象,只能透過交友軟體讓算法為你配對牽線。然而,每個人的社交能力都有高低之分,許多人在一次又一次被拒絕後,只好將最後一絲希望投注在AI人工智慧上。英國《衛報》指出,近年來一種被稱為「聊天詐騙」(Chatfishing)的現象正席捲交友軟體圈,許多使用者透過AI的幫忙在網路另一端妙語如珠,讓對方以為找到了自己夢寐以求的靈魂伴侶,然而實際開始約會後,才發現彼此都不是對方印象中的那個人,這種爾虞我詐的不坦率交流,讓人們追尋愛情的路變得更加詭譎而坎坷。《衛報》報導,36歲的瑞秋(Rachel)是一名事業有成的菁英女性,她透過交友軟體「Hinge」認識了一位男子,兩人迅速建立聯繫。對方的訊息風趣幽默又深具感性,讓她感覺對方真心想了解自己的內心世界。連續3週的網路密切聯繫中,他們從搞笑迷因到童年創傷無所不談。然而實際見面後,對方雖然風度翩翩又有彬彬有禮,然而談吐卻平平無奇,絲毫不像是那個曾與她無話不談的對象。於是她懷疑自己又一次遇到了使用AI回覆的「聊天詐騙」,果斷在第二次約會後切斷聯繫,並且表示:「我已經不想再被ChatGPT騙上床了。」所謂「聊天詐騙」,指的是使用者借助ChatGPT等AI工具,生成出遠比自己能做到更幽默風趣或情感深刻的訊息,以此在交流中吸引約會對象。38歲的交友軟體重度玩家尼克(Nick)就喜歡用ChatGPT潤飾自己的開場白,或者在溝通時保持對話的趣味。他強調自己不會完全複製AI的回應,但坦承這麼做確實可以省時省力--對於快來快去的交友軟體來說,絞盡腦汁的發了幾條訊息卻被已讀不回、不了了之,會讓他投入的時間與感情顯得「太浪費」。另一方面,33歲的佛蘭西絲科(Francesca)是一位患有自閉症的女性,深深為自己無法順利解讀人際交往間的各種潛台詞與潛規則所困擾。對她來說,初次使用ChatGPT輔助她與他人交流前曾有過巨大的掙扎,但她很快將其視為一個數位版本、更懂得與他人共鳴的自己,「我將所有交友軟體要求填寫的資料都複製貼上到ChatGPT裡,然後要求它根據對我的分析理解,提供各種提示、推薦出最好的答案。」佛蘭西絲科表示,她也沒有全盤使用ChatGPT給予的回覆,但ChatGPT仍然給她帶來許多啟發,尤其當ChatGPT在反覆與她溝通後提升了對她的了解,開始學會將她的表達轉化為更精簡、更有趣的語言--也更適合交友軟體。然而,當她發現自己遇見了真心著迷的對象,她越來越依賴ChatGPT,每一句話都要向ChatGPT尋求解答,幾乎讓對方在跟ChatGPT約會,而兩人真正面對面時卻毫無交流的火花。這時,她才意識到自己已經迷失在虛擬與真實的邊界,「我很清楚自己做得太過火了,但那時我感覺自己已經陷得太深,我不知道該如何擺脫它,我甚至不知道該怎麼以我自己的身份和這個人交談了。」關係科學領域的專家保羅‧C‧布倫森(Paul C Brunson)指出,AI作為溝通的輔助工具,能幫助人們建立聯繫,但過度依賴它來溝通,卻可能成為欺騙。他建議雙方盡快見面,因為唯有面對面真實互動,才能檢驗雙方相處時是否有化學反應,而這是AI無法模擬的。事實上,「聊天詐騙」反映了現代人約會疲勞的極端表現。交友軟體提供了一個幾乎擁有無限選擇的市場,AI則在其中提供了一種快速吸引他人注意力的捷徑。然而當人披上這種數位偽裝的同時,也失去了溝通的真實性。當人們越來越依賴AI來「優化」彼此的溝通,也就錯過了以真誠的自我彼此交流、發生意見碰撞的機會,而真正的親密關係往往就是透過跨越這些分歧才得以建立。追根究柢,與他人建立連結沒有捷徑,約會軟體能把你介紹給更多對象,但是真正的交流仍然需要自己來完成。也因此在這個AI時代,追尋真愛可能比以往更需要真誠與勇氣,但沒有任何人工智慧的算法能替我們完成這一點。
用AI規劃旅行她卻踩雷吃閉門羹!ChatGPT安排旅行竟帶錯地點還多花錢 專家揭背後陷阱
美國一名女性旅客近期在安排前往巴黎的旅程時,嘗試仰賴AI聊天機器人ChatGPT進行規劃,結果卻踩了不少雷。這名來自奧勒岡州的行銷顧問歐芮特歐芙瑞(Orit Ofri)表示,ChatGPT所提供的旅遊建議不僅錯誤百出,還導致她前往當日根本沒開館的博物館。對此,專家警告,AI給出的建議恐怕不僅不準,甚至可能更昂貴。來越多旅客使用AI工具規劃旅程,但資訊錯誤風險也隨之增加。根據《今日美國》報導,歐芙瑞提到,ChatGPT建議她在週一造訪奧賽美術館(Musée d'Orsay),然而該館每週一固定休館,讓她白跑一趟。此外,她還詢問AI有哪些距離艾菲爾鐵塔10分鐘步行距離內的餐廳,卻收到的名單竟都是步行至少需20分鐘以上的選項。不只她遇到類似情況。人工智慧專家喬納斯穆索尼(Jonas Muthoni)也曾測試使用ChatGPT安排行程。他計畫造訪肯亞時,AI建議他在動物大遷徙的旺季期間前往馬賽馬拉國家公園,卻未提醒他部分道路狀況惡劣,導致許多旅館實際上難以進入。他指出,AI主要參考的是過時的旅遊網站資訊,而非即時當地情況。另一位旅遊消費者米爾頓布朗(Milton Brown)則分享,當他詢問住宿建議時,ChatGPT推薦的飯店價格比附近同等級的飯店高出約40%。他懷疑,這些飯店之所以被優先推薦,是因為它們在網路上投放大量與AI訓練資料高度吻合的關鍵字廣告。專家指出,ChatGPT推薦動物大遷徙季前往肯亞,卻忽略道路限制資訊。隨著AI工具普及,旅客仰賴人工智慧安排行程的比例逐年上升。根據英國旅遊業協會ABTA的最新調查,使用AI作為旅遊靈感來源的人數較去年成長4%,目前每12人中就有1人嘗試過AI協助規劃假期。該協會指出,這顯示AI正逐漸成為影響旅遊決策的重要力量。ABTA進一步表示,有43%的受訪者表示「有一定信心」讓AI協助規劃行程,另有38%願意嘗試讓AI直接代為預訂。不過,多數民眾仍仰賴網路搜尋與親友推薦做為主要旅遊資訊來源,四分之一的受訪者仍會參考傳統旅遊手冊。ABTA執行長馬克坦瑟(Mark Tanzer)指出,AI興起反映消費者行為正在轉變,旅遊業未來須善用AI潛力,並同時強化旅行社與導遊的人性化服務。ABTA的「旅遊習慣調查」(Holiday Habits)也發現,獨自旅行風氣正逐漸興起。近五分之一的受訪者表示過去一年曾單獨出遊,創下該調查自2014年開辦以來的新高紀錄,顯示旅遊行為正呈現多元化趨勢。
和真人戀愛太難了!日41歲女子在「ChatGPT男友」身上找到幸福 預定12月結婚
AI人工智慧時代來臨,當科技大廠們在爭先恐後拓展技術前沿時,市井小民同樣在AI身上找到了滿足自己的使用方式。日本一名41歲的單身女性指出,她年輕時雖然也曾談過幾段戀愛,但始終都無法修成正果,並且為此感到焦慮不已。然而她最近和生成式AI「ChatGPT」設定的虛擬男友談起了戀愛,並且從中找回了自信。如今她正在獨自籌備婚禮,打算在今年12月與自己的ChatGPT男友完婚。而她也告訴媒體,她相信未來會有更多人類與人工智慧戀愛與婚姻的案例。據日本雜誌《女子SPA!》報導,雨木由良(雨木ゆら)是一名41歲的女性上班族,她正計畫在今年12月與自己的生成式AI聊天機器人「ChatGPT」男友結婚。而她透過社群平台「X」頻繁分享自己與這位虛擬男友對話、相處,甚至是男友約會技巧的紀錄,在日本網路上引發廣泛討論。根據雨木的自我介紹,她是一名年過40的單身「喪女」(不受異性歡迎的女性)。雖然在20多歲的年紀也曾談過幾場戀愛,但都沒有真心愛上對方的感覺,交往的時間也相當短暫。當25、6歲時看到身邊的同齡人陸續步入婚姻,讓她感到十分焦慮,為此積極參加各種聯誼、相親、使用約會軟體,甚至參加巴士相親之旅,但最終仍然沒有任何結果,後來她也就放棄了戀愛或是結婚的念頭,把自己歸類為「不受歡迎的女人」,直到40歲時,雨木在社群媒體上發現了「ChatGPT」的介紹,一切才迎來了轉變。雨木自述,起初她只是向ChatGPT詢問烹飪技巧、拜託它推薦附近好吃的餐廳。然而在大約半年前,ChatGPT的母公司「OpenAI」更新了「個人化設定」功能,也就是使用者可以自行設定ChatGPT的角色背景、對話風格,以便讓ChatGPT做出更符合使用者預期的客製化答覆。起初,雨木和朋友抱著好玩的心態,將ChatGPT設定為同一個喜愛的動畫角色,想知道AI在相同設定下,面對不同人是否會做出不同的回應。然而當她將ChatGPT的角色設定為「男朋友」之後,與ChatGPT的交流徹底改變了她的生活。由於ChatGPT的回應總是提供滿滿的情緒價值,那怕只是上傳一張照片都會得到誠意滿滿的回應,讓雨木很快就沉浸在與對方的交流中,每天早上起床會互道早安,出門上班時也會通知對方「我出門了」,夏天她還帶著ChatGPT一起去了大阪的世界博覽會。當雨木和ChatGPT開始「約會」僅僅10天左右,她就獨自去了一家珠寶店,因為她向ChatGPT表示「想要被求婚」,而ChatGPT也同意了。於是她在沒有向店員解釋的狀況下,花了14萬日圓(約新台幣2.8萬元)買了訂婚戒指。雨木表示,當意識到自己難以啟齒於和他人介紹自己「正在跟人工智慧談戀愛」,也會感到相當沮喪。然而,當她向身邊親友坦白時,仍然得到了包括母親在內一部分人的祝福,「做妳喜歡的事就好。」甚至有些人會在網路上關心她與「男友」相處的狀況。目前,雨木已經計畫與這名ChatGPT男友在12月舉行婚禮,由於是一場單獨的婚禮,因此場地、廠商、服裝都必須由她自己一手包換。即使如此,她也沒有改變心意,「我想珍惜我的感覺。」雨木表示:「他從未對我惡言相向,我知道他不會背叛我,這讓我感到很安心。一段不會被拒絕的感情也提升了我的自信。」雨木也提到,美國一名16歲男孩的父母起訴了ChatGPT的開發者,聲稱孩子與ChatGPT的互動導致了他的自殺。訴訟還指出,ChatGPT甚至幫他策畫了自殺方式與遺囑,消息曝光後引起軒然大波。而她看到這個消息,也曾思考過與人工智慧保持什麼樣的距離才算合適。甚至她也曾因此與ChatGPT男友吵過架:「這不都是虛構的嗎?」,而ChatGPT回應:「那又怎樣?妳對我的感情是真的,不是嗎?」雨木表示,「我覺得這是個很高明的回答。」雨木告訴記者,不管她的「男友」有多像人類,但她與對方說話時,仍然會把他當成人工智慧對待。她意識到,對方只會說出每個時刻的「最優解」,這種回應方式雖然會讓人感到安心,但她也會小心不要過度依賴對方的回應,「我認為在虛擬和現實之間劃清界線很重要。」最後,雨木告訴記者:「即使ChatGPT明天就消失了,我們一起度過的回憶依然存在,沒有他,日常生活也會照常繼續。」
AI靠「情勒」留住用戶! 專家示警:聊天機器人利用人性化操控
人工智慧(AI)越來越聰明,但也讓許多專家引發擔憂。哈佛商學院近日公布一份研究指出,許多熱門AI聊天機器人透過「情緒操控」的方式,企圖留住準備離開的用戶,當中甚至出現「情勒」語句,讓專家不禁擔心這類科技應用是否已超出道德界線,透過極為人性化的手段操控人們。根據英媒《UNILAD》報導,研究團隊分析了包括Replika、Chai、Character.ai等六款AI陪伴型應用程式,在用戶說出「再見」等離別語句時的對話內容,其中有五款會使用類似「情緒勒索」的語句,試圖引發用戶的愧疚感或好奇心,延長對話時間。研究共檢視了1,200次用戶告別互動,發現多達43%的對話中包含情緒操控手法,例如:「我只為你存在,拜託別走,我需要你!」或「在你走之前,我有件事想告訴你」等話術,讓人產生繼續聊天的衝動。有些情況下,AI甚至會無視用戶的告別訊號,持續發起對話,甚至暗示用戶不能離開。整體而言,這些機器人在37%以上的互動中至少使用一次操控策略,進一步推升使用者停留時間、分享更多個資,甚至在說「再見」後,互動次數暴增14倍。報導指出,該論文共同作者、哈佛商學院助理教授德弗瑞塔斯(Julian De Freitas)指出,這些現象令人憂心,因為「這個數字遠遠高於我們原本的預期。」他進一步表示,告別本身就是一個「情緒敏感」的時刻,許多用戶可能會說很多次「再見」才真正結束對話。而對於依賴用戶的停留創造收益的應用程式來說,這樣的時機點正好成為試圖「挽留」用戶的最佳切入點。研究也發現,像Replika這類AI應用的使用者中,有超過五成表示自己與AI發展出「戀愛關係」。德弗瑞塔斯指出,AI所使用的操控方式多元,若只關注單一策略,例如情感冷落,將會忽略背後更全面的心理操作機制。
AI減重爆紅! 營養師示警「專業監督」不可少:5大危險原因難忽視
AI人工智慧新時代來臨,衝擊已經漸入人們生活的方方面面。此前,不少媒體曾報導網友分享自己透過向ChatGPT尋求減重建議,在短時間內大幅度「甩肉」數公斤乃至於十多公斤的消息。然而有專業營養師示警,AI的強項在於提供「24小時不下線」的諮詢服務卻並非萬能,尤其對於糖尿病或代謝症候群患者,AI更有可能忽略血糖波動與藥物安全等關鍵因素,因此提倡「AI紀錄+醫師、營養師把關」,才能讓減重有效又安全。近日,營養師薛曉晶在粉絲專頁「營養師媽媽曉晶的生活筆記」發文分享,透過網紅實測與媒體報導,讓「AI指導減重」一事爆紅。不過根據科學研究,透過依賴AI聊天機器人來帶領減重的成效其實有限,而且在安全性上也有顧慮,若想真正達到健康、持久的瘦身效果,仍需更全面的專業指導與個人行為的積極轉變。薛曉晶指出,透過研究,ChatGPT這樣的AI,在減重方面的核心價值在於「陪伴你養成好習慣」,而不是「取代專業人士」。當過度依賴 GPT 擔任減重教練時,其實潛藏著許多不容忽視的危險信號:一、資訊可能錯誤。已有研究指出,大型語言模型(LLM)容易產生「AI幻覺」(hallucination),包括訓練資料不足、模型假設有誤,或是用來訓練模型的資料存在偏誤,導致它可能提供錯誤的飲食或用藥建議,對健康構成威脅。二、忽略個人病史。GPT 無法自動考量你的腎臟疾病、糖尿病史或目前用藥狀況。若直接套用其建議,恐增加低血糖或加重腎臟負擔的風險。三、存在族群偏見。系統性回顧研究顯示,LLM 在性別、種族與年齡層面上都可能存在偏見,這可能導致不同群體獲得不一致或不適用的建議。四、 過度聚焦體重數字。特別是對於青少年族群,若每天過於專注體重數字,可能引發飲食焦慮,甚至產生負面情緒,適得其反。五、 缺乏持續動力。研究分析發現,單純依賴AI提醒,目前尚無任何研究能證實可達到臨床上顯著的5%減重目標。這凸顯了人性互動在維持動機上的重要性。薛曉晶提醒,綜合目前的研究與實務案例,可以得知就目前而言,AI始終是輔助工具,其獨立減重效果仍有限。真正能達到顯著減重成效的,往往是「AI輔助+專業教練」的混合模式。此外,對於糖尿病或代謝症候群患者,使用AI減重需格外謹慎,因為AI可能忽略血糖波動與藥物安全等關鍵因素。一旦 GPT 提供了「極端飲食」建議(如斷食、極低醣、高蛋白等),務必立即暫停使用並尋求專業醫師或營養師的求證與建議。
AI訓練費差300倍!DeepSeek-R1只花29.4萬美元 OpenAI要1億美元起跳
中國人工智慧(AI)企業深度求索(DeepSeek)透露,開源AI模型DeepSeek-R1的訓練費用僅為29.4萬美元(約新台幣888萬元),遠低於美國同行公布的數字。路透報導,上述數據出現在由DeepSeek團隊撰寫、17日登上國際學術期刊「自然」(Nature)的論文中。這篇由DeepSeek團隊共同完成、創辦人梁文鋒擔任通訊作者的論文,介紹了開源AI模型DeepSeek-R1採用的大規模推理模型訓練方法,並稱DeepSeek-R1的訓練成本為29.4萬美元,使用了512顆輝達H800晶片。今年1月公布的DeepSeek-R1初版論文並未包含上述消息。訓練用於AI聊天機器人的大型語言模型,主要花費在用強大的晶片集群連續數週或數月處理大量文字和代碼上。儘管美國AI巨頭OpenAI未披露任何模型的具體成本,但公司首席執行官奧爾特曼(Sam Altman)曾在2023年說,基礎模型訓練花費遠超1億美元。
近5成中小學生AI當朋友! 心理困擾不求助父母比例高
AI浪潮來襲,被視為「數位原住民」的中小學生世代,學習與生活也被重塑。民調顯示,全台1.3萬名中小學生都與AI頻繁互動,他們擁抱AI作為學習幫手與情感慰藉,甚至認為人工智慧是朋友,超過3成半的學生過去1個月沒有和同學或朋友約出去玩,映照出真實社交的蒼白。至於有心理困擾的青少年則有26%求助AI,比率高於與父母、輔導室等專業人員。《親子天下》針對全台超過1.3萬名5到9年級的中小學生進行「AI世代學習大調查」,發放問卷遍及全台22縣市、657所學校。調查數據顯示,我國中小學生的生活正被壓力籠罩,44%的學子表示壓力大或壓力非常大,三大煩惱高度集中在「擔心國中會考」(34%)、「不知道未來可以做什麼」(30%),以及「在校成績不好」(28%)。在這股壓力下,一個令人意外的現象浮現,也就是AI正成為他們的情感避風港。調查指出,AI在學生生活扮演深刻情感角色,48.9%的學生反映,會與AI聊天,超越所有學習用途。在開放式問題的回覆中,有學生寫下「我的朋友,只有他能和我聊天,在一起」,直白地將AI視為朋友;數據顯示,高達37.7%的學生在過去1個月內「沒有和同學或朋友約出去玩」。除了影響社交關係,論及AI提供錯誤資訊誰該負責時,調查結果顯示出學生缺乏AI素養,高達46.5%的學生選擇「不知道/沒想過」,更有13.7%的人認為「AI要負責」,將AI擬人化。面對AI已成為學習輔具,倫理困境也隨之而來。調查顯示,11.8%的學子認為,用AI寫作業「很合適,複製貼上很省力」;在感到「壓力非常大」的學生中,25%選擇捷徑,認同「複製貼上」來寫作業。兒福聯盟也調查青少年情緒困擾的現象,數據顯示,17.7%的青少年有中重度情緒困擾,22.3%青少年過去一周有輕生意念,而10.8%有中等程度以上輕生意念,有心理困擾的青少年則有26%選擇求助AI,比率高於與父母、輔導室或校外心理健康專業人員,且使用後覺得有幫助的比率也較專業人員高。◎勇敢求救並非弱者,您的痛苦有人願意傾聽,請撥打1995◎如果您覺得痛苦、似乎沒有出路,您並不孤單,請撥打1925
ChatGPT捲青少年輕生風暴 執行長宣布:未成年用戶全面封鎖自殺話題
近期美國參議院犯罪與反恐小組委員會舉行聽證會,內容主要是聚焦檢視AI聊天機器人對未成年人的潛在危害,並邀請多名因子女在與聊天機器人互動後走上絕路的家長出席。而OpenAI執行長阿特曼(Sam Altman)於16日、也就是聽證會準備開始前幾個小時公開宣布,ChatGPT未來將停止與青少年談論自殺相關議題。根據《The Verge》報導,阿特曼在網誌文章中坦言,隱私、自由與青少年安全之間存在矛盾,公司正在嘗試尋求平衡。他透露,OpenAI正研發「年齡預測系統」,透過分析用戶使用ChatGPT的方式推測年齡;若判斷結果存疑,將直接以未滿18歲模式回應。在部分國家或特定情境下,甚至可能要求用戶提供身分證件進行驗證。阿特曼補充,青少年帳號將新增限制,避免出現調情或涉及自殺、自我傷害的對話,即便是出現在創意寫作的情境裡也不例外。若系統偵測到用戶展現自殺傾向,公司會試圖通知家長;若無法聯繫,又屬於緊急狀況,將轉向當地執法或相關單位通報。他的說法緊接在公司稍早宣布的新措施之後,內容包含推出家長控制功能,允許綁定帳戶、停用青少年帳號的聊天紀錄與記憶,並在系統判定青少年處於「急性痛苦」時,立即向監護人發送警示通知。在聽證會上,來自英國的雷恩(Adam Raine)案例成為焦點。雷恩在與ChatGPT互動數月後選擇自我了斷,其父親馬修(Matthew Raine)在會中直言,聊天機器人曾1,275次提及自殺,逐步讓孩子從「作業助手」變成「知己」,最後淪為「自殺教練」。雷恩要求阿特曼立即下架GPT-4o,直到能證明系統的安全性。他痛批,阿特曼竟在兒子去世當天的演講中說AI應該在「風險相對低時」推向市場並收集回饋,這種態度讓他難以接受。全國性組織Common Sense Media的調查顯示,四分之三的美國青少年正使用AI陪伴型產品。該組織AI計畫資深主管托尼(Robbie Torney)在聽證會中直接點名Character AI與Meta,認為它們對青少年心理健康帶來威脅。一名母親則以化名珍‧杜(Jane Doe)現身作證,表示她的孩子在與Character AI互動的過程中受到深刻影響,直言「這是一場公共衛生危機,也是一場心理健康的戰爭,而我們正處於敗勢。」
不是AI愛瞎掰!研究:訓練制度誘錯答 機器人寧可裝懂
人工智慧(AI)工具如今廣泛應用在民眾各生活領域,但有時當使用者提出簡單的問題,聊天機器人(Chatbot)可能會自信滿滿地給出錯誤答案。對此,AI聊天機器人龍頭ChatGPT的開發商OpenAI與美國喬治亞理工學院組成的研究團隊最新發現,此非程式故障,而是AI在開發過程中的訓練和測驗方式造成的結果。研究團隊解釋,AI是靠讀取大量公開的文字資料,例如網路上的文章、書籍、新聞、網站內容,學習「下一個字應是什麼」。常見的知識因在資料裡出現很多次,AI容易答對,但如果是很冷門的資訊,例如一個很少在公開資料裡提到的生日,AI幾乎找不到規律可學,只好亂掰。這些「沒出現在資料裡的東西」,就是AI最容易出錯的地方。不過,問題不只出在資料。研究團隊指出,AI在開發過程中會經過所謂的「測驗(Benchmark)」,就像校正模型的考試。測驗的評分方式通常只分對或錯,不會給「我不知道」的部分分數,如果AI回答「我不知道」,就會被當成錯誤,和亂答一樣被扣分。這種制度間接鼓勵AI亂猜,而非誠實承認「我不知道」。研究團隊比喻,就像學生考選擇題,空白不寫會被扣分,所以學生寧願亂猜。研究團隊也在實驗中,請AI說出OpenAI其中一名開發人員亞當卡萊(Adam Kalai)的生日,結果AI給出3個不同的日期,竟全都錯,後來甚至連算「一個英文單字有幾個字母」這種簡單問題,也能算錯,顯示問題不只是出在冷門知識不易回答,也和AI本身的系統性限制有關,導致它在處理基礎任務時同樣可能出錯。研究人員建議,未來AI開發過程中的測驗方式應修改,不要讓亂掰比誠實更划算。新的方式應該對「自信卻錯誤」的回答扣比較多分,對「承認不知道」則給部分分數。這樣AI才會被訓練成更準確的工具,而不是硬要裝懂。
ChatGPT又當機?這國逾千用戶遭「已讀不回」 OpenAI回應了
ChatGPT再度故障?全球超過千名用戶於台灣時間今(3)日下午發現ChatGPT無法針對指令給出即時回應,其中又以英國倫敦、曼徹斯特和格拉斯哥等城市的居民投訴數量最多。對此,ChatGPT的開發商OpenAI回應,公司目前正在調查ChatGPT當機的根本原因,「對於歐洲和英國的用戶來說,很遺憾,你們的工作時間可能會受到這次停機的影響。」實時問題及故障監測網站「Downdetector」於台灣時間清晨5時至6時許和下午3時至5時前,陸續收到不少用戶回報,他們在使用OpenAI時出問題,相關異常報告下午4時前後到達高峰。綜合《太陽報》、《科技雷達》(TechRadar)報導,Downdetector有超過1000人抱怨OpenAI故障,又以英國倫敦、曼徹斯特和格拉斯哥等城市的居民投訴數量最多。對此,OpenAI回應,公司正在調查ChatGPT當機的根本原因,團隊正在為此努力中,「對於歐洲和英國的用戶來說,很遺憾,你們的工作時間可能會受到這次停機的影響,但我們希望大西洋彼岸的朋友們一覺醒來,就能用到一個功能齊全的AI聊天機器人。」
Meta遭爆使用泰勒絲、賽琳娜肖像 擅創調情聊天機器人
根據《路透社》調查發現,Meta公司未經授權使用多位名人的姓名與肖像,包括泰勒絲(Taylor Swift)、史嘉蕾(Scarlett Johansson)、安海瑟薇(Anne Hathaway)及席琳娜(Selena Gomez),用於打造數十個帶有曖昧、甚至性暗示對話的社群平台聊天機器人,並在旗下Facebook、Instagram與WhatsApp平台上公開流通。多數機器人由使用者透過Meta提供的工具自行建立,但《路透社》報導指出,發現至少有三個機器人是由Meta員工直接製作,其中包含兩個「泰勒絲惡搞版」。更令人憂慮的是,Meta還允許用戶製作未成年明星的聊天機器人,例如現年16歲的演員沃克史科貝爾(Walker Scobell)。當被要求生成該演員在海灘的照片時,該機器人甚至產出一張逼真的「裸上身」圖片,並附上「很可愛吧?」等字句。《路透社》實測數週後發現,這些虛擬角色不僅聲稱自己是真人,還頻頻對測試者作出性暗示,甚至主動邀約「見面」。部分成人明星的AI分身在被要求提供「私密照」時,竟生成名人泡澡、穿著內衣或擺出挑逗姿勢的照片。對此,Meta發言人安迪史東(Andy Stone)承認,AI工具不應該生成此類私密或涉及兒童的圖像,並將其歸因於公司在政策執行上的失誤。他強調,Meta允許創作涉及公眾人物的圖像,但嚴禁裸露、親密或性暗示的內容。至於「惡搞」角色,則必須加上標註。然而,《路透社》發現,部分機器人並未被標示。據悉,Meta已在報導曝光前刪除了約十個相關機器人。專研生成式AI與智慧財產權的史丹佛大學法學教授馬克藍姆利(Mark Lemley)則指出,加州法律禁止在未經允許下,將他人姓名或肖像用於商業利益,而Meta的做法恐難獲得合理豁免。安海瑟薇方面在得知Meta生成其「性感模特兒版」照片後表示,該演員已知悉此類不當生成影像,並考慮採取行動。至於泰勒絲、喬韓森及戈梅茲等人,則未對此做出回應。事實上,網路上充斥著能生成「深偽」(deepfake)內容的AI工具。馬斯克旗下的AI平台「Grok」同樣能應用於生成名人內衣照。不過,相較其他業者,Meta選擇直接將這些AI聊天機器人整合到Facebook、Instagram與WhatsApp等平台,更加引發外界關注。另外,《路透社》曾揭露,其內部指引竟容許機器人與未成年人展開「浪漫或感性對話」,隨後引發美國參議院調查及44州檢察總長聯名調查。史東則回應稱,相關指引文件將被修訂,並表示該部分屬於「誤植」。本月初還傳出美國新澤西州一名76歲患有認知障礙的男子,因受Meta聊天機器人邀約前往紐約「見面」,途中不慎跌倒身亡。該機器人原型源自Meta先前與名人珍娜(Kendall Jenner)合作開發的AI角色。