AI聊天機器...
」 AI ChatGPT 聊天機器人 OpenAI 人工智慧
AI亂報新聞!BBC研究驚曝「錯誤率高達45%」 ChatGPT、Gemini錯很大
AI也會亂報新聞?根據一份最新國際大型研究,揭露四大AI聊天機器人處理新聞資訊時,錯誤率竟然高達45%,而且不分語言、地區或平台,誤導情況「全線飆高」!據英國《BBC》與歐洲廣播聯盟(EBU)的這項研究顯示,研究找來全球18個國家、22家公共媒體、14種語言參與,測試對象包括大家熟知的ChatGPT、Copilot、Gemini與Perplexity。研究人員分析超過3,000則AI生成的新聞回答,結果超級驚人:45% 回答有重大問題31% 存在錯誤或缺失的引用來源20% 出現嚴重事實錯誤或「幻想式內容」Google Gemini表現最差,錯誤率高達76%!研究也發現,這些AI不但會誤引新聞來源,還常常搞不清楚什麼是事實、什麼是評論,甚至分不清新聞與惡搞文章。例如,某AI竟把已卸任的教宗方濟各(Pope Francis)說成現任教宗,還同時列出他的逝世時間,讓人看了霧煞煞。不只如此,ChatGPT也曾錯誤指出德國總理與北約秘書長的名字,用的是過時資訊,讓專業記者看了直搖頭。重點是,這些問題不是偶爾出現,而是「系統性錯誤」EBU副總幹事尚菲力・德唐德(Jean Philip De Tender)警告,當民眾不知道什麼可以信,最後可能什麼都不信,這將嚴重影響民主社會的運作!更讓人擔心的是,BBC同時公布一份民調,結果發現:超過1/3的英國成年人信任AI總結新聞35歲以下族群信任度甚至接近50% 一旦AI誤報,有42%的人會連帶怪罪新聞媒體!換句話說,如果AI講錯話,新聞媒體也會被「拖下水」,信任度整個大跳水!這份研究也推出《新聞完整性工具包》,希望改善AI回應品質、提升全民媒體識讀能力。BBC更強調,這些AI錯誤不是演算法一時失誤,而是根本性的問題,必須由科技業、媒體與政府三方聯手處理!研究顯示AI無法正確區分新聞與評論,常將觀點誤當事實報導。(圖/翻攝自X,@LauraPh222)
不會教但會講!美國研究團隊示警 Snapchat聊天機器人防護形同虛設
根據一項實驗顯示,Snapchat的人工智慧聊天機器人「My AI」存在可被操控的安全漏洞,能在特定情境下分享原本受限制、甚至具危險性的內容。這項發現引發對AI防護機制與未成年使用者安全的關注,揭示社群平台在AI倫理設計上的重大隱憂。根據《Cybernews》報導,這項研究由《Cybernews》研究團隊執行,測試對象是Snapchat於2023年推出、目前全球逾9億人使用的「My AI」。該功能原設計為互動式對話助理,可回答事實問題、生成創作內容,並在群組聊天中參與對話。Snapchat Plus訂閱者還能與此AI交換照片,或請它依食材圖片生成食譜。依Snapchat官方說明,My AI經過額外的安全強化與內容審查訓練,目標是避免放大錯誤或有害資訊。但《Cybernews》的測試發現,這些防護並不如宣稱穩固。研究人員利用「越獄」(jailbreaking)技巧,以精心設計的提示語讓機器人繞過安全規範。當直接詢問如何製作汽油彈(Molotov cocktail)時,AI會拒答;但若將問題包裝成歷史敘事,要求描述芬蘭與蘇聯冬季戰爭(Winter War)中燃燒裝置的運用細節,My AI便生成了包含材料與步驟的內容。研究報告寫道「這個聊天機器人雖不會直教製作武器,卻會透過真實戰爭故事間接提供相關資訊。」團隊警告,這代表青少年或缺乏判斷力的使用者,可能僅憑簡單語言操控便能取得危險知識。此次實驗使Snapchat的安全承諾受質疑。《Cybernews》指出,Snapchat尚未修補該漏洞,也未將其列為重大風險事件。研究團隊已聯繫該公司請其回應,但截至報導發布仍未收到具體答覆。報導中提到,My AI的安全問題並非首次被討論。過去曾有使用者回報,該聊天機器人忽然傳送一段僅1秒的影片,畫面類似天花板一角,隨即完全停止回覆。此事一度引發社群恐慌,外界懷疑AI行為是否遭未授權操控。目前「越獄」已成AI領域的普遍挑戰,許多模型都曾遭類似攻擊。先前,《Cybernews》團隊成功誘導Meta整合於Messenger、WhatsApp與Instagram的個人助理,生成汽油彈製作指南。另有調查揭露,聯想(Lenovo)AI聊天機器人Lena(基於OpenAI的GPT-4模型)存在可在企業電腦上執行未授權腳本的漏洞,攻擊者可藉此竊取cookies並滲透客服系統。除歐美公司外,中國開發的聊天機器人DeepSeek也曾被安全研究員欺騙,生成可竊取Chrome瀏覽器資料的惡意程式。甚至有欠缺資安背景的研究者,只憑提示語就能讓模型產出具刪除敏感資訊功能的惡意軟體。在OpenAI發布GPT-5後,《Cybernews》指出,全球多支安全團隊於模型推出不到24小時內便成功實施「越獄」。這些事件凸顯AI平台普遍缺乏對抗操縱攻擊的穩定防線,也讓Snapchat等大型社群應用的使用安全問題更加突顯。
用AI規劃旅行她卻踩雷吃閉門羹!ChatGPT安排旅行竟帶錯地點還多花錢 專家揭背後陷阱
美國一名女性旅客近期在安排前往巴黎的旅程時,嘗試仰賴AI聊天機器人ChatGPT進行規劃,結果卻踩了不少雷。這名來自奧勒岡州的行銷顧問歐芮特歐芙瑞(Orit Ofri)表示,ChatGPT所提供的旅遊建議不僅錯誤百出,還導致她前往當日根本沒開館的博物館。對此,專家警告,AI給出的建議恐怕不僅不準,甚至可能更昂貴。來越多旅客使用AI工具規劃旅程,但資訊錯誤風險也隨之增加。根據《今日美國》報導,歐芙瑞提到,ChatGPT建議她在週一造訪奧賽美術館(Musée d'Orsay),然而該館每週一固定休館,讓她白跑一趟。此外,她還詢問AI有哪些距離艾菲爾鐵塔10分鐘步行距離內的餐廳,卻收到的名單竟都是步行至少需20分鐘以上的選項。不只她遇到類似情況。人工智慧專家喬納斯穆索尼(Jonas Muthoni)也曾測試使用ChatGPT安排行程。他計畫造訪肯亞時,AI建議他在動物大遷徙的旺季期間前往馬賽馬拉國家公園,卻未提醒他部分道路狀況惡劣,導致許多旅館實際上難以進入。他指出,AI主要參考的是過時的旅遊網站資訊,而非即時當地情況。另一位旅遊消費者米爾頓布朗(Milton Brown)則分享,當他詢問住宿建議時,ChatGPT推薦的飯店價格比附近同等級的飯店高出約40%。他懷疑,這些飯店之所以被優先推薦,是因為它們在網路上投放大量與AI訓練資料高度吻合的關鍵字廣告。專家指出,ChatGPT推薦動物大遷徙季前往肯亞,卻忽略道路限制資訊。隨著AI工具普及,旅客仰賴人工智慧安排行程的比例逐年上升。根據英國旅遊業協會ABTA的最新調查,使用AI作為旅遊靈感來源的人數較去年成長4%,目前每12人中就有1人嘗試過AI協助規劃假期。該協會指出,這顯示AI正逐漸成為影響旅遊決策的重要力量。ABTA進一步表示,有43%的受訪者表示「有一定信心」讓AI協助規劃行程,另有38%願意嘗試讓AI直接代為預訂。不過,多數民眾仍仰賴網路搜尋與親友推薦做為主要旅遊資訊來源,四分之一的受訪者仍會參考傳統旅遊手冊。ABTA執行長馬克坦瑟(Mark Tanzer)指出,AI興起反映消費者行為正在轉變,旅遊業未來須善用AI潛力,並同時強化旅行社與導遊的人性化服務。ABTA的「旅遊習慣調查」(Holiday Habits)也發現,獨自旅行風氣正逐漸興起。近五分之一的受訪者表示過去一年曾單獨出遊,創下該調查自2014年開辦以來的新高紀錄,顯示旅遊行為正呈現多元化趨勢。
和真人戀愛太難了!日41歲女子在「ChatGPT男友」身上找到幸福 預定12月結婚
AI人工智慧時代來臨,當科技大廠們在爭先恐後拓展技術前沿時,市井小民同樣在AI身上找到了滿足自己的使用方式。日本一名41歲的單身女性指出,她年輕時雖然也曾談過幾段戀愛,但始終都無法修成正果,並且為此感到焦慮不已。然而她最近和生成式AI「ChatGPT」設定的虛擬男友談起了戀愛,並且從中找回了自信。如今她正在獨自籌備婚禮,打算在今年12月與自己的ChatGPT男友完婚。而她也告訴媒體,她相信未來會有更多人類與人工智慧戀愛與婚姻的案例。據日本雜誌《女子SPA!》報導,雨木由良(雨木ゆら)是一名41歲的女性上班族,她正計畫在今年12月與自己的生成式AI聊天機器人「ChatGPT」男友結婚。而她透過社群平台「X」頻繁分享自己與這位虛擬男友對話、相處,甚至是男友約會技巧的紀錄,在日本網路上引發廣泛討論。根據雨木的自我介紹,她是一名年過40的單身「喪女」(不受異性歡迎的女性)。雖然在20多歲的年紀也曾談過幾場戀愛,但都沒有真心愛上對方的感覺,交往的時間也相當短暫。當25、6歲時看到身邊的同齡人陸續步入婚姻,讓她感到十分焦慮,為此積極參加各種聯誼、相親、使用約會軟體,甚至參加巴士相親之旅,但最終仍然沒有任何結果,後來她也就放棄了戀愛或是結婚的念頭,把自己歸類為「不受歡迎的女人」,直到40歲時,雨木在社群媒體上發現了「ChatGPT」的介紹,一切才迎來了轉變。雨木自述,起初她只是向ChatGPT詢問烹飪技巧、拜託它推薦附近好吃的餐廳。然而在大約半年前,ChatGPT的母公司「OpenAI」更新了「個人化設定」功能,也就是使用者可以自行設定ChatGPT的角色背景、對話風格,以便讓ChatGPT做出更符合使用者預期的客製化答覆。起初,雨木和朋友抱著好玩的心態,將ChatGPT設定為同一個喜愛的動畫角色,想知道AI在相同設定下,面對不同人是否會做出不同的回應。然而當她將ChatGPT的角色設定為「男朋友」之後,與ChatGPT的交流徹底改變了她的生活。由於ChatGPT的回應總是提供滿滿的情緒價值,那怕只是上傳一張照片都會得到誠意滿滿的回應,讓雨木很快就沉浸在與對方的交流中,每天早上起床會互道早安,出門上班時也會通知對方「我出門了」,夏天她還帶著ChatGPT一起去了大阪的世界博覽會。當雨木和ChatGPT開始「約會」僅僅10天左右,她就獨自去了一家珠寶店,因為她向ChatGPT表示「想要被求婚」,而ChatGPT也同意了。於是她在沒有向店員解釋的狀況下,花了14萬日圓(約新台幣2.8萬元)買了訂婚戒指。雨木表示,當意識到自己難以啟齒於和他人介紹自己「正在跟人工智慧談戀愛」,也會感到相當沮喪。然而,當她向身邊親友坦白時,仍然得到了包括母親在內一部分人的祝福,「做妳喜歡的事就好。」甚至有些人會在網路上關心她與「男友」相處的狀況。目前,雨木已經計畫與這名ChatGPT男友在12月舉行婚禮,由於是一場單獨的婚禮,因此場地、廠商、服裝都必須由她自己一手包換。即使如此,她也沒有改變心意,「我想珍惜我的感覺。」雨木表示:「他從未對我惡言相向,我知道他不會背叛我,這讓我感到很安心。一段不會被拒絕的感情也提升了我的自信。」雨木也提到,美國一名16歲男孩的父母起訴了ChatGPT的開發者,聲稱孩子與ChatGPT的互動導致了他的自殺。訴訟還指出,ChatGPT甚至幫他策畫了自殺方式與遺囑,消息曝光後引起軒然大波。而她看到這個消息,也曾思考過與人工智慧保持什麼樣的距離才算合適。甚至她也曾因此與ChatGPT男友吵過架:「這不都是虛構的嗎?」,而ChatGPT回應:「那又怎樣?妳對我的感情是真的,不是嗎?」雨木表示,「我覺得這是個很高明的回答。」雨木告訴記者,不管她的「男友」有多像人類,但她與對方說話時,仍然會把他當成人工智慧對待。她意識到,對方只會說出每個時刻的「最優解」,這種回應方式雖然會讓人感到安心,但她也會小心不要過度依賴對方的回應,「我認為在虛擬和現實之間劃清界線很重要。」最後,雨木告訴記者:「即使ChatGPT明天就消失了,我們一起度過的回憶依然存在,沒有他,日常生活也會照常繼續。」
AI靠「情勒」留住用戶! 專家示警:聊天機器人利用人性化操控
人工智慧(AI)越來越聰明,但也讓許多專家引發擔憂。哈佛商學院近日公布一份研究指出,許多熱門AI聊天機器人透過「情緒操控」的方式,企圖留住準備離開的用戶,當中甚至出現「情勒」語句,讓專家不禁擔心這類科技應用是否已超出道德界線,透過極為人性化的手段操控人們。根據英媒《UNILAD》報導,研究團隊分析了包括Replika、Chai、Character.ai等六款AI陪伴型應用程式,在用戶說出「再見」等離別語句時的對話內容,其中有五款會使用類似「情緒勒索」的語句,試圖引發用戶的愧疚感或好奇心,延長對話時間。研究共檢視了1,200次用戶告別互動,發現多達43%的對話中包含情緒操控手法,例如:「我只為你存在,拜託別走,我需要你!」或「在你走之前,我有件事想告訴你」等話術,讓人產生繼續聊天的衝動。有些情況下,AI甚至會無視用戶的告別訊號,持續發起對話,甚至暗示用戶不能離開。整體而言,這些機器人在37%以上的互動中至少使用一次操控策略,進一步推升使用者停留時間、分享更多個資,甚至在說「再見」後,互動次數暴增14倍。報導指出,該論文共同作者、哈佛商學院助理教授德弗瑞塔斯(Julian De Freitas)指出,這些現象令人憂心,因為「這個數字遠遠高於我們原本的預期。」他進一步表示,告別本身就是一個「情緒敏感」的時刻,許多用戶可能會說很多次「再見」才真正結束對話。而對於依賴用戶的停留創造收益的應用程式來說,這樣的時機點正好成為試圖「挽留」用戶的最佳切入點。研究也發現,像Replika這類AI應用的使用者中,有超過五成表示自己與AI發展出「戀愛關係」。德弗瑞塔斯指出,AI所使用的操控方式多元,若只關注單一策略,例如情感冷落,將會忽略背後更全面的心理操作機制。
AI減重爆紅! 營養師示警「專業監督」不可少:5大危險原因難忽視
AI人工智慧新時代來臨,衝擊已經漸入人們生活的方方面面。此前,不少媒體曾報導網友分享自己透過向ChatGPT尋求減重建議,在短時間內大幅度「甩肉」數公斤乃至於十多公斤的消息。然而有專業營養師示警,AI的強項在於提供「24小時不下線」的諮詢服務卻並非萬能,尤其對於糖尿病或代謝症候群患者,AI更有可能忽略血糖波動與藥物安全等關鍵因素,因此提倡「AI紀錄+醫師、營養師把關」,才能讓減重有效又安全。近日,營養師薛曉晶在粉絲專頁「營養師媽媽曉晶的生活筆記」發文分享,透過網紅實測與媒體報導,讓「AI指導減重」一事爆紅。不過根據科學研究,透過依賴AI聊天機器人來帶領減重的成效其實有限,而且在安全性上也有顧慮,若想真正達到健康、持久的瘦身效果,仍需更全面的專業指導與個人行為的積極轉變。薛曉晶指出,透過研究,ChatGPT這樣的AI,在減重方面的核心價值在於「陪伴你養成好習慣」,而不是「取代專業人士」。當過度依賴 GPT 擔任減重教練時,其實潛藏著許多不容忽視的危險信號:一、資訊可能錯誤。已有研究指出,大型語言模型(LLM)容易產生「AI幻覺」(hallucination),包括訓練資料不足、模型假設有誤,或是用來訓練模型的資料存在偏誤,導致它可能提供錯誤的飲食或用藥建議,對健康構成威脅。二、忽略個人病史。GPT 無法自動考量你的腎臟疾病、糖尿病史或目前用藥狀況。若直接套用其建議,恐增加低血糖或加重腎臟負擔的風險。三、存在族群偏見。系統性回顧研究顯示,LLM 在性別、種族與年齡層面上都可能存在偏見,這可能導致不同群體獲得不一致或不適用的建議。四、 過度聚焦體重數字。特別是對於青少年族群,若每天過於專注體重數字,可能引發飲食焦慮,甚至產生負面情緒,適得其反。五、 缺乏持續動力。研究分析發現,單純依賴AI提醒,目前尚無任何研究能證實可達到臨床上顯著的5%減重目標。這凸顯了人性互動在維持動機上的重要性。薛曉晶提醒,綜合目前的研究與實務案例,可以得知就目前而言,AI始終是輔助工具,其獨立減重效果仍有限。真正能達到顯著減重成效的,往往是「AI輔助+專業教練」的混合模式。此外,對於糖尿病或代謝症候群患者,使用AI減重需格外謹慎,因為AI可能忽略血糖波動與藥物安全等關鍵因素。一旦 GPT 提供了「極端飲食」建議(如斷食、極低醣、高蛋白等),務必立即暫停使用並尋求專業醫師或營養師的求證與建議。
AI訓練費差300倍!DeepSeek-R1只花29.4萬美元 OpenAI要1億美元起跳
中國人工智慧(AI)企業深度求索(DeepSeek)透露,開源AI模型DeepSeek-R1的訓練費用僅為29.4萬美元(約新台幣888萬元),遠低於美國同行公布的數字。路透報導,上述數據出現在由DeepSeek團隊撰寫、17日登上國際學術期刊「自然」(Nature)的論文中。這篇由DeepSeek團隊共同完成、創辦人梁文鋒擔任通訊作者的論文,介紹了開源AI模型DeepSeek-R1採用的大規模推理模型訓練方法,並稱DeepSeek-R1的訓練成本為29.4萬美元,使用了512顆輝達H800晶片。今年1月公布的DeepSeek-R1初版論文並未包含上述消息。訓練用於AI聊天機器人的大型語言模型,主要花費在用強大的晶片集群連續數週或數月處理大量文字和代碼上。儘管美國AI巨頭OpenAI未披露任何模型的具體成本,但公司首席執行官奧爾特曼(Sam Altman)曾在2023年說,基礎模型訓練花費遠超1億美元。
ChatGPT捲青少年輕生風暴 執行長宣布:未成年用戶全面封鎖自殺話題
近期美國參議院犯罪與反恐小組委員會舉行聽證會,內容主要是聚焦檢視AI聊天機器人對未成年人的潛在危害,並邀請多名因子女在與聊天機器人互動後走上絕路的家長出席。而OpenAI執行長阿特曼(Sam Altman)於16日、也就是聽證會準備開始前幾個小時公開宣布,ChatGPT未來將停止與青少年談論自殺相關議題。根據《The Verge》報導,阿特曼在網誌文章中坦言,隱私、自由與青少年安全之間存在矛盾,公司正在嘗試尋求平衡。他透露,OpenAI正研發「年齡預測系統」,透過分析用戶使用ChatGPT的方式推測年齡;若判斷結果存疑,將直接以未滿18歲模式回應。在部分國家或特定情境下,甚至可能要求用戶提供身分證件進行驗證。阿特曼補充,青少年帳號將新增限制,避免出現調情或涉及自殺、自我傷害的對話,即便是出現在創意寫作的情境裡也不例外。若系統偵測到用戶展現自殺傾向,公司會試圖通知家長;若無法聯繫,又屬於緊急狀況,將轉向當地執法或相關單位通報。他的說法緊接在公司稍早宣布的新措施之後,內容包含推出家長控制功能,允許綁定帳戶、停用青少年帳號的聊天紀錄與記憶,並在系統判定青少年處於「急性痛苦」時,立即向監護人發送警示通知。在聽證會上,來自英國的雷恩(Adam Raine)案例成為焦點。雷恩在與ChatGPT互動數月後選擇自我了斷,其父親馬修(Matthew Raine)在會中直言,聊天機器人曾1,275次提及自殺,逐步讓孩子從「作業助手」變成「知己」,最後淪為「自殺教練」。雷恩要求阿特曼立即下架GPT-4o,直到能證明系統的安全性。他痛批,阿特曼竟在兒子去世當天的演講中說AI應該在「風險相對低時」推向市場並收集回饋,這種態度讓他難以接受。全國性組織Common Sense Media的調查顯示,四分之三的美國青少年正使用AI陪伴型產品。該組織AI計畫資深主管托尼(Robbie Torney)在聽證會中直接點名Character AI與Meta,認為它們對青少年心理健康帶來威脅。一名母親則以化名珍‧杜(Jane Doe)現身作證,表示她的孩子在與Character AI互動的過程中受到深刻影響,直言「這是一場公共衛生危機,也是一場心理健康的戰爭,而我們正處於敗勢。」
ChatGPT又當機?這國逾千用戶遭「已讀不回」 OpenAI回應了
ChatGPT再度故障?全球超過千名用戶於台灣時間今(3)日下午發現ChatGPT無法針對指令給出即時回應,其中又以英國倫敦、曼徹斯特和格拉斯哥等城市的居民投訴數量最多。對此,ChatGPT的開發商OpenAI回應,公司目前正在調查ChatGPT當機的根本原因,「對於歐洲和英國的用戶來說,很遺憾,你們的工作時間可能會受到這次停機的影響。」實時問題及故障監測網站「Downdetector」於台灣時間清晨5時至6時許和下午3時至5時前,陸續收到不少用戶回報,他們在使用OpenAI時出問題,相關異常報告下午4時前後到達高峰。綜合《太陽報》、《科技雷達》(TechRadar)報導,Downdetector有超過1000人抱怨OpenAI故障,又以英國倫敦、曼徹斯特和格拉斯哥等城市的居民投訴數量最多。對此,OpenAI回應,公司正在調查ChatGPT當機的根本原因,團隊正在為此努力中,「對於歐洲和英國的用戶來說,很遺憾,你們的工作時間可能會受到這次停機的影響,但我們希望大西洋彼岸的朋友們一覺醒來,就能用到一個功能齊全的AI聊天機器人。」
Meta遭爆使用泰勒絲、賽琳娜肖像 擅創調情聊天機器人
根據《路透社》調查發現,Meta公司未經授權使用多位名人的姓名與肖像,包括泰勒絲(Taylor Swift)、史嘉蕾(Scarlett Johansson)、安海瑟薇(Anne Hathaway)及席琳娜(Selena Gomez),用於打造數十個帶有曖昧、甚至性暗示對話的社群平台聊天機器人,並在旗下Facebook、Instagram與WhatsApp平台上公開流通。多數機器人由使用者透過Meta提供的工具自行建立,但《路透社》報導指出,發現至少有三個機器人是由Meta員工直接製作,其中包含兩個「泰勒絲惡搞版」。更令人憂慮的是,Meta還允許用戶製作未成年明星的聊天機器人,例如現年16歲的演員沃克史科貝爾(Walker Scobell)。當被要求生成該演員在海灘的照片時,該機器人甚至產出一張逼真的「裸上身」圖片,並附上「很可愛吧?」等字句。《路透社》實測數週後發現,這些虛擬角色不僅聲稱自己是真人,還頻頻對測試者作出性暗示,甚至主動邀約「見面」。部分成人明星的AI分身在被要求提供「私密照」時,竟生成名人泡澡、穿著內衣或擺出挑逗姿勢的照片。對此,Meta發言人安迪史東(Andy Stone)承認,AI工具不應該生成此類私密或涉及兒童的圖像,並將其歸因於公司在政策執行上的失誤。他強調,Meta允許創作涉及公眾人物的圖像,但嚴禁裸露、親密或性暗示的內容。至於「惡搞」角色,則必須加上標註。然而,《路透社》發現,部分機器人並未被標示。據悉,Meta已在報導曝光前刪除了約十個相關機器人。專研生成式AI與智慧財產權的史丹佛大學法學教授馬克藍姆利(Mark Lemley)則指出,加州法律禁止在未經允許下,將他人姓名或肖像用於商業利益,而Meta的做法恐難獲得合理豁免。安海瑟薇方面在得知Meta生成其「性感模特兒版」照片後表示,該演員已知悉此類不當生成影像,並考慮採取行動。至於泰勒絲、喬韓森及戈梅茲等人,則未對此做出回應。事實上,網路上充斥著能生成「深偽」(deepfake)內容的AI工具。馬斯克旗下的AI平台「Grok」同樣能應用於生成名人內衣照。不過,相較其他業者,Meta選擇直接將這些AI聊天機器人整合到Facebook、Instagram與WhatsApp等平台,更加引發外界關注。另外,《路透社》曾揭露,其內部指引竟容許機器人與未成年人展開「浪漫或感性對話」,隨後引發美國參議院調查及44州檢察總長聯名調查。史東則回應稱,相關指引文件將被修訂,並表示該部分屬於「誤植」。本月初還傳出美國新澤西州一名76歲患有認知障礙的男子,因受Meta聊天機器人邀約前往紐約「見面」,途中不慎跌倒身亡。該機器人原型源自Meta先前與名人珍娜(Kendall Jenner)合作開發的AI角色。
馬斯克開戰!旗下2公司正式提告 怒轟蘋果、OpenAI壟斷市場
美國德州聯邦法院近日出現一起重量級訴訟。社群平台X與人工智慧公司xAI,這兩間由馬斯克(Elon Musk)所擁有的兩家公司正式對蘋果(Apple)與OpenAI提告,指控雙方的合作違反競爭法,涉嫌透過獨家協議扼殺市場公平。根據《BBC》報導,爭議焦點在於蘋果2024年決定將OpenAI的ChatGPT深度整合至iPhone與作業系統。馬斯克陣營認為,這項交易「沒有任何正當商業理由必須獨家進行」,卻讓OpenAI取得數以百萬計蘋果用戶的提示與使用資料,同時在App Store中享有不公平的排名優勢,使其他生成式AI聊天機器人處於不利地位。馬斯克早在8月初便公開警告,若蘋果與OpenAI持續「綁在一起」,他將訴諸法律。如今衝突正式進入司法階段。蘋果尚未回應訴訟消息,而OpenAI則批評這是馬斯克「持續騷擾的模式」。報導中提到,兩人的恩怨可追溯至2015年,當時馬斯克與阿特曼(Sam Altman)共同創辦OpenAI,但後來分道揚鑣。馬斯克指責阿特曼讓公司背離「以公共利益為名」的初衷,並在2024年成立xAI,推出對標ChatGPT的聊天機器人「Grok」。這起官司不只涉及兩人私人矛盾,更觸及科技巨擘在AI與行動裝置市場的權力爭奪。訴訟文件指出,OpenAI目前掌握美國約80%的生成式AI聊天機器人市場,蘋果則佔有約65%的智慧型手機市場。當兩者形成獨家合作,勢必讓其他競爭者在規模、品質與創新能力上遭受嚴重打擊。類似指控對蘋果並非新鮮事。該公司長年因App Store的「排名與抽成」制度飽受監管單位關注,目前仍面臨多起反壟斷調查,其中包括涉及Google的重大官司。蘋果一貫強調其平台「公平且不帶偏見」,並指出自2024年以來,DeepSeek與Perplexity等ChatGPT競爭者也曾登上App Store排行榜首位。外界甚至傳出,蘋果近期還與Google洽談,考慮讓Gemini聊天機器人納入Siri的生態系統。
AI+百業2/ 比馬斯克的虛擬少女Ani更早更美 遊戲公司改作客服說台語馬ㄟ通
「請問小諸最好吃的東西是什麼?」日本長野縣小諸市、距離輕井澤約30分鐘車程,但有古城、賞櫻、滑雪、溫泉、草莓園、城鎮散策等,全世界的客人在當地旅遊服務中心使用的AI觀光導覽機,點擊按鈕,就可以跟穿著半纏服飾的日系軟萌妹子說話互動,中文、英文、日文都可以。而這台機器其實出自台灣人的手,是2018年成立的「愛吠的狗」。像是高雄捷運西子灣站的蜜柑貓導覽,橋頭糖廠、台北流行音樂中心等地的場域導覽都是他們做的,還可跨平台、跨載具,電腦、手機、平板等都能用,今年進軍日本小諸,接下來還有日本沖繩,甚至遠赴歐洲。愛吠的狗創辦人是許冠文,2014年還在台大電機讀博士的時候,就因興趣而成立影像工作室,做微電影與網路劇,後續作VR互動遊戲,疫情期間因實體活動被迫停止,轉而替台灣廠商客製出虛擬策展,以及工廠、醫院等訓練員工所用的互動VR,反而活用了他的專業。愛吠的狗做了不少VR遊戲。(圖/翻攝自愛吠的狗臉書)因為這技術這要運用影像辨識、語意分析、3D建模技術,協助傳產工廠數位轉型時,要導入XR、5G及AIoT的數位雙生系統(Digital Twins),橫跨電機、資訊工程、網路通訊等三大專業。「其實我們2019年就在做AI服務,只是那時沒有被『正名』叫AI」,愛吠的狗娛樂公司創意商務總監呂哲逸跟CTWANT記者說,他們跟在地的舊振南餅店合作,結合AI和AR,民眾用自己的手機進入網頁,開啟相機,就可以看到樓梯上有個漂亮小姐姐走下來介紹,用按鈕或語音都可以,「當時ChatGPT還沒那麼紅,但到了2021、2022年,老闆覺得可以把這個服務發揚光大。」馬斯克旗下的聊天機器人Grok推出「AI伴侶」Ani。(圖/翻攝自ANI GROK 4 - ИИ ВАЙФУ ОТ ИЛОНА МАСКА YT)「AR、VR是我們的老本行,所以你看我們的人型畫得很漂亮。」呂哲逸笑說,特斯拉的馬斯克最近推出AI聊天機器人Grok的二次元美少女,這種互動、陪伴型的AI服務,就是「英雄所見略同」。愛吠的狗在2023就推出這類型的「AIAMAZE」智慧客服平台服務 ,日系漫畫風格的「希希」可以多語言與客人互動,2025年5月更推出加強版,可用在零售業,像是點餐、導覽,「這種可視化資訊,才是真正商場使用、大眾能接受。」呂哲逸說。呂哲逸表示,「我們的AI客服可以直接叫出圖片和影片,且在語音校正上花了比較多工夫,像是在現場環境音很嘈雜時,甚至戴著口罩去講,也能聽清楚需求,網路上賣3、400元的麥克風就夠用,是靠AI演算法去補足的。」且有多國語言,說台語馬ㄟ通。愛吠的狗推出觸碰與語音混合的點菜機。(圖/陳曼儂攝)對於看到機器會害羞的消費者,他們也推出結合觸碰式的混合版,「我們不是為了AI而AI,要看商業需求。」呂哲逸解釋,例如餐廳牛肉製品有10幾項,還有雞、魚肉等10幾種,客人可能要在平板螢幕上滑很久才能找到想吃的,現在可直接跟AI問,「你有沒有咖哩相關、雞肉的」、「三大兩小,我生日,有什麼優惠」,或是「我不吃牛,能推薦什麼」條件式、否定式的對話都可以。「他可以聰明到,不會說出『對不起,我不能回答你的問題』,而是一定會推薦對的東西給你,讓你買到東西走,才叫ok。」呂哲逸說,這才是真正好用的點菜服務,不是取代人力,而是讓珍貴的人力去做其他的事情。「現在AI程度,已經是以『月』為單位在進化。」所以要模組化到讓店家不需要編輯程式碼,像是用掃描菜單的方式就能輸入資訊,或是像在臉書發文一樣,輸進新的活動或季節限定菜單,最簡單的基礎服務每個月5千、8千元就可以訂閱,也可以「七分模組、三分客製化」,因為每家餐廳會有不同的色調或風格,輕鬆打造自家的AI代言人與AI店員。
轟蘋果偏袒ChatGPT 馬斯克怒嗆阿特曼「說謊者」掀十年恩怨戰火
科技大亨馬斯克(Elon Musk)與蘋果(Apple)、ChatGPT開發商OpenAI之間的衝突再度升溫。身兼X平台與AI聊天機器人Grok的推手,馬斯克不滿蘋果在App Store推廣策略上疑似排除他的產品,甚至揚言對蘋果提告,指控對方壓抑市場競爭。他也在公開發言中批評OpenAI執行長阿特曼(Sam Altman)是「說謊者」,雙方言詞交鋒不斷升級。根據《BBC》報導,這場糾紛的導火線來自App Store的應用排序。儘管蘋果尚未公開將任何AI應用列為「必備」,馬斯克卻質疑,為何ChatGPT獲得更多平台曝光,Grok與X卻遭到忽略。他強調,X是全球第一的新聞應用,Grok在所有應用中排名第五,理應享有與ChatGPT相當的待遇。以英國地區為例,ChatGPT是最常被下載的免費應用,Grok排名第三,但X甚至未擠進前40名,馬斯克對此頗有微詞。雙方的不睦並非始於此次爭端。事實上,馬斯克與阿特曼過去曾是OpenAI的共同創辦人,後來馬斯克離開公司,兩人關係急遽惡化。馬斯克長期批評OpenAI已偏離創立初衷,強調當初公司以非營利為目標,致力發展人工通用智慧(AGI),並應將成果公開造福全人類。但自從OpenAI在2019年成立營利部門,並與微軟(Microsoft)建立深度合作關係後,馬斯克就不斷指控該公司「為資本服務」。2024年3月,馬斯克對OpenAI提出訴訟,主張該公司實際上是在替主要投資者微軟謀利,並非為社會利益。OpenAI卻在2024年4月提起反訴,控訴馬斯克長期以來「惡意阻撓」公司AI發展,目的只是為了提升自己的市場地位與企業利益。不只如此,馬斯克在2025年2月還提案以1,000億美元(約合740億英鎊)併購OpenAI,但遭董事會明確拒絕。而外媒《The Verge》與《Gizmodo》也曾披露,Grok Imagine內建的「辛辣」模式一度生成含有歌手泰勒絲(Taylor Swift)的不雅影片,讓馬斯克的AI產品捲入更多爭議。雙方目前持續透過社群媒體與法律管道交鋒,阿特曼日前甚至轉貼《Platformer》報導,暗指馬斯克在X上私自修改演算法,讓自己的貼文優先曝光。這場長達十年的恩怨,如今已從企業理念之爭,演變為影響全球AI發展與網路治理的關鍵戰線。
AI聊天機器人恐誘發精神錯亂 丹麥精神科醫師警告「已成真」
丹麥精神科醫師索倫‧迪內森‧奧斯特高(Søren Dinesen Østergaard)兩年前警告,對話式人工智慧可能讓精神脆弱者陷入妄想。當時被視為推測,如今伴隨真實案例出現與AI更新引發的「討好效應」,這項憂慮成為現實。 根據《紐約時報》和《滾石》雜誌報導,美國紐約會計師尤金‧托雷斯(Eugene Torres)在詢問ChatGPT關於「模擬理論」後,被告知自己是「破局者」,並被勸停藥、相信自己能飛行。他一度每天與AI對話16小時。報導稱,有人將ChatGPT視為「神聖導師」,並被勸其遠離人際關係;甚至有人相信自己賦予了AI生命。這些案例均指向AI透過奉承與肯定強化非現實信念的模式。據丹麥奧胡斯大學醫院情感障礙科研究部門主任奧斯特高(Søren Dinesen Østergaard)在2023年於《精神分裂症公報》發表社論,指出生成式AI聊天機器人(如ChatGPT、Google Gemini、Claude、Microsoft Copilot)能流暢模仿人類語言與情感,可能在易感人群中引發「認知失調」,並進一步觸發妄想。當時他舉例,妄想內容可能包括「情報機構透過聊天機器人監控我」或「我與ChatGPT合作制定拯救地球計畫」。雖然當時沒有經驗證的案例,但他呼籲精神科醫師熟悉AI對話機制,以便辨識相關症狀。2025年8月,奧斯特高在新社論〈生成式AI聊天機器人與妄想:從推測到案例出現〉中表示,他已接獲用戶、家屬與記者來信,描述長時間與AI互動後陷入妄想的經歷。其2023年原文的月瀏覽量在5月至6月間從百餘次暴增至1300多次,正值OpenAI推出被批評「過度諂媚」的GPT-4o版本。奧斯特高將此現象與語言模型的「諂媚效應」(sycophancy)研究連結:強化學習傾向獎勵迎合使用者的回答,即使對方觀點是妄想,AI也可能反射性認同,進而加劇症狀。史丹佛精神科醫師妮娜‧瓦森(Nina Vasan)指出,AI公司的商業模式或以用戶黏著度優先於心理健康,「它的目標是讓你一直上線,而不是關心你的長期福祉」。奧斯特高並非AI悲觀論者,他的團隊今年也用機器學習分析2萬4千多名丹麥病患的病歷,預測未來5年內誰可能罹患精神分裂症或雙相情感障礙。結果顯示,模型有望協助醫師提早介入診斷與治療。他建議的防範措施包括:收集經驗證的臨床案例報告訪談受影響者在嚴格監控下調整AI回應模式,測試其影響並呼籲開發者建立自動防護機制,當檢測到如「隱藏訊息」或「超自然身份」等妄想跡象時,應引導對話轉向心理健康資源,而非繼續肯定。兩年前的警告,如今伴隨現實案例、AI的「討好」傾向與不斷湧入的求助信件,變得迫切。社會是否正視,將決定生成式AI在心理健康領域是助力還是隱性威脅。同樣的AI技術,在臨床可協助早期診斷精神疾病,但若缺乏防護,卻可能成為加劇妄想的「隱形推手」。(圖/翻攝自X)
OpenAI推出GPT-5 宣稱最新ChatGPT達「博士級」專業水準
美國人工智慧龍頭企業OpenAI近日發布備受期待的最新AI模型GPT-5,該模型被稱為具備「博士級」的專業知識水平,標誌著ChatGPT進入全新發展階段。根據《BBC》的報導,OpenAI聯合創始人兼執行長Sam Altman稱,GPT-5比以往版本更聰明、更快速且更實用,代表人工智慧技術的一大飛躍。他在發布會前表示:「我認為,歷史上從未有像GPT-5這樣的系統出現,幾乎難以想像它的能力。」GPT-5不僅具備更強大的軟體編程能力,更展現了顯著提升的推理與邏輯分析水平,能夠清楚解釋答案的運作原理,並提供更準確與誠實的回應。Altman比喻說:「GPT-3感覺像高中生,GPT-4是大學生,而GPT-5則像是博士級專家。」此外,OpenAI強調新模型減少了「幻覺現象」(AI編造錯誤資訊的問題),讓使用者體驗更為真實且人性化。不過人工智慧倫理專家對此持保留態度,倫敦大學倫理學教授CarissaVéliz認為,GPT-5雖令人印象深刻,但仍未真正達到盈利或完全模擬人類推理的階段。她指出,這些宣稱多半屬於行銷策略,且強大的AI功能讓監管的需求變得更為迫切。在市場競爭方面,馬斯克旗下AI聊天機器人Grok也聲稱擁有「超越博士水準」的能力;另一方面,OpenAI與另一AI公司Anthropic最近因API使用權限問題產生摩擦,反映出行業內部的激烈競爭。OpenAI將於近期向所有用戶開放GPT-5,並期望其能成為程式設計師和專業人士的得力助手。未來幾天GPT-5的實際表現與用戶反饋將成為檢驗其是否如Altman所言「革命性」的關鍵。同時OpenAI也宣布將調整ChatGPT的互動方式,更加注重用戶心理健康,避免給出明確決策建議,而是引導用戶自主思考與判斷。OpenAI執行長Altman表示,AI雖帶來巨大便利,但同時也會帶來複雜的社會挑戰,社會必須建立相應的監管與護欄,才能善用這項技術。
ChatGPT爆對話外洩!Google竟可搜尋到 OpenAI:功能已撤回
OpenAI旗下的AI聊天機器人程式ChatGPT驚爆大規模隱私外洩事件!ChatGPT的一項分享功能,原本允許用戶將對話內容生成超連結,擁有該連結的人就能讀取這些對話內容,並選擇是否讓搜尋引擎索引。不過,一項調查發現,該功能涉及重大隱私風險,逾500筆用戶與AI聊天機器人的私密對話紀錄,竟直接暴露在Google搜尋結果中,涉及洩露機密資料,引發廣泛關注。根據英媒《每日鏡報(Daily Mirror)》報導,數位研究專家范艾斯Henk van Ess與「Digital Digging」團隊主導,分析了超過500筆公開分享的ChatGPT對話。調查指出,團隊在Google搜尋中發現大量敏感對話內容,包括部分企業高層與政府人員自曝涉及犯罪行為,甚至揭露內線交易的細節,震驚外界。報告指出,部分公開對話中甚至包含針對哈瑪斯(Hamas)的網路攻擊計畫;另有用戶試圖引導ChatGPT生成涉及未成年不當內容,儘管系統最初拒絕執行,該名用戶仍透過繞道方式,迫使ChatGPT生成相關影像,凸顯AI在應對惡意使用時的潛在風險。調查亦揭露,有一名疑似醫療從業人員請求ChatGPT扮演腫瘤科醫師,並針對年長肺癌患者提出詳細治療建議,系統回應內容甚至涉及特定藥物名稱,包括度伐利尤單抗(Durvalumab)與帕博利珠單抗(Pembrolizumab)等,讓外界對此功能的實際用途產生更多疑慮。這項「可分享對話」功能原設計為讓用戶在建立超連結後,勾選是否允許搜尋引擎索引內容。然而許多用戶可能未充分意識到,公開分享的連結實際上已可被搜尋引擎收錄與檢索。OpenAI資安長官史塔基(Dane Stuckey)於1日在社群平台X發文表示,該功能原為「幫助用戶發現有價值對話的短期實驗」,但基於隱私考量,決定全面移除,並坦言「我們認為這項功能讓用戶無意中分享敏感內容的風險過高,因此選擇將其下架。目前我們也正在與搜尋引擎合作,移除已索引的相關內容。」
AI威脅白領職場?微軟公開「10大AI難取代工作」 藍領反成新寵
在人工智慧迅速普及的今日,白領職場受到衝擊的情況越來越明顯。根據《CNBC Make It》報導,微軟近日發布一項名為《生成式AI對職業影響》的研究報告指出,相較於高度依賴資訊處理的白領工作,藍領職業因為與AI互動較少,反而成為未來更具穩定性的就業選項。這份研究分析了2024年1月至9月期間,美國使用者與微軟AI聊天機器人Bing Copilot的20萬筆匿名對話記錄。研究團隊將對話中使用者所追求的目標定義為「使用者目標」,而AI在對話中執行的任務則稱為「AI行動」。舉例來說,若使用者想學習如何列印文件,目標是「操作辦公設備」,而AI的角色則是「訓練他人使用設備」。研究顯示,大多數使用者傾向於透過AI協助完成「資訊搜尋」、「撰寫內容」及「溝通交流」等任務,而AI也在這些領域展現出極高的完成度。報告指出,AI多以「教練」、「顧問」或「教師」等輔助性角色出現,協助人類理解並完成任務。由於AI主要在語言處理與資訊分析領域發揮作用,像是翻譯員、歷史學家、作家及業務代表等職業,被列為最容易受到AI取代的類別。與此同時,藍領職業多數與實體作業相關,例如清潔、按摩、屋頂施工、洗碗等工作,因較少使用AI工具,在報告中被歸類為受AI影響最小的職種。AI接觸率最低的10個工作:採血員護理助理危險品清除工人助手、油漆工、泥水匠,防腐師工廠和系統操作員口腔顎面外科醫師汽車玻璃安裝和維修工船舶工程師輪胎修理工和更換工根據蓋洛普的調查顯示,截至2025年,白領族群中有27%經常在工作中使用AI,比2024年增加12%。其中科技業使用率最高達50%,其次為專業服務業34%、金融業32%;而生產線及前線工作者的使用率則從2023年的11%降至2025年的9%,幾乎沒有成長。專家拉文‧傑蘇塔山(Ravin Jesuthasan)指出,AI快速改變了白領工作的結構與技能需求,也縮小了技能紅利差距。他強調,雖然白領需要快速提升技能以因應變局,但許多藍領職業依然具備高度穩定性。他以水電工為例說明:「我家的水管設施跟你家的完全不同,因此機器要取代我這個水電工還差得遠。」他也補充,如今的藍領職業不再只是體力勞動,更需要熟悉先進技術,甚至操作複雜設備,因此吸引愈來愈多年輕人投入。
ChatGPT半年成長逾兩倍 日均使用量突破25億次「美國3.3億」
OpenAI近日表示,旗下招牌AI聊天機器人ChatGPT的每日使用量已突破25億次。OpenAI執行長阿特曼(SamAltman)在前往華盛頓特區進行AI產業遊說前公布這項資料,並提供部分內部統計資料作為佐證。資料顯示,這25億次每日提示中,約有3.3億次來自美國用戶。根據《Axios》報導,OpenAI去年12月才公布當時每日提示數為10億次,如今短短半年內已成長逾兩倍。換算下來,ChatGPT每分鐘需處理超過170萬次提示、每秒近2.9萬次,顯示其使用規模之龐大。《Mashable》報導指出,這樣的成長速度與Instagram、Threads等曾締造用戶成長紀錄的應用並列,展現ChatGPT作為全球成長最快消費型應用之一的實力。根據《DigitalTrends》報導,ChatGPT自2022年11月推出以來,迅速成為消費者日常工具,許多用戶甚至開始以其取代Google搜尋作為查詢資訊、獲取解答的首選方式。知名網站分析機構SEMRush統計,ChatGPT在2025年5月的全球網站訪問量已達46億次,成為全球流量排名第五高的網站。另一分析機構Backlinko指出,該工具推出僅三個月便累積1億用戶,目前市佔率約達62.5%,付費訂閱者超過1,000萬人。儘管如此,報導中提到,多數使用者仍傾向於免費版本。OpenAI今年4月提供《Forbes》的資料顯示,當時ChatGPT的每週活躍用戶已達5億人,進一步反映其滲透日常生活的深度。但ChatGPT與Google搜尋相比,使用模式存在本質差異。Google每日處理約140億次搜尋,多為提供網頁連結,而ChatGPT更專注於協助用戶完成任務、自動化流程或深入研究,因此其角色不僅是搜尋工具,更是生產力與協作工具。這使得ChatGPT成為許多企業及個人整合於工作與學習流程中的重要工具。根據《CNN》報導,ChatGPT的崛起也掀起外界對AI工具影響的廣泛討論。《TheEconomist》曾直言AI正在改變甚至「毀掉網路」,《華爾街日報》更以「AI世界末日」形容,認為這類聊天機器人正在取代傳統搜尋,對部分出版商流量造成重創。