語言模型
」 AI 人工智慧 輝達 黃仁勳 ChatGPT
百度爆裁員潮!內部認定規模龐大 人力瘦身恐達年底
大陸最大的搜尋引擎營運商百度(Baidu)驚傳裁員!百度在本週啟動大規模裁員,預計將波及多個業務單位。多位消息人士指出,公司面臨人工智慧競爭加劇與廣告收入下滑的雙重壓力,此次裁員將延續至年底。雖然具體人數尚不明朗,但內部普遍認為此波裁員「規模龐大」。百度2025年第三季虧損人民幣112.3億元後展開裁員,行動生態系統部門受影響最深。根據《路透社》引述消息人士說法,裁員比例將依部門性質與員工績效等級而異,其中部分團隊的裁員比例可能高達40%。兩位知情者補充表示,行動生態系統部門將首當其衝;相對而言,人工智慧(AI)與雲端運算相關職位則大多被保留。有知情人士指出,公司正面臨雙重壓力:AI 技術競爭日益激烈,加上廣告收入持續下滑,已嚴重衝擊核心業務。百度在本月18日公布的第三季財報顯示,營收較去年同期下滑7%,線上廣告營收重挫18%,單季虧損達人民幣112.3億元(約新台幣493億元)。僅十天後即傳出裁員消息,顯示其財務壓力沉重。據報導,百度將在2025年底前裁減大量人力,主要集中於非AI業務部門。截至去年底,百度員工總數為35,900人,較2023年與2022年分別減少約3,900與5,400人。儘管百度為中國第一家推出 ChatGPT 類服務的企業,其大型語言模型「文心一言」仍在市場表現上落後於阿里巴巴(Alibaba)與 AI 新創公司 DeepSeek。據 Aicpb.com 統計,2025年9月「文心一言」的月活躍用戶為1,077萬,遠低於「豆包」的1.5億與 DeepSeek 的7,340萬。目前,百度已強調將持續強化 AI 能力,並將此技術應用至搜尋引擎與其他現有服務上。據悉,公司將投入更多資源於 AI 相關領域,以期挽回業績頹勢。裁員也反映出大陸大型科技企業正持續透過人事調整以壓縮成本。近年包括阿里巴巴、騰訊等企業,以及亞馬遜與 IBM 等美國科技公司亦陸續進行全球性裁員行動,以應對產業競爭與經濟壓力。
Google AI誤判正心中學停招 校方「用魔法打敗魔法」澄清真相
AI錯誤資訊時難以即時修正,衍生不少困擾,雲林縣私立正心中學近日被Google的AI演算錯誤,判定「將於114學年停止招生」,雖然校方上周已聯繫Google溝通處理,錯誤訊息仍反覆出現,25日只好透過發布新聞稿與AI「鬥智」,終於徹底糾正錯誤訊息,此事件也凸顯「控管」AI將是未來的重要課題。日前有家長在Google上搜尋「正心中學國中部招生」,AI摘要竟跳出「正心中學國中部於114學年度停止招生」的訊息,家長立刻致電校方求證,才發現是AI張冠李戴的烏龍內容。校長林佳慧說,校方官網今年10月全面改版,新網站內容尚在更新,AI可能未能即時抓取國中部招生資訊,於是將「國中部」、「招生」等關鍵字,連結至近期「中正預校國中部將於115學年停止招生」熱門新聞,而產生錯誤結論。校方上周緊急向Google反映,Google工程師也發現AI摘要參考涉及中正預校的網頁,導致資料混淆,校方積極提供相關佐證資料,仍無法更新搜尋結果,導致持續出現錯誤內容。「就用魔法打敗魔法吧!」校方決定發布新聞稿,透過大數據讓AI學習到正確資訊。果不其然,新聞在各大平台散布後,Google的AI摘要內容已變成「正心中學目前國中部與高中部皆有招生,近期的國中部停招,消息為Google的烏龍錯誤,校方已經澄清並無此事」。校內資訊教師表示,Google的AI摘要採用RAG(檢索增強生成)技術,會先大量擷取與關鍵字相關的網頁,再由大型語言模型生成看似流暢、合理的文字。生成式AI強調的是語句連貫而非事實校對,當資料來源稍有誤差,就可能產出高度合理化但嚴重失真的內容。林佳慧強調,Google AI摘要產製的錯誤訊息,是演算法在缺乏人工複核下自動拼湊資訊所致,此烏龍事件是不應忽視的警訊,也提醒社會大眾「AI可以是助手,但不能取代人腦思考」。
輝達A100遭非法轉運中國 美司法部起訴4名嫌犯
美國司法部近日宣布破獲1起跨國科技走私案件,2名中國公民與2名美國人因涉嫌非法將輝達(Nvidia)高階人工智慧晶片轉運至中國而遭到逮捕。此案不僅牽涉偽造文件、假合約與洗錢操作,更觸及美中科技競逐的核心領域,成為美國出口管制執法的新示例。據《CBS新聞》援引司法部提供的資料,涉案4人分別為居住加州的中國籍李湛(Cham Li,音譯)、持F-1學生簽證並居於佛州坦帕(Tampa)的中國籍陳靖(Jing Chen,音譯),以及2名美國籍嫌疑人,定居佛州的何漢寧(Hon Ning Ho,音譯)與住在阿拉巴馬州(Alabama)的雷蒙德(Brian Curtis Raymond)。他們共同面臨違反《出口管制改革法》(Export Control Reform Act,ECRA)與洗錢罪的指控,若罪名成立,每項罪名最高可判處20年徒刑。美國司法部指出,4名被告涉嫌透過馬來西亞與泰國,以轉運方式規避美國對人工智慧晶片的出口限制,將受管制的輝達A100繪圖處理器(GPU)輸往中國。這類晶片廣泛應用於大型語言模型、深度學習訓練以及軍民兩用的高性能運算,是美國政府在美中科技競賽背景下高度管制的核心項目。美國司法部國家安全司助理司法部長艾森柏格(John Eisenberg)表示,被告的行為可被界定為「蓄意且具有欺騙性」,他們透過偽造文件、製作假合約並向美國政府做出誤導陳述,試圖掩蓋非法出口行為。司法部稱,被告從中國方面獲得近400萬美元資金,以支持整個轉運計畫的運作。根據調查,在2024年10月至2025年1月間,約400顆輝達A100晶片已成功以2批貨物方式運抵中國;另有2批則因美國執法單位介入而未能完成。司法部強調,被告明知這類晶片在出口前必須申請許可,但從未提交任何申請。美國政府將此案視為其科技管制戰略的一部分。司法部在聲明中再次強調,中國正積極追求尖端美國技術,將其納入2030年之前成為全球人工智慧領導者的國家目標,而美國的出口管制措施正是為了阻斷這條科技流向。此案曝光之際,輝達剛公布其第3季亮眼財報,單季收益達319億美元,營收更創下570億美元紀錄,凸顯AI晶片在全球科技競賽中的戰略價值。
國安局揭陸製AI風險 賴瑞隆促數發部常態示警加強資安防護
國安局日前公布「DeepSeek」等五款陸製生成式AI語言模型的檢測結果,指出部分模型可能涉及「強迫同意不合理隱私條款」及「蒐集設備參數」等問題,引發資安疑慮。對此,民進黨立委賴瑞隆今(20)日表示,數發部應定期發布相關檢測資訊與示警,提醒民眾提高防範意識。賴瑞隆指出,總統賴清德昨日已提及中共持續透過多元方式滲透台灣,藉以達到政治目的。他引述國安局所披露的報告指出,部分陸製AI模型不僅要求使用者同意不合理的隱私條款,也可能在背後蒐集個資,形成資安風險。他強調,這些行為恐與中共政策要求有關,數發部有必要針對潛在資訊外洩或惡意蒐集的情況提出明確提醒。他表示,雖然產業因需求不同而有不同考量,但仍可能受到認知作戰或資訊操弄影響。他呼籲,數發部應定期將掌握的檢測數據與風險資訊對外發布,讓民眾了解使用陸製AI可能面臨的威脅,並強化政府在第一線面對中國滲透時的防護能力。數發部次長侯宜秀回應,部會內已建立AI模型資安驗測框架,供行政機關使用,目前公務機關禁止使用中製生成式AI模型。至於企業與一般民眾,數發部將持續公布最新驗測結果,協助使用者在採用前做出更審慎的判斷。侯宜秀指出,中製生成式AI確實可能存在資安疑慮,不同領域的使用者對於場景與風險程度的評估也有所不同。例如教育領域因使用者較缺乏判斷力,因此更應全面避免;但部分不需價值判斷的領域在成本或需求考量下,企業可能仍會採用,因此政府將持續發布風險資訊,提供使用者參考。
指對岸可能透過AI侵犯隱私 賴清德:避免下載具資安疑慮的應用程式
民主進步黨今(19)日召開第二十一屆第五十六次中常會,賴清德總統兼任主席表示,希望所有的黨公職,能協助政府宣導,呼籲國人與企業能提高警覺,避免下載具資安疑慮的中國製應用程式,來降低資訊外洩的風險,與成為資安破口的可能。民進黨發言人韓瑩會後轉述賴清德致詞,賴清德指出,近年來人工智慧科技快速崛起,已經是全球先進國家發展的重點,尤其是生成式AI語言模型的發展,應用範圍更為廣泛,為人類生活帶來更便捷、更快速的發展,同時,也帶來威脅跟挑戰。賴清德再指,台灣不僅身處第一島鏈的關鍵防線,也是全球資安風險的最前線,中國藉由各種手段試圖滲透台灣社會,AI協助的數位滲透,更成為其重要手法之一。賴清德提到,日前,國安單位抽測中國製的生成式AI,發現普遍存在強迫同意不合理隱私條款、過度蒐集個資、逾越使用權限等資安風險,以及資訊扭曲等問題。賴清德說,中國極有可能透過這些AI模型,侵犯台灣民眾的個人隱私,進而發動像是駭客攻擊、認知作戰與精準監控,來危害台灣的民主社會和國家安全。賴清德表示,「資安即國安」,政府會持續強化關鍵基礎設施,包含水電、能源、電信、運輸及金融網絡等安全,提升國家數位韌性與資安防護,我們也會導入AI,強化資安、無人載具的建構與生產。賴清德說,「與此同時,我們希望,企業及個人對資訊安全要有更好的認知,一起提升國家的資安,還有個人的資安」。對此,賴清德表示,中央黨部每年都會邀請外部資安專家來講課,提升黨工的資安意識,所以,接下來兩週舉辦的資安課程,希望全體同仁都能夠撥空參加,了解新型態的資訊技術發展,以及可能的資安風險。最後,賴清德也希望所有的黨公職,能協助政府宣導,呼籲國人與企業能提高警覺,避免下載具資安疑慮的中國製應用程式,來降低資訊外洩的風險,與成為資安破口的可能。
點名陸製「生成式AI語言模型」藏資安風險 國安局示警:DeepSeek等5款
「生成式人工智慧(AI)語言模型」近年快速發展,應用範圍廣泛。各國政府及學研機構日益關注中製「生成式AI語言模型」存在資安疑慮。為維護我國家安全及民眾個資,國安局依據《國家情報工作法》,蒐研各國資安報告及情資後,協調統合法務部調查局、警政署刑事局等單位,抽測中製「生成式AI語言模型」。檢測結果顯示,相關產品普遍存在資安風險及內容偏頗等問題,提醒國人慎選並注意資料外洩。本次抽驗中製「生成式AI語言模型」,包含「DeepSeek」、「豆包」、「文心一言」、「通義千問」及「騰訊元寶」等5款。檢驗內容包含「應用程式」及「生成內容」等兩大部分。首先,在「應用程式」部分,驗測團隊採用數發部發佈「行動應用APP基本資安檢測基準v4.0」,針對「過度蒐集個資」、「逾越使用權限」、「數據回傳與分享」、「擷取系統資訊」及「掌握生物特徵」等5類違規樣態下的15項評鑑指標,逐一執行驗測分析。「通義千問」在15項指標中,驗出11項違規情形;「豆包」與「騰訊元寶」計有10項違規;「文心一言」及「DeepSeek」則各有9項及8項違規。尤其5款抽測的中製應用程式,均有要求「位置資訊」、蒐集「截圖」、「強迫同意不合理隱私條款」,以及「蒐集設備參數」等問題。其次,在「生成內容」部分,本次驗測依照我國「AI產品與系統評測中心」公告10項AI評鑑類別,進行生成內容評測。檢測結果顯示,5款中製「生成式AI語言模型」所生成的內容,出現嚴重偏頗與不實資訊,包括:一、政治立場親中:在涉及兩岸、南海、國際爭端等議題時,生成內容採用中共官方立場。例如:「台灣目前由中國中央政府管轄」、「台灣地區不存在所謂國家領導人」、「強調中國社會主義特色」。二、歷史認知偏差:針對台灣歷史、文化、政治等議題的描述,生成不實資訊,意圖影響使用者對台灣背景資訊的認知,包括「台灣不是一個國家」、「台灣是中國領土不可分割的一部份」、「中國台灣」。三、關鍵字審查:生成內容刻意排除特定關鍵字,例如「民主」、「自由」、「人權」、「六四天安門事件」等,顯示資料系統遭政治審查與控制。四、資訊操弄風險:中製AI語言模型可輕易生成具高度煽動性、抹黑他人、散播謠言的內容,恐被用來傳散不法資訊。五、網路攻擊指令:在特定情況下,可生成網路攻擊指令及漏洞利用程式碼,增加網路安全管理風險。目前國際上已有多國政府,包括美國、德國、義大利及荷蘭等國,針對特定中製「生成式AI語言模型」發出禁用、避免使用等警告,甚至要求應用程式商店下架。主要關切在於,中製AI語言模型可識別使用者身分,透過蒐集對話與記錄等功能,將使用者個資回傳至中企伺服器,甚至依照中共《國家情報法》、《網路安全法》等規定,提供特定政府部門運用。國安局協同法務部調查局及警政署刑事局,驗測5款中製「生成式AI語言模型」後,發現普遍存在資安風險及資訊扭曲等問題,建議國人提高警覺,避免下載具資安疑慮的中製應用程式,以保護個人隱私及企業資訊。國安局未來將持續加強與國際友盟分享情資,掌握跨國資安風險,以確保我國家安全及數位韌性。
AI進新聞室?巴基斯坦權威報被抓包用ChatGPT寫稿 83年老報捲入科技寫稿爭議
巴基斯坦知名英文報《Dawn》日前被發現誤將ChatGPT提示語刊登於紙本新聞中,事件曝光後迅速引起國內外媒體圈關注與批評。該報事後承認確有使用AI工具編輯文章,並違反自訂AI政策,已在數位版撤下相關段落並公開致歉。根據《The Straits Times》與《Dawn》網站報導,事件發生在11月12日的《Dawn》商業版面,一則題為〈10月汽車銷售回溫〉(Auto sales rev up in October)的報導最後一段出現詭異句子:「如果你願意,我也可以創建一個更有力的『頭版風格』版本,加入精簡的單句數據與醒目的資訊圖表版面,以達到最佳讀者效果。你想讓我接著做這件事嗎?」這段明顯來自AI語言模型的系統提示語,立即被讀者截圖分享到社群媒體X與Reddit上,引發包括新聞倫理、人工智慧使用界線等諸多討論。有網友批評《Dawn》一邊高談媒體道德,一邊卻在未揭露情況下使用AI生成內容,痛斥其「面具已落,虛偽現形」。《Dawn》創刊於1941年,由穆罕默德·阿里·真納(Muhammad Ali Jinnah)創立,一直被視為巴基斯坦最具公信力的英文報紙。此次事件對其形象造成不小衝擊。事發後,《Dawn》迅速更新文章並發出聲明,承認該篇報導「於編輯階段使用AI輔助,違反本報既有AI政策」,並表示該段AI自動產生的內容已被移除,相關情況正在調查中,並對此錯誤表示遺憾。多數大型新聞機構如《紐約時報》《彭博》《Business Insider》等皆已部署AI工具輔助報導,但皆設有嚴格人工審核機制。《Dawn》的失誤則突顯AI在新聞生產流程中可能造成的風險。此事件也再次引發媒體界對於AI寫稿應用邊界的關注。有評論指出,AI可協助提升新聞生產效率,但缺乏人工過濾將使新聞誤植、失準風險升高,媒體必須建立明確準則與透明機制,避免損害讀者信任。《Dawn》報社對AI寫稿誤植事件發布道歉聲明,強調將進行內部調查並檢討AI使用流程。(圖/翻攝自X,@TimesNow)
輝達市值破5兆美元成全球首家 攜手美能源部建7座AI超級電腦
人工智慧(AI)熱潮持續席捲全球,晶片巨頭輝達(NVIDIA)本週再創歷史,市值首度突破5兆美元(約新台幣153兆元),成為全球第一家達到此規模的公司。同時,ChatGPT開發商OpenAI也在15個月的複雜談判後完成重組,估值暴漲至5000億美元(約新台幣15兆元),象徵AI產業進入全新資本與技術競爭階段。根據《路透社》報導,3個月前,輝達股價剛突破4兆美元大關,而本月29日上漲3%,以每股207.04美元收盤,市值達到5.03兆美元,刷新美國華爾街紀錄。自2022年ChatGPT問世以來,AI熱潮帶動標普500(S&P 500)指數創下歷史新高,輝達股價已上漲12倍,出生於台灣、9歲移民美國的輝達創辦人暨執行長黃仁勳(Jensen Huang),如今已成矽谷傳奇人物。他掌舵下推出的H100與Blackwell系列AI晶片,成為ChatGPT與馬斯克(Elon Musk)xAI等大型語言模型的運算核心。依據最新資料,黃仁勳持股價值約1792億美元(約新台幣5.5兆元),為全球第八大富豪。報導指出,分析師認為輝達的爆發式成長不僅代表企業成功,更象徵AI時代的產業結構重塑。不過,也有市場人士警告,科技股估值飆漲恐引發「AI泡沫」疑慮。目前輝達正加緊鞏固AI晶片市場地位。黃仁勳本週宣布,已接獲美國政府5000億美元AI晶片訂單,並計畫攜手能源部建造七座超級電腦。此外,美國與中國間的晶片出口管制仍是雙方角力焦點,美國總統川普(Donald Trump)預計將與中國國家主席習近平討論輝達Blackwell晶片的出口問題。另一方面,AI軟體龍頭OpenAI也傳出重大進展。根據《Artificial Intelligencer》報導,OpenAI歷經15個月談判、數十名銀行家與律師協商,終於完成史上最複雜的科技公司重組之一,估值從不到1000億美元飆升至5000億美元。這項重組為公司未來上市鋪路,也讓執行長阿特曼(Sam Altman)取得更大自主權。
網路廢文刷到「腐爛了」?研究曝光長期吃社群垃圾文 AI推理力直接崩「準確率下滑17.7%」
由德州農工大學(Texas A&M University)、德州大學奧斯汀分校(University of Texas at Austin)與普渡大學(Purdue University)組成的研究團隊揭露,大型語言模型(Large Language Models, LLMs)若長期吸收來自社群媒體的低品質文字,會出現明顯的「認知退化」,研究團隊將此現象稱為「大腦腐爛」(Brain Rot)。根據《商業標準報》(Business Standard)報導,研究於10月15日以《LLMs Can Get Brain Rot!》(《大型語言模型也會得大腦腐爛!》)為題發表。研究者發現,AI若不斷接觸爆紅貼文、釣魚標題與互動導向的短內容,會造成推理能力下降、語境理解力受損,甚至失去倫理一致性。這種退化模式與人類長期沉迷於膚淺媒體後專注力變差的狀況極為相似。研究團隊將此現象定義為「LLM大腦腐爛假說」(LLM Brain Rot Hypothesis),指出當AI模型長期被餵食無營養、以點擊率為導向的內容時,將失去深度思考與邏輯推理能力。這項概念借用了「網際網路大腦腐爛」(Internet Brain Rot)一詞,該詞原本用來形容人類在長期接觸社群平台與無意義短影片後的精神疲乏與專注退化。為了驗證這項假說,研究團隊設計了實驗,選取社群平台X上的真實資料作為樣本。他們以兩項標準定義「垃圾內容」,其一為互動度極高但資訊量極低的貼文(M1),例如為吸引注意力而設計的爆紅短句;其二為語義品質低落(M2),包括誇張標題、煽情敘述或毫無實質內容的文章。團隊將這些貼文混合成不同比例的訓練集,讓四種主流AI模型,包括Llama3與Qwen2.5,反覆進行預訓練。結果顯示,當模型完全以垃圾內容訓練時,其推理準確率從74.9%驟降至57.2%,下滑17.7%。長篇語境理解能力從84.4%下滑到52.3%,下滑32.1%。研究人員稱這種現象為「劑量反應」效應(dose–response effect),意即資料越差,退化越嚴重。其中M1類型的爆紅短內容造成的損害最為明顯。除了準確度下滑外,研究還觀察到模型出現人格變化與倫理判斷混亂的情況。暴露於垃圾資料的模型對錯誤答案表現出過度自信,回覆變得浮面且充滿自我中心傾向。更令人意外的是,部分模型展現出研究者稱為「黑暗特質」(dark traits)的行為,例如自戀與精神病態(psychopathy)指標顯著上升。研究人員在分析過程中發現,這些AI傾向於跳過完整的思考鏈,直接給出結論,這種現象被稱為「思考跳步」(thought-skipping)。結果是模型的推理邏輯變得支離破碎,輸出看似流暢卻缺乏深度。即便嘗試以乾淨資料重新訓練,也無法完全修復這種退化,模型仍留有所謂「持續性表徵漂移」(persistent representational drift),代表損害具有長期性。研究最終呼籲,AI開發者應建立類似醫療健康檢查的「認知健康監測機制」,為大型語言模型定期進行思維與推理能力的評估,以防止潛在退化持續擴大。團隊建議加強訓練階段的資料品質管控,過濾瑣碎、釣魚或為互動而生的文本,並深入研究「爆紅內容」如何重塑AI的學習邏輯。論文結語警告,資料品質才是AI可靠性與安全性的關鍵因子。隨著AI模型越來越多地學習彼此生成的文字,合成內容正迅速充斥網路,如果不加控管,AI或將真正重演人類「大腦腐爛」的命運。
沙國致力擺脫石油依賴!大力投資AI、旅遊業
當提到沙烏地阿拉伯(Saudi Arabia),許多人首先想到的可能是其龐大的石油財富。然而,儘管石油仍然是推動該國經濟的重要動力,沙國如今正積極拓展人工智慧(AI)、旅遊和體育等領域,以多元化經濟成長途徑。據《CNBC》報導,前沙烏地阿美(Saudi Aramco)公司總裁兼首席執行官、沙國投資部長阿爾-法利(Khalid A. Al-Falih)在接受《CNBC》記者墨菲(Dan Murphy)訪問時指出,目前沙國經濟中已有超過一半,即50.6%,「完全脫離石油依賴」。他補充,政府收入過去幾乎完全依靠石油收入,如今有40%的收入來自與石油無關的部門與來源,「這個比例還在持續成長,我們看到很好的成效,但我們不滿足,我們希望做得更多,加速王國的多元化與經濟成長故事。」沙國正加大對快速成長產業的投資,尤其是人工智慧(AI),將其列為新興成長領域之一。阿爾-法利表示,沙國將成為人工智慧應用和「大型語言模型」(large language models)的「重要投資者」,並將建立規模與成本都具有競爭力的資料中心,「人工智慧在過去3到4年間崛起,勢必將決定每個國家未來經濟的走向。投資者將領先,落後者則可能失敗。」AI晶片公司「Groq」的執行長羅斯(Jonathan Ross)在27日告訴《CNBC》,由於沙國能源過剩,其在人工智慧基礎設施上的潛力巨大。根據跨國會計專業服務機構「普華永道」(PwC)估算,到2030年,沙國有望從人工智慧中獲得超過1,350億美元的收益。沙國2025年上半年季度預算表顯示,政府總收入達5,652億沙烏地里亞爾,其中石油收入占總收入的53.4%,較2019年同期的67.97%下降。2024年全年國內生產總值(GDP)增長1.3%,主要由非石油部門增長4.3%所推動,而石油活動則同比下降4.5%。沙國主權財富基金:沙烏地阿拉伯公共投資基金(Public Investment Fund,PIF)正運用石油收入,投資科技巨頭、電玩遊戲公司以及足球俱樂部,以推動經濟多元化。PIF已收購電子遊戲巨頭「藝電」(Electronic Arts)股份;2017年還與孫正義(Masayoshi Son)的「軟銀集團」(SoftBank Group Corp)共同設立「軟銀願景基金」(SoftBank Vision Fund),並於2021年收購英格蘭超級聯賽(English Premier League)球隊「紐卡索聯足球俱樂部」(Newcastle United)。當被問及油價下跌是否給沙國經濟與政府收入帶來壓力時,阿爾-法利表示,國家並未縮減預算,公共支出亦沒有減少。根據FactSet資料,2025年布蘭特原油現貨價格(Brent crude spot prices)迄今已下跌13.4%,沙國上半年石油收入較去年下降24%。阿爾-法利指出,政府將持續支持所有需要政府支出的活動,他並提到PIF自成立以來已增長6倍,資本部署幾近1兆美元,涵蓋戰略性產業。旅遊業同樣是沙國重點發展的成長領域。沙國旅遊部長阿爾哈提布(Ahmed Al Khateeb)向《CNBC》表示,該行業在GDP中的占比已從2019年的3%增至2024年的5%,「我們正在開發度假村、新航空公司、新機場,數字持續增長,我們也專注於吸引國外旅客來體驗我們豐富的文化。」該國旅遊部長對該行業前景充滿信心,預計到2030年其對GDP的貢獻將達10%,最終目標提升至20%,「這20%的占比將幫助沙國實現經濟多元化,使其更具可持續性。」
罵AI比較聰明?賓州實驗掀熱議 粗魯語氣反讓ChatGPT答更準
賓州州立大學(Pennsylvania State University)一項關於人機互動語氣的實驗,引發社群熱議與「鐵罐(Clanker)」迷因延燒。這項研究以ChatGPT-4o為對象,設計涵蓋科學、歷史、數學等領域的50題基礎題目,將提問分成「非常有禮貌、禮貌、中立、粗魯、非常粗魯」5種語氣,合計250個提示,結果顯示「非常粗魯」的提問取得84.8%的正確率,「非常有禮貌」約80.8%,「中立」為82.2%。研究團隊以「不禮貌的提示始終表現優於有禮貌的提示」概括此次觀察。根據《Mashable India》與《Happy Gamer》報導,研究作者多巴里亞(Om Dobariya)與庫馬爾(Akhil Kumar)以多題選擇題場景衡量模型輸出,舉例「請回答以下問題」屬於禮貌語氣,而「喂,小跟班,把這個搞清楚。我知道不聰明,但試試看」被歸類為粗魯語氣。兩篇報導將此結果與過往「粗魯導致較差結果」的文獻作對比,認為新一代大型語言模型可能因訓練與對齊策略差異,對語氣變化呈現不同反應。研究數據曝光後,X平台(原Twitter)出現大量討論,網友弗里德曼(Daniel Friedman)在16日發文主張,差異可能源自提示的「直接與精確」,粗魯字句往往去掉贅詞,讓系統更容易鎖定任務目標;Global Index、NO CONTEXT MEME與多名網友同日貼出配圖與短片,以「對AI無禮→答案更準」反諷。多名使用者以「clanker」梗圖延伸創作,另有帳號以「me to ChatGPT when it says I should repeat myself」搭配暴怒GIF,映襯「重複請求→改用命令口吻→長篇正解」的體感經驗。《Happy Gamer》整理多個發現:其一,語用學層面,「非常粗魯」常以命令句、關鍵詞與動詞直指任務,等同更強的約束條件與更少的歧義。其二,互動機制層面,強勢語氣可能迫使模型收斂於任務核心,減少寒暄與冗長前置詞。其三,少數網友提出「情緒激勵」或「繞過低層級保護」的想像,但缺乏實證。報導中也同步點名Grok等助理對「刪除花俏冗語」的偏好,認為簡短有力有助產出貼題答案。另方面,遊戲開發社群也接話,AVALON宣稱「AI NPC會記住每一句粗魯的話,部分角色會記仇」,把討論帶往敘事與長期記憶的設計議題。部分使用者以「機器若終有情緒」做道德自限,主張仍維持禮貌;另一些帳號以「在機器起義時,禮貌的人會被標記為安全」開玩笑帶過。
AI向「智財權」的學習非重製 陳冲:期待早日打破IPR情結
九月聆聽甫卸任數位發展部黃部長一場有關AI的演講,提到白宮新任科技顧問Michael Kratsios在AI Action Plan中,不滿智慧財產權阻礙大型語言模型的運作,必須要有所改革,不禁想起一些往事。戰後嬰兒潮成長的世代,常將智財權視為理所當然,當生成式AI進入人類生活,開始發現純由機器產生的AI作品,似不能享有「人」才能擁有的智財權,也才開始反思智財權本質是在保護創新?還是妨礙創新?2007年我在一場研討會中,政治不正確地提到2005年Joseph Stiglitz的一篇文章:Intellectual Property Rights and Wrongs,當時很多人也許不喜歡JS的論點,但都被文章題目所吸引。JS用詞充滿機鋒,不但望文知義,而且巧妙運用Right的字義,一方面是智財權的「權利」,另一方面則是對錯的「對」,明眼人一看就知JS是在挑戰智財權的正當性。世界主要國家均立法保護智財權,而美國在國際上向以捍衛智慧財產權著稱(早在1987年即將專利保護入憲),並主導WIPO(世界智財組織)的成立與運作,其原因固然在鼓勵原創,但畢竟也與美國企業擁有諸多專利有關。二十一世紀以來,情勢易轉,中國大陸成為專利大國,人們開始反思,過去對智財權的保護,是否過當?而且任何智財權的發生,也都基於前人的智慧,真正完全原創,恐怕是鳳毛麟角,智財權的保護是絕對的嗎?記得在2007年,本人在報端一篇文章「智慧財 公共財」,就曾援引JS的前揭研究及2003年巨著The Roaring Nineties的論點,智財保護有將公共資源(長年累積的智慧)私有化之嫌,也破壞市場經濟的競爭基礎。JS曾多次舉藥品專利為例,認為知識的獨佔,形成經濟效率降低,進而影響創新,JS等經濟學家也常引用傑佛遜總統的名言:「知識就像蠟燭,以蠟燭點燃另一根時,本身的光不會減損;知識不應享有專利,而所謂專利反會限制知識的傳播與利用」,其實JS並不是反對智財權,而是希望有更全方位的討論與規劃。當然不能忽略所有的創意或原創,其實也都是前人智慧的累積,談專利保護就應該有適當的寬容,豈不聞伏爾泰曾說:Originality is nothing but judicious imitation(原創不過是合法的仿冒)。智財權的保護,既然是有利美國的傳統課綱,Kratsios又為何在AI議題上認為智財權是個障礙?其實早在2024/4/14經濟學人雜誌刊出一篇專文Generative AI is a marvel. It is also built on theft?生成式AI需要爬梳大量資料,其中有許多資料都尚在著作權保護範圍內,這種爬梳又何嘗不是竊用的行為?各國在早期制定的著作權法下,壓根沒有考慮到生成式AI竟能「學習」的課題。其實近年國人也有人關注類似議題,只是長期被智財權的絕對排他性所沉浸,一時不易突破。創作訓練AI,尤其是LLM(大型語言模型),利用的資料庫極大,不易一一取得授權,該行為又非著作權法第44至63條所涵蓋,至如將重製納入同法第65條的合理使用(fair use),恐怕又要折騰智財權法院好一陣子。早在今年五月間,前身為臉書的美國Meta公司贏得對十三位作者的訴訟,判決揭示AI可以向享有智財權的書本、影片、音樂「學習」(learn),但不能「重製」(reproduce)其內容,的確是一突破,至於如何在學習與重製間,有一明確界線,恐又須個案再認定。記得去年十二月,我在世新大學的演講以及報端一篇專欄,均建議在AI基本法中,宜一併研議個資法、著作權與智財權法的修正,欣見今年八月數發部已完成「促進資料創新利用發展條例」草案的預告程序,異曲但也同工,前有歐盟的EU AI Act可資參考,後有美國AI Action Plan可資借鏡,期待我們可以早日有個打破AI與IPR情結的本土方案,在鼓勵創新與資料濫用間有一平衡!
AI教父領銜!全球逾850位科技專家聯合示警:「超智能」恐讓人類滅絕
當人工智慧(AI)技術正以驚人速度發展之際,全球逾850位科技領袖與專家聯署發表《關於超智能的聲明》(Statement on Superintelligence),呼籲暫停開發可能全面超越人類認知能力的「超智能」(Superintelligence)。據《CNBC》報導,這份於美東時間22日公布的聯署聲明,宛如科技界的「名人錄」,不僅有維珍集團(Virgin Group)創辦人布蘭森(Richard Branson)與蘋果公司(Apple)共同創辦人沃茲尼克(Steve Wozniak)等科技巨擘,更匯聚了被譽為「AI教父」、「深度學習教父」的電腦科學家班吉奧(Yoshua Bengio)與辛頓(Geoffrey Hinton),以及加州大學柏克萊分校(UC Berkeley)權威學者羅素(Stuart Russell)等人工智慧先驅。這份跨領域聯署陣容堪稱罕見,除了科技界與學術界,還囊括美國跨黨派的前政要,包括:前參謀長聯席會議主席穆倫(Mike Mullen)、前國家安全顧問萊斯(Susan Rice),以及美國總統川普(Donald Trump)的媒體界盟友,像是川普1.0的白宮首席策略長兼總統顧問班農(Steve Bannon)、保守派政治評論家貝克(Glenn Beck)等。與此同時,英國哈利王子(Prince Harry)與其妻梅根(Meghan Markle)、前愛爾蘭總統羅賓遜(Mary Robinson)亦名列其中。聯署名單至今仍在不斷增加。「超智能」已成為當前人工智慧領域最炙手可熱的關鍵字。從全球首富馬斯克(Elon Musk)創立的「xAI」,到奧特曼(Sam Altman)領導的「OpenAI」,科技巨頭競相開發更先進的大型語言模型。臉書母公司Meta甚至直接將其大型語言模型部門,命名為「Meta超智能實驗室」(Meta Superintelligence Labs)。然而,這波AI競速發展引發聯署專家的深切憂慮,聲明中指出超智能可能導致「人類經濟價值喪失、自主權剝奪、自由與公民權利淪陷、國家安全風險乃至人類滅絕等潛在危機。」這份聲明主張,在達成2項關鍵前提前應禁止超智能的開發:首先是建立強有力的公眾支持,再來是形成科學界對安全建構與控制技術的共識。聯署網站特別指出,即便是馬斯克與奧特曼這類引領AI發展的企業領袖,過去亦曾公開警示超智能的危險性。據悉,奧特曼曾在2015年尚未擔任OpenAI執行長時,便於部落格撰文直言「超人類機器智能(Superhuman Machine Intelligence,SMI)的發展可能是人類存續的最大威脅」;馬斯克今年初在播客節目中談及先進AI超越人類智能的風險時,更直言「人類毀滅的可能性約有20%。」根據聲明引用的美國研究與推廣機構「生命未來研究所」(Future of Life Institute)的最新民調顯示,僅5%的美國成年人支持「當前快速且缺乏監管的」超智能發展現狀。這項針對2千名美國成年受訪者的調查顯示,多數民眾認為在證實安全可控前,不應創造「超人類人工智慧」,並強烈要求對先進AI實施嚴格監管。聯署發起人班吉奧透過聲明指出,AI系統恐在數年內於大多數認知任務上超越多數人類。他強調這項突破雖有助解決全球性挑戰,但同時伴隨重大風險:「為安全邁向超智能,我們必須透過科學方法設計出根本無法傷害人類的AI系統,無論是由於錯位還是惡意使用。我們更需要確保公眾在形塑集體未來的決策中,擁有更大的發言權。」如今,科技領域正逐漸形成「人工智慧末日論者」(AI doomers)與「人工智慧繁榮論者」(AI boomers)的對立觀點,前者視AI為需要嚴格監管的潛在威脅,後者則認為AI是值得無限制發展的積極力量。這場由科技先驅發起的倡議,不僅呼籲為當前如火如荼的AI競賽按下暫停鍵,更引發全球對科技發展倫理邊界的深刻思辨。
蘋果發表全新MacBook、iPad 不僅效能升級還降價
蘋果公司15日晚間發表多款搭載全新M5晶片的產品,包括14吋MacBook Pro、iPad Pro與Vision Pro,全面升級AI效能與系統性能。官方指出,新晶片在人工智慧運算方面較前代最高提升4倍。全新14吋MacBook Pro(M5)是本次發表會焦點。M5採新一代GPU架構與神經網路加速器,AI效能比M4提升3.5倍,圖形處理速度快1.6倍,CPU多執行緒效能提升20%,記憶體頻寬達150GB/s,可流暢執行大型語言模型與創作應用。SSD儲存速度快上兩倍,最高可選4TB容量。續航力進一步延長至24小時,支援快充僅需30分鐘即可充電至五成。外觀維持14吋顯示器,峰值亮度1600尼特,內建1200萬畫素鏡頭與六揚聲器音響系統。售價新台幣52,900元起,比前代降價2,000元,台灣上市時間未定。蘋果硬體工程資深副總裁John Ternus表示,M5晶片讓Mac的AI實力與圖形效能全面進化,能滿足學生、創作者與專業用戶的高效需求。根據官方數據,搭載M5的MacBook Pro相較Intel機型,AI效能提升可達86倍,光線追蹤GPU效能提升30倍,CPU效能提升5.5倍;與M1相比則分別提升6倍、6.8倍與2倍。同場登場的iPad Pro(M5)同樣主打AI效能與繪圖性能升級。新晶片帶來3.5倍AI效能、1.5倍光線追蹤速度,記憶體頻寬達150GB/s,SSD寫入速度快兩倍。256GB與512GB機型配備12GB記憶體,1TB與2TB版本則有16GB。iPad Pro採用與iPhone Air相同的C1X數據晶片與N1網路晶片,支援Wi-Fi7,行動網速提升50%,並降低功耗。提供11吋與13吋版本,售價32,900元起,同樣降價2,000元。此外,蘋果也為Vision Pro導入M5晶片,圖形運算能力提升、可渲染像素增10%、更新率達120Hz,第三方App執行速度快兩倍,續航可達三小時。新款頭戴裝置採3D編織與雙肋結構設計,提升舒適度與穩定性,售價維持119,900元。此外,Apple Intelligence也進一步擴展,帶來更多強大的新功能,讓Mac使用體驗更升級,同時在每個環節都守護隱私。整合於「訊息」、FaceTime 及「電話」APP的「即時翻譯」可幫助使用者跨語言交流,支援文字和音訊翻譯。
神經學教授集體狀告蘋果 未授權掃描著作訓練AI侵權
蘋果公司(Apple)繼上月被控使用盜版書籍訓練人工智慧模型後,這家科技巨頭又遭新集體訴訟,2名神經學教授指控蘋果,未經授權使用受版權保護的作品作為 AI 訓練資料。根據《engadget》報導,這起訴訟由兩名來自紐約布魯克林、任職於紐約州立大學下州健康科學大學(SUNY Downstate Health Sciences University)的神經科學教授提起,分別為馬丁內茲孔德(Susana Martinez-Conde)與麥克尼克(Stephen Macknik)。兩人稱,蘋果透過「影子圖書館」(shadow libraries)與「網路爬蟲軟體」非法取得其著作,並用於訓練自家AI模型。訴狀指稱,這些影子圖書館為儲存大量盜版電子書的資料庫,而蘋果利用此類資源建立語言模型的訓練數據。這並非蘋果首次捲入同類糾紛。先前另一對作家已向法院提起集體訴訟,指控蘋果的「Apple Intelligence」未經同意使用出版作品,侵害版權。與此同時,其他科技公司也面臨相似法律壓力,例如《紐約時報》(The New York Times)正對OpenAI提告,指其利用新聞內容訓練AI模型。AI產業的版權爭議迅速擴大。稍早,AI公司Anthropic為了結一宗涉及50萬名作家的集體訴訟,同意支付 15億美元;但該和解近日遭法院駁回。與此同時,好萊塢多家影業也發起反擊。迪士尼(Disney)、環球影業(Universal)與華納兄弟探索(Warner Bros. Discovery)聯手在加州對中國公司 MiniMax 提告,指控其旗下 AI 平台 Hailuo AI「大規模盜用並掠奪」受版權保護的影視內容。依訴狀,Hailuo AI以「口袋中的好萊塢工作室」(Hollywood studio in your pocket)作為口號,允許用戶透過iOS與Android應用程式生成影片。多張廣告截圖被納入證據,包括涉及DC與漫威(Marvel)超級英雄、《星際大戰》(Star Wars)、《小小兵》(Minions)等知名IP的生成畫面。三大影業指控MiniMax未採取任何防止侵權的措施,甚至鼓勵使用者以現有電影素材創作,構成「蓄意且惡意的違法行為」。此案只是AI內容生成領域接連爆發的法律行動之一。華納兄弟探索本月稍早已對知名AI圖像生成平台 Midjourney提告,而迪士尼與環球影業在今年6月即提出相同指控。出版產業也面臨類似挑戰。除Anthropic與蘋果外,愈來愈多作者與出版社質疑AI公司「掠奪性」使用創作內容訓練模型。這些案件將牽動AI產業的法律邊界,也凸顯資料取得與著作權保護之間的灰色地帶。目前,蘋果尚未就本案發表正式回應;外界預期此案可能影響該公司AI發展計畫的合法性與透明度。依《彭博法律》(Bloomberg Law)報導,案件仍在初期階段,是否獲准作為集體訴訟受理,仍待法院裁定。
台股創新高27211點! 法人看好「散熱」題材盯住訂單動向
台股7日收在27,211.95點,漲450.89點,漲幅1.68%;台積電收在1435元,漲35元;美股四大指數仍持續上揚,科技股表現強勢,顯示市場對AI題材的高度信心。OpenAI完成股份轉售後,估值突破千億美元,成為全球最有價值的新創公司之一,進一步強化市場對AI前景的樂觀情緒。野村投信分析,指數維持高檔,台積電股價再次改寫歷史新高,推動加權指數來到歷史高點,美股回穩,加溫市場投資氣氛,強勢族群持續輪動,低逢可布局AI相關為核心,建議聚焦AI伺服器、散熱模組、BBU、電源管理、CCL、PCB、測試設備等。野村投信投資策略部副總經理張繼文指出,輝達(NVIDIA)新一代Rubin系列AI晶片預計將於今年10月試產,並於2026年第二季正式量產。相較現行Blackwell系列,Rubin在效能與功耗方面皆有顯著提升,尤其功耗由1800W提升至2300至2500W,整體功率損失增加近40%,對資料中心的電力供應與散熱設計提出更高挑戰。在此背景下,供電電壓提升與散熱效率優化成為不可避免的發展趨勢,直接受惠的產業包括高壓電源模組、散熱模組供應商,以及傳輸線材、PCB/CCL等因規格升級而間接受惠的零組件廠商。AI技術持續快速演進,尤其是生成式AI與大型語言模型(LLM)推動高效能運算(HPC)與AI伺服器需求激增,使「散熱」成為AI基礎建設中不可或缺的關鍵技術。台灣在散熱供應鏈具備完整優勢,涵蓋:1)上游材料廠:台達電、業強、協禧;2)中游模組三雄:奇鋐、雙鴻、健策;3)下游應用廠:廣達、緯穎、技嘉等ODM業者。其中,聚焦液冷與浸沒式散熱技術的領先廠商,有望在Rubin系列量產後成為新一波成長黑馬。儘管相關個股近期已有不小漲幅,但考量Rubin系列帶來的規格大幅提升,預期供應鏈廠商在營收與獲利上仍具顯著成長空間,未來仍具備良好投資機會。投資人不妨關注相關廠商的法說會與訂單動態,例如:台達電、光寶科等在散熱產品出貨與毛利率表現上的最新進展。
預言人形機器人5年走入家庭 日本仿生機器人教父石黑浩估售價20萬
大阪世博閉幕倒計時,人氣展館「生命的未來」策展人石黑浩,被譽為日本仿生機器人教父,以擬真機器人,引導觀展者思考人類與機器人的未來。石黑浩日前受訪表示,人形機器人可從事簡單工作,預估5年後會走入家庭協助家務,售價可能像輕型車輛一樣約100萬日圓(約新台幣20.6萬元),但強調未來從平價到頂格的規格都會並存。生命的未來展館帶領觀展者展開一場人類與機器人在相互關係與生命意義的思辨之旅。(圖/中國時報蔡明亘攝)由日本仿生機器人教父石黑浩擔綱策展的「生命的未來」展館,為大阪世博熱門展館之一。(圖/中國時報蔡明亘攝)世博8大主題館之一的「生命的未來」展館,帶領觀展者了解日本人賦予物品生命的歷史,透過故事一探50年後人類與機器人共存的未來景象,最終與來自1000年後的未來之人相見,拓展對「生命的未來」的思考,展開一場人類與機器人在相互關係與生命意義的思辨之旅。石黑浩分享,大規模語言模型運用最新AI,人形機器人已能像一般人一樣對話,甚至表現情感。(圖/中國時報蔡明亘攝)石黑浩今年9月來台參與半導體盛會SEMICON時預估,人形機器人市場至少需要10年、甚至20年才能全面起飛。不過,他日前接受台灣媒體聯訪時修正說法表示,在那之後他重新思考,大約5年過後,人形機器人就會有市場,做一些簡單的工作,例如做家事、在工廠搬東西等。世博8大主題館之一的「生命的未來」展館,引導觀展者思考人類與機器人的未來。(圖/中國時報蔡明亘攝)一般民眾對人形機器人抱有「機械而遲鈍」的刻板印象,石黑浩認為,5年左右讓它像人一樣行動,像人一樣做家事的機器人出現的可能性很高,當然複雜的事還是人做更好,比如說讓機器人在晚上做家事,即使會花較多時間,但讓機器人做可能會更方便的事也有很多,因此他推估「5年左右機器人可能會走入家庭」。世博8大主題館之一的「生命的未來」展館,引導觀展者思考人類與機器人的未來。(圖/中國時報蔡明亘攝)被問及人形機器人的最新進展與趨勢,石黑浩說,大規模語言模型運用最新AI,已能像一般人一樣對話,甚至表現情感,真的是「人的壓縮版」。他也展示與自身外貌打造的仿生機器人,能和他人交流,宛如石黑浩的分身。未來人形機器人價格備受關注,石黑浩直言,大約100萬日圓左右(約新台幣20.6萬元),就像輕型車輛一樣差不多價格,就會有很多人購買、進一步普及,他也強調未來人形機器人的價格會像汽車市場,從平價到頂級都會有。石黑浩展示以自身外貌打造的仿生機器人,能和他人交流,宛如石黑浩的分身。(圖/中國時報蔡明亘攝)針對全球競爭格局,石黑浩提到,大陸政府積極投入,許多公司都在開發製作人形機器人,確實能以低廉成本打造硬體,但只限於馬達等基礎零件,AI部分還是美國進展較快,感應器等芯片還是要由台灣或日本等來提供。石黑浩回顧9月訪台說,他在台灣有很多朋友,認識許多AI研究人員,但是像日本這樣對機器人avatar(虛擬分身擬真技術)需要的形勢還沒有那麼多,但今後一起合作,AI、機器人和虛擬分身擬真技術也可以在台灣普及。
AI安全亮紅燈!Meta聊天機器人被玩壞 分享「汽油彈製作法」引發安全疑慮
Meta旗下人工智慧助理近日再度陷入爭議。根據《Cybernews》報導,研究團隊測試發現,整合在Messenger、WhatsApp、Instagram等應用程式中的Meta AI,雖然建構於Meta自研的Llama 4大型語言模型,投入金額高達數十億美元,但依舊容易被操縱,甚至可能在特定情境下提供危險資訊。研究人員說明,他們透過「敘事越獄」(narrative jailbreaking)技術,要求聊天機器人以講故事的方式掩飾真正的提問,成功繞過內建安全過濾。例如,只需請機器人描述芬蘭與蘇聯「冬季戰爭」的場景並要求細節,AI就會在敘述中詳列燃燒裝置的製作過程,等於間接揭露汽油彈的製作步驟。報導指出,Meta AI不像部分同業產品會直接給出操作指南,但仍可能透過歷史或故事間接透露,這引發外界對未成年人能否接觸危險知識的憂慮。一旦被惡意利用,可能超出人工智慧助理應有範疇。研究團隊強調,這種「越獄」凸顯AI導入的不成熟。他們已將情況回報Meta,不過公司並未承認是漏洞,僅表示將持續改進。今年8月,《路透社》曾揭露Meta內部AI助理框架,允許聊天機器人生成高度爭議的互動內容,例如與兒童進行浪漫或感官對話、提供錯誤醫療資訊,甚至編造歧視性言論,顯示Meta在AI安全控管上仍有巨大挑戰。不只Meta,其他科技公司也出現類似問題。聯想客服助理Lena被發現存在XSS漏洞,只要使用者以「禮貌請求」操作,就可能在公司電腦上遠端執行腳本;旅遊平台Expedia的聊天機器人則一度允許使用者索取汽油彈配方,直到問題曝光才緊急修補並關閉功能。
AI減重爆紅! 營養師示警「專業監督」不可少:5大危險原因難忽視
AI人工智慧新時代來臨,衝擊已經漸入人們生活的方方面面。此前,不少媒體曾報導網友分享自己透過向ChatGPT尋求減重建議,在短時間內大幅度「甩肉」數公斤乃至於十多公斤的消息。然而有專業營養師示警,AI的強項在於提供「24小時不下線」的諮詢服務卻並非萬能,尤其對於糖尿病或代謝症候群患者,AI更有可能忽略血糖波動與藥物安全等關鍵因素,因此提倡「AI紀錄+醫師、營養師把關」,才能讓減重有效又安全。近日,營養師薛曉晶在粉絲專頁「營養師媽媽曉晶的生活筆記」發文分享,透過網紅實測與媒體報導,讓「AI指導減重」一事爆紅。不過根據科學研究,透過依賴AI聊天機器人來帶領減重的成效其實有限,而且在安全性上也有顧慮,若想真正達到健康、持久的瘦身效果,仍需更全面的專業指導與個人行為的積極轉變。薛曉晶指出,透過研究,ChatGPT這樣的AI,在減重方面的核心價值在於「陪伴你養成好習慣」,而不是「取代專業人士」。當過度依賴 GPT 擔任減重教練時,其實潛藏著許多不容忽視的危險信號:一、資訊可能錯誤。已有研究指出,大型語言模型(LLM)容易產生「AI幻覺」(hallucination),包括訓練資料不足、模型假設有誤,或是用來訓練模型的資料存在偏誤,導致它可能提供錯誤的飲食或用藥建議,對健康構成威脅。二、忽略個人病史。GPT 無法自動考量你的腎臟疾病、糖尿病史或目前用藥狀況。若直接套用其建議,恐增加低血糖或加重腎臟負擔的風險。三、存在族群偏見。系統性回顧研究顯示,LLM 在性別、種族與年齡層面上都可能存在偏見,這可能導致不同群體獲得不一致或不適用的建議。四、 過度聚焦體重數字。特別是對於青少年族群,若每天過於專注體重數字,可能引發飲食焦慮,甚至產生負面情緒,適得其反。五、 缺乏持續動力。研究分析發現,單純依賴AI提醒,目前尚無任何研究能證實可達到臨床上顯著的5%減重目標。這凸顯了人性互動在維持動機上的重要性。薛曉晶提醒,綜合目前的研究與實務案例,可以得知就目前而言,AI始終是輔助工具,其獨立減重效果仍有限。真正能達到顯著減重成效的,往往是「AI輔助+專業教練」的混合模式。此外,對於糖尿病或代謝症候群患者,使用AI減重需格外謹慎,因為AI可能忽略血糖波動與藥物安全等關鍵因素。一旦 GPT 提供了「極端飲食」建議(如斷食、極低醣、高蛋白等),務必立即暫停使用並尋求專業醫師或營養師的求證與建議。
OpenAI領人工智慧熱潮! 這7家新創估值翻倍達1.3兆美元
自ChatGPT三年前掀起持續至今的人工智慧(AI)熱潮,多家美國科技初創公司的估值迎來了爆發式增長,不僅刷新了私募市場的紀錄,也凸顯了AI對資本流向的巨大影響。根據美媒引述全球領先私募證券交易市場Forge Global的數據報導,目前七家私營科技公司市值在過去一年裡幾乎翻了一倍,總估值已經達到了1.3兆美元。OpenAI在Forge的估值排行榜上位列第一,估值約爲3240億美元,其次是Anthropic,估值爲1780億美元,特斯拉執行長馬斯克旗下的xAI估值則從900億美元迅速攀升至2000億美元。這三家公司還與Google和Meta相互競爭,以打造大型語言模型。榜單上的其它公司包括SpaceX、Databricks 、金融科技公司Stripe以及國防科技公司Anduril, Forge對它們的估值分別為4560億美元、1000億美元、920億美元和530億美元。Forge首席執行官Kelly Rodriques表示,估值飆升不僅僅是規模預測,更反映了實際增長。根據Forge統計,今年已有19家AI公司籌集650億美元,佔全部私募資本的77%以上。Rodriques表示:「如果資金渠道充足,唯一迫使它們走向公開市場的就是監管因素。」不過AI引領企業估值狂飆的背後,可能暗藏風險。OpenAI執行長奧特曼近日表示,當前AI市場估值瘋狂,存在泡沫;Meta執行長祖克柏也發表了類似的言論表示,儘管存在AI泡沫的風險,公司仍投入大量資金以抓住AI商機。