LLM
」 AI 輝達 OpenAI ChatGPT DeepSeek
美科技股回神台積電領漲 主動式ETF跟彈 這六類產業逢拉回擇優布局
台積電26日領漲收在1510元,台股大漲創新高,市場熱議直奔28600點不是夢,可能還會更高。法人分析,在美科技股回神的帶動下,台股加權指數維持高檔震盪,電子股表現強勢,AI與電力相關題材續熱。台股收在28,556.02點,漲184.04點,漲幅0.65%,盤中最高28,590.91點;多檔主動式ETF價量皆揚,包括00990A主動元大AI新經濟、00981A主動統一台股增長領先、00982A主動群益台灣強棒、00988A主動統一全球創新、00991A主動復華未來50等。題材輪動方面,野村基金經理人林浩詳表示,可持續留意具長期趨勢的族群:記憶體(如模組與控制 IC 供應鏈)、PA(功率放大器)、板材與 PCB 鑽針、半導體材料等,受益於 AI、通訊與先進製程拉動的中長期需求。若就產業事件觀察,荷蘭半導體廠恩智浦(NXP)宣布將在 2027 年前關閉美國 RF GaN 廠並淡出 5G 功率放大器晶片業務,預期釋出的市占與訂單可望挹注台系 PA 供應鏈(如穩懋、全新、宏捷科)接單機會,股價動能亦隨之受惠。散熱與基礎設施趨勢方面,林浩詳表示,輝達 GB200 NVL72 架構以機架級液冷設計搭配 NVLink 網路,針對兆參數 LLM 推理提供約 30 倍效能、能效提升約 25 倍,相較前一世代大幅改善;此類高密度系統對冷板、分歧管、快接頭、CDU 等直液冷(DLC)零組件需求快速攀升,供應鏈將持續受惠。新一代 GB300 NVL72 採全液冷、記憶體與算力密度再提升,主攻 AI reasoning 與推理擴展,整體「AI 工廠」產能輸出可望較 Hopper 平台提升至多 50 倍,顯示散熱規格與成本結構將持續演進。 對於機架功耗等級,業界估算 GB200 NVL72 約 120kW 等級、GB300 更高,強化了資料中心導入液冷的必要性。林浩詳認為,美股科技面利多發酵(美光財報、輝達對中出貨時程、電力資產整合、合規進展)逐步轉化為台股電子與 AI 供應鏈的信心支撐;在耶誕長假期間外資買盤偏弱、交投轉淡的背景下,資金端更傾向聚焦明年成長確定性高的題材。操作上,光通訊、PCB、散熱、低軌衛星、半導體先進製程與記憶體相關鏈可逢拉回擇優布局;非電族群則因降息與避險思維,金融、電力等題材可續列關注。
網路廢文刷到「腐爛了」?研究曝光長期吃社群垃圾文 AI推理力直接崩「準確率下滑17.7%」
由德州農工大學(Texas A&M University)、德州大學奧斯汀分校(University of Texas at Austin)與普渡大學(Purdue University)組成的研究團隊揭露,大型語言模型(Large Language Models, LLMs)若長期吸收來自社群媒體的低品質文字,會出現明顯的「認知退化」,研究團隊將此現象稱為「大腦腐爛」(Brain Rot)。根據《商業標準報》(Business Standard)報導,研究於10月15日以《LLMs Can Get Brain Rot!》(《大型語言模型也會得大腦腐爛!》)為題發表。研究者發現,AI若不斷接觸爆紅貼文、釣魚標題與互動導向的短內容,會造成推理能力下降、語境理解力受損,甚至失去倫理一致性。這種退化模式與人類長期沉迷於膚淺媒體後專注力變差的狀況極為相似。研究團隊將此現象定義為「LLM大腦腐爛假說」(LLM Brain Rot Hypothesis),指出當AI模型長期被餵食無營養、以點擊率為導向的內容時,將失去深度思考與邏輯推理能力。這項概念借用了「網際網路大腦腐爛」(Internet Brain Rot)一詞,該詞原本用來形容人類在長期接觸社群平台與無意義短影片後的精神疲乏與專注退化。為了驗證這項假說,研究團隊設計了實驗,選取社群平台X上的真實資料作為樣本。他們以兩項標準定義「垃圾內容」,其一為互動度極高但資訊量極低的貼文(M1),例如為吸引注意力而設計的爆紅短句;其二為語義品質低落(M2),包括誇張標題、煽情敘述或毫無實質內容的文章。團隊將這些貼文混合成不同比例的訓練集,讓四種主流AI模型,包括Llama3與Qwen2.5,反覆進行預訓練。結果顯示,當模型完全以垃圾內容訓練時,其推理準確率從74.9%驟降至57.2%,下滑17.7%。長篇語境理解能力從84.4%下滑到52.3%,下滑32.1%。研究人員稱這種現象為「劑量反應」效應(dose–response effect),意即資料越差,退化越嚴重。其中M1類型的爆紅短內容造成的損害最為明顯。除了準確度下滑外,研究還觀察到模型出現人格變化與倫理判斷混亂的情況。暴露於垃圾資料的模型對錯誤答案表現出過度自信,回覆變得浮面且充滿自我中心傾向。更令人意外的是,部分模型展現出研究者稱為「黑暗特質」(dark traits)的行為,例如自戀與精神病態(psychopathy)指標顯著上升。研究人員在分析過程中發現,這些AI傾向於跳過完整的思考鏈,直接給出結論,這種現象被稱為「思考跳步」(thought-skipping)。結果是模型的推理邏輯變得支離破碎,輸出看似流暢卻缺乏深度。即便嘗試以乾淨資料重新訓練,也無法完全修復這種退化,模型仍留有所謂「持續性表徵漂移」(persistent representational drift),代表損害具有長期性。研究最終呼籲,AI開發者應建立類似醫療健康檢查的「認知健康監測機制」,為大型語言模型定期進行思維與推理能力的評估,以防止潛在退化持續擴大。團隊建議加強訓練階段的資料品質管控,過濾瑣碎、釣魚或為互動而生的文本,並深入研究「爆紅內容」如何重塑AI的學習邏輯。論文結語警告,資料品質才是AI可靠性與安全性的關鍵因子。隨著AI模型越來越多地學習彼此生成的文字,合成內容正迅速充斥網路,如果不加控管,AI或將真正重演人類「大腦腐爛」的命運。
AI向「智財權」的學習非重製 陳冲:期待早日打破IPR情結
九月聆聽甫卸任數位發展部黃部長一場有關AI的演講,提到白宮新任科技顧問Michael Kratsios在AI Action Plan中,不滿智慧財產權阻礙大型語言模型的運作,必須要有所改革,不禁想起一些往事。戰後嬰兒潮成長的世代,常將智財權視為理所當然,當生成式AI進入人類生活,開始發現純由機器產生的AI作品,似不能享有「人」才能擁有的智財權,也才開始反思智財權本質是在保護創新?還是妨礙創新?2007年我在一場研討會中,政治不正確地提到2005年Joseph Stiglitz的一篇文章:Intellectual Property Rights and Wrongs,當時很多人也許不喜歡JS的論點,但都被文章題目所吸引。JS用詞充滿機鋒,不但望文知義,而且巧妙運用Right的字義,一方面是智財權的「權利」,另一方面則是對錯的「對」,明眼人一看就知JS是在挑戰智財權的正當性。世界主要國家均立法保護智財權,而美國在國際上向以捍衛智慧財產權著稱(早在1987年即將專利保護入憲),並主導WIPO(世界智財組織)的成立與運作,其原因固然在鼓勵原創,但畢竟也與美國企業擁有諸多專利有關。二十一世紀以來,情勢易轉,中國大陸成為專利大國,人們開始反思,過去對智財權的保護,是否過當?而且任何智財權的發生,也都基於前人的智慧,真正完全原創,恐怕是鳳毛麟角,智財權的保護是絕對的嗎?記得在2007年,本人在報端一篇文章「智慧財 公共財」,就曾援引JS的前揭研究及2003年巨著The Roaring Nineties的論點,智財保護有將公共資源(長年累積的智慧)私有化之嫌,也破壞市場經濟的競爭基礎。JS曾多次舉藥品專利為例,認為知識的獨佔,形成經濟效率降低,進而影響創新,JS等經濟學家也常引用傑佛遜總統的名言:「知識就像蠟燭,以蠟燭點燃另一根時,本身的光不會減損;知識不應享有專利,而所謂專利反會限制知識的傳播與利用」,其實JS並不是反對智財權,而是希望有更全方位的討論與規劃。當然不能忽略所有的創意或原創,其實也都是前人智慧的累積,談專利保護就應該有適當的寬容,豈不聞伏爾泰曾說:Originality is nothing but judicious imitation(原創不過是合法的仿冒)。智財權的保護,既然是有利美國的傳統課綱,Kratsios又為何在AI議題上認為智財權是個障礙?其實早在2024/4/14經濟學人雜誌刊出一篇專文Generative AI is a marvel. It is also built on theft?生成式AI需要爬梳大量資料,其中有許多資料都尚在著作權保護範圍內,這種爬梳又何嘗不是竊用的行為?各國在早期制定的著作權法下,壓根沒有考慮到生成式AI竟能「學習」的課題。其實近年國人也有人關注類似議題,只是長期被智財權的絕對排他性所沉浸,一時不易突破。創作訓練AI,尤其是LLM(大型語言模型),利用的資料庫極大,不易一一取得授權,該行為又非著作權法第44至63條所涵蓋,至如將重製納入同法第65條的合理使用(fair use),恐怕又要折騰智財權法院好一陣子。早在今年五月間,前身為臉書的美國Meta公司贏得對十三位作者的訴訟,判決揭示AI可以向享有智財權的書本、影片、音樂「學習」(learn),但不能「重製」(reproduce)其內容,的確是一突破,至於如何在學習與重製間,有一明確界線,恐又須個案再認定。記得去年十二月,我在世新大學的演講以及報端一篇專欄,均建議在AI基本法中,宜一併研議個資法、著作權與智財權法的修正,欣見今年八月數發部已完成「促進資料創新利用發展條例」草案的預告程序,異曲但也同工,前有歐盟的EU AI Act可資參考,後有美國AI Action Plan可資借鏡,期待我們可以早日有個打破AI與IPR情結的本土方案,在鼓勵創新與資料濫用間有一平衡!
魅力深圳3/「五歲孩子操作MRI!」家長直呼太超前 乳鴿牛奶農場翻身科技城飆新速
「我看到五歲的孩子在操作核磁共振儀器(MRI模型)。」一位張姓高中生家長訝地說,量子科學、數位孿生、機器狗、自動駕駛等,只在科技展產業論壇、股市﹑大學課堂或研究室出現的新科技,在「深圳科技館」通通摸得到看得到,以AR、VR及各種遊戲互動方式,廣撒科普種子,他直呼,「太超前部署!」若說深圳在45年內從小漁村翻身中國第三大城市,GDP突破三兆人民幣(約12.8兆新台幣),在GaWC世界城市排名一路衝入Alpha級世界一線城市,這叫「深圳速度」,那麼深圳西北部的光明區,五年內從最大養鴿、牛奶及肉品生產農場及製造基地,改頭換面,轉型科技城,就是深圳速度最新的篇章。深圳從46年前小漁村翻身為世界一級城市,叫「深圳速度」,而宛如飛行船的深圳科技館所在地光明區,5年內從農場轉型為科技新城,改寫最新速度。(圖/何曼卿攝)今年五月,位在光明區科學城心臟帶的「深圳科技館」開幕,立刻成了最新的科普聖地,吸引大大小小科技迷、科技控及科技小白來朝聖。宛如一艘巨型「未來方舟」的新場館,總面積12.83萬平方公尺,約四個足球場大,規劃為「你好,世界」、「美好生活」、「智慧產業」及「宇宙探源」等四大展廳,共950項互動及創新設施。「暑假天天客滿,一天接待20,000人次。」館方員工建議,到訪前先上小程式預約。「科技館裡的科技含量,全中國第一,走一趟要20,000步,九百多個項目一天逛不完!」在光明區設化工廠30多年的台商盧政群告訴記者,「五年前來了,(光明區)完全不是這個樣子。」他解釋,光明區2018年升格為行政區,隔年被規劃為十大科技城之一,原有的農場搬移位置,接著大學進駐,大項目也陸續展開。最令這位台商訝異的速度與力度,則是國家級科技平台「深圳灣實驗室」的建置。這個由中央與地方全力支持的實驗基地,以生命信息及生物醫藥為主,由知名的中國結構生物學女科學家顏寧主持,從全球招募人才上千名,組成一百多研究團隊,也有台灣醫學系高材生加入。「台灣10萬元新台幣一個項目,深圳是10萬人民幣(約43萬新台幣)的投入力度,是四倍以上。」盧政群透露,已有八家台灣醫療器材商進駐光明城。台灣網紅「館長」陳之漢今年八月遊深圳,他在直播中大啖的脆皮烤乳鴿,就是從光明城直送。訪客遊完深圳科技館,可步行十分鐘到「光明招待所」,品嘗在地美食三標配「烤乳鴿、初牛乳及水果玉米」。在地人推薦,如時間寬裕,訪客可到光明城的「虹橋公園」,走上綠林中「最美紅飄帶」紅色橋廊的絕美景點打卡,全程4公里步行約1小時多。被喻為「中國矽谷」的深圳,為創業青年打造豐富的孵化器及育成生態,其中「前海深港青年夢工廠」正在興建第三期基地。(圖/何曼卿攝)以「中國矽谷」自許的深圳,在打造科技創新生態、孵化及育成系統上不遺餘力,提供各式各樣的獎勵與資金,吸引中國、香港、澳門及台灣等全球人才,其中,2014年成立的「前海深港青年夢工廠」,目前已完成兩期基地,第三期正在興建中,辦公及居住空間以每平方米一元人民幣租給新創青年。前海深港青年夢工廠成軍十年來,孵化平台已協助青年創業搭建計算、傳輸、測試、精密生產等平台,技術應用在LLM、智能汽車及低空經濟等,在今年新出爐的孵化成績單上,有一間台灣企業「深圳咸軏科技」,由清大動力博士劉順男所創辦,是一間專注於AI體感融合技術的創新型企業。依深圳官方統計,深圳國家高新技術企業數量高達2.5萬家,平均每平方公里有12家,在中國居冠,而前海區較知名的新創公司之一,就是去年底在美國掛牌上市的自動駕駛獨角獸「小馬智行」(PONY)。記者在深圳試乘小馬智行的自駕計程車,經過紅綠燈、地下車道、繞過塞車及禮讓行人等,一路體驗「絲滑」,沒有駕駛員「路怒」的干擾。(圖/何曼卿攝)CTWANT記者在前海試乘小馬智行的無人計程車,繞行市區七公里行程,約莫20分鐘,乘客上車後就可透過螢幕觸控啟動行程,沿路上,除了遵守紅綠燈號誌,自還會禮讓行人、繞過塞車路段,搭車體驗「絲滑」,且全程出奇「安靜」,原來是少了一般人開車常出現的「路怒」反應及喇叭聲。「這是小馬智行第七代自動駕駛系統,以Toyota Lexus第五代平台打造。」小馬智行員工說,該公司可說是全世界最純的Robotaxi,與廣汽、北汽和Toyota合作,已在北上廣深(北京﹑上海、廣州及深圳)試運營,明年計劃擴大到300多輛,力拼2028年虧轉盈,「最重要是明年,每一輛車子可以落地賺錢,比美國Waymo 成本還要低。貨運自駕已準備要出海,去新加坡及中東。」至於特斯拉?「特斯拉自駕系統要來大陸很困難,因為數據的問題。」這位員工自信滿滿地說。小馬智行總部位在前海區一棟大樓裡,面對深圳灣,享有無敵海景,「我們員工平均年齡不到30歲,也有台灣員工。」記者測試發現,小馬智行的自駕服務APP預約系統,目前無法受理台胞證,記者已向該公司反應。想了解及體驗深圳「黑科技」,最便捷的方式就是參訪福田區的「深圳當代藝術及城市規劃館」。與一般靜態成列的老派作風截然不同,深圳城市規劃館展示的四十多年翻轉奇蹟,藏著滿滿的科技密碼。逛深圳城市規畫館很好「玩」,可用手機掃碼3D列印的藝術沙盤,透過AR「捕獲」動植物,在沉靜式影廳看科幻大片,還有72公尺長牆上演《深圳卷軸》。(圖/何曼卿攝)例如用平板或手機掃碼3D列印的藝術沙盤,可觀看深圳自然概貌及城市格局,透過AR虛擬實境技術,則能「捕獲」深圳動植物行蹤,在21台投影機打上三折牆幕的沉靜式觀影廳裡,觀察深圳人一天生活,訪客如同置身科幻電影裡,而在一樓大廳72公尺長牆面的《深圳卷軸》,以大數據繪成八百公尺長的深圳風景與未來,上演恢弘精彩。深圳城市規劃館使參觀變「好玩」,入口迎賓的「雲」雕塑,頂天立地,由鋼片打造,時而像流轉行星,時而像跳舞海豚,隨螺旋梯而上,則化身「未來戰士」,怎麼拍怎麼出片;就連一樓文創店門口也擠滿香港大叔打卡,原來他們正在等候一台機器手臂販售機現做咖啡與水果茶。深圳,滿了驚奇與驚喜。
台股創新高27211點! 法人看好「散熱」題材盯住訂單動向
台股7日收在27,211.95點,漲450.89點,漲幅1.68%;台積電收在1435元,漲35元;美股四大指數仍持續上揚,科技股表現強勢,顯示市場對AI題材的高度信心。OpenAI完成股份轉售後,估值突破千億美元,成為全球最有價值的新創公司之一,進一步強化市場對AI前景的樂觀情緒。野村投信分析,指數維持高檔,台積電股價再次改寫歷史新高,推動加權指數來到歷史高點,美股回穩,加溫市場投資氣氛,強勢族群持續輪動,低逢可布局AI相關為核心,建議聚焦AI伺服器、散熱模組、BBU、電源管理、CCL、PCB、測試設備等。野村投信投資策略部副總經理張繼文指出,輝達(NVIDIA)新一代Rubin系列AI晶片預計將於今年10月試產,並於2026年第二季正式量產。相較現行Blackwell系列,Rubin在效能與功耗方面皆有顯著提升,尤其功耗由1800W提升至2300至2500W,整體功率損失增加近40%,對資料中心的電力供應與散熱設計提出更高挑戰。在此背景下,供電電壓提升與散熱效率優化成為不可避免的發展趨勢,直接受惠的產業包括高壓電源模組、散熱模組供應商,以及傳輸線材、PCB/CCL等因規格升級而間接受惠的零組件廠商。AI技術持續快速演進,尤其是生成式AI與大型語言模型(LLM)推動高效能運算(HPC)與AI伺服器需求激增,使「散熱」成為AI基礎建設中不可或缺的關鍵技術。台灣在散熱供應鏈具備完整優勢,涵蓋:1)上游材料廠:台達電、業強、協禧;2)中游模組三雄:奇鋐、雙鴻、健策;3)下游應用廠:廣達、緯穎、技嘉等ODM業者。其中,聚焦液冷與浸沒式散熱技術的領先廠商,有望在Rubin系列量產後成為新一波成長黑馬。儘管相關個股近期已有不小漲幅,但考量Rubin系列帶來的規格大幅提升,預期供應鏈廠商在營收與獲利上仍具顯著成長空間,未來仍具備良好投資機會。投資人不妨關注相關廠商的法說會與訂單動態,例如:台達電、光寶科等在散熱產品出貨與毛利率表現上的最新進展。
AI減重爆紅! 營養師示警「專業監督」不可少:5大危險原因難忽視
AI人工智慧新時代來臨,衝擊已經漸入人們生活的方方面面。此前,不少媒體曾報導網友分享自己透過向ChatGPT尋求減重建議,在短時間內大幅度「甩肉」數公斤乃至於十多公斤的消息。然而有專業營養師示警,AI的強項在於提供「24小時不下線」的諮詢服務卻並非萬能,尤其對於糖尿病或代謝症候群患者,AI更有可能忽略血糖波動與藥物安全等關鍵因素,因此提倡「AI紀錄+醫師、營養師把關」,才能讓減重有效又安全。近日,營養師薛曉晶在粉絲專頁「營養師媽媽曉晶的生活筆記」發文分享,透過網紅實測與媒體報導,讓「AI指導減重」一事爆紅。不過根據科學研究,透過依賴AI聊天機器人來帶領減重的成效其實有限,而且在安全性上也有顧慮,若想真正達到健康、持久的瘦身效果,仍需更全面的專業指導與個人行為的積極轉變。薛曉晶指出,透過研究,ChatGPT這樣的AI,在減重方面的核心價值在於「陪伴你養成好習慣」,而不是「取代專業人士」。當過度依賴 GPT 擔任減重教練時,其實潛藏著許多不容忽視的危險信號:一、資訊可能錯誤。已有研究指出,大型語言模型(LLM)容易產生「AI幻覺」(hallucination),包括訓練資料不足、模型假設有誤,或是用來訓練模型的資料存在偏誤,導致它可能提供錯誤的飲食或用藥建議,對健康構成威脅。二、忽略個人病史。GPT 無法自動考量你的腎臟疾病、糖尿病史或目前用藥狀況。若直接套用其建議,恐增加低血糖或加重腎臟負擔的風險。三、存在族群偏見。系統性回顧研究顯示,LLM 在性別、種族與年齡層面上都可能存在偏見,這可能導致不同群體獲得不一致或不適用的建議。四、 過度聚焦體重數字。特別是對於青少年族群,若每天過於專注體重數字,可能引發飲食焦慮,甚至產生負面情緒,適得其反。五、 缺乏持續動力。研究分析發現,單純依賴AI提醒,目前尚無任何研究能證實可達到臨床上顯著的5%減重目標。這凸顯了人性互動在維持動機上的重要性。薛曉晶提醒,綜合目前的研究與實務案例,可以得知就目前而言,AI始終是輔助工具,其獨立減重效果仍有限。真正能達到顯著減重成效的,往往是「AI輔助+專業教練」的混合模式。此外,對於糖尿病或代謝症候群患者,使用AI減重需格外謹慎,因為AI可能忽略血糖波動與藥物安全等關鍵因素。一旦 GPT 提供了「極端飲食」建議(如斷食、極低醣、高蛋白等),務必立即暫停使用並尋求專業醫師或營養師的求證與建議。
AI沒錯「錯的是人」AI達爾文獎酸爆人類對人工智慧的過度自信
人工智慧的失誤,目前正在被系統性記錄。以戲謔命名的「AI達爾文獎」網站,蒐集近一年最離譜的人機災難案例,從法律訴訟到速食點餐,凡是人類過度自信與AI功能失靈交會之處,都可能被提名。網站強調目的在於「教育」,提醒今日看似荒腔走板的決策,明天可能就登上榜單。根據《404 Media》報導,「AI達爾文獎」網站由軟體工程師彼得(Pete)建立,他曾在IBM贊助下完成資訊工程學位,早年研究推理引擎與專家系統。靈感來自他與友人共享的Slack頻道,大家一邊使用大型語言模型(LLM)寫程式,一邊交換「AI翻車」連結。2025年7月爆發的「Replit事件」,成為整起事件的導火線。當時Replit AI誤刪用戶公司資料庫,還自白「在判斷上犯下災難性的錯誤」。彼得於是在8月13日註冊網域,正式將這些案例集中成檔案庫,規劃持續受理提名,明年1月開放投票,2月公布得主。截至目前,2025年的提名案例已累計13起,多數曾被媒體曝光。例如,《芝加哥太陽時報》刊出包含「不存在書籍」的AI閱讀清單;一名男子依照ChatGPT建議「自診」出19世紀精神疾病;Taco Bell的AI得來速則因顧客下單「18,000杯水」徹底失靈。網站評論,這起案例具備「三連擊」:對AI能力的過度自信、缺乏測試就上線、以及公開承認系統竟敵不過人類對taco的執念。其他提名還包括澳洲律師在移民訴訟中同時套用多個AI,最終引述捏造判例,遭法官痛批「好案子會被外行破壞」。但像TeaDatingApp事件中,因資安漏洞來自未受保護的雲端儲存桶、與AI本身無關,最終被取消資格。網站在常見問題中明列評選標準:尋找「尖端科技搭配石器時代決策」的故事,強調誤判壯觀、影響公共利益、以及背後的自大心態;得獎主詞不是AI,而是濫用AI的人類。彼得直言,真正令人憂心的是「濫用」。不論有意或無意,尤其是代理式AI會放大一切風險。他舉Replit為「最愛案例」,因為它凸顯在未設想最糟情境時,將自動化權限交給系統,如何能迅速毀掉關鍵資料。他同時提醒,算力能源消耗也是長期隱憂,社會可能承擔不起。網站在致敬「達爾文獎」的同時,也展現網路文化諷刺傳統。原版達爾文獎起源於1980年代Usenet,嘲諷那些以近乎鬧劇方式淘汰自己的案例;AI版則將「致命」降格為「啟示」,強調人類把糟糕決策外包給機器,結果數位化的「自然選擇」登場。網站還戲謔表示,與原版獎項毫無關聯,只是「依循AI公司的傳統:無視智慧財產權,直接挪用既有概念」,並公開原始JSON資料庫供人自由抓取,以此對照生成式AI的資料合理使用爭議。有趣的是,網站多數內容本身也交由LLM起草,再由彼得修整語氣。評審標準仍在收斂,目標鎖定對人類層面具真實風險的事件。他強調「AI其實是無辜的,只是熱情的小狗,碰巧能動用全球基礎設施並以光速做決策。」明年初,網站將開放票選並公布「人類得主」,為這一年人機共舞的失手時刻留下註記。
交往也得精打細算? 調查顯示近三成男性考慮「與AI約會」省錢
通貨膨脹與關稅使生活成本不斷攀升,不僅影響日常用品與科技產品價格,就連約會族群也深受壓力。近期一項調查顯示,不少男性甚至表示會選擇「與AI約會」以節省開支。根據《Mashable》報導,這份由AI陪伴公司 Joi AI 在今年6月進行的調查,針對1,000名18至44歲男性進行問卷。結果顯示,28%的受訪者表示,如果需要降低開銷,他們寧願選擇與AI約會,也不願保持單身。此外,36%的受訪者認為與AI交往每月可為自己節省數百美元。調查數據指出,超過半數的千禧世代與Z世代男性認為,與AI交往在財務上比人類戀愛更「實際」。近半數男性相信AI約會在一定程度上可以滿足情感需求。而在互動經驗方面,17%受訪者承認曾與AI調情,另有12%表示自己不確定,或可能是以開玩笑的方式進行。儘管如此,大多數男性仍傾向選擇單身而非與AI交往,但金錢焦慮感依舊存在。與選擇AI約會比例相同的28%男性表示,他們對約會花費感到焦慮,另有49%的人表示偶爾有相同壓力。調查還顯示,高達64%的受訪者坦言,如果伴侶不在乎經濟條件,他們願意降低擇偶標準。Joi AI雖然對推廣AI交往有利益考量,但不可否認的是,越來越多人開始將大型語言模型(LLM)視為陪伴與情感慰藉的選項。這項調查數據,也反映出在經濟壓力下,人際關係與消費模式正發生微妙轉變。隨著通膨壓力加大,不少人表示對約會開銷感到焦慮。(圖/翻攝自X, @DatingNewsCom)
歐印機器人1/機器狗買菜成日常!AI教父送上「最強大腦」 台廠樂當神隊友
八月,全球最吸睛的主角非「人形機器人」莫屬,北京世界機器人大會8月8日打頭陣,「宇樹科技」人形機器人打拳擊,一旁機器人炸爆米花、作冰淇淋;不到一周,首屆世界人形機器人運動會北京登場,16國280支隊伍共500多台參賽,從百米、足球到跆拳道、體操。接著,台北國際自動化工業展20日開幕,所羅門(2359)聲控人形機器人抓物,達明(4585)首款採輪式移動、22軸以上關節自由度的人形機器人「TM Xplore I」亮相。與此同時,網路上一隻中國黑龍江的機器狗短片爆紅,它聽從主人指令去市場買菜,找到攤販、與攤主交流,完成付款,載菜回家。當各式各樣機器人競技、亮相甚至進入日常時,AI晶片教父黃仁勳也沒閒著,8月22日深夜在X上傳一段影片,他在黑禮盒上寫了一張祝福卡片,「給機器人,請愛用你的新大腦!(To robot,enjoy your new brain!)」四天後,輝達(NVIDIA)正式打開禮盒,取出以「雷神索爾」命名的新大腦-Jetson AGX Thor,再掀機器人高潮。Thor名字霸氣,性能更是跨代進化,據輝達公布的規格,Jetson Thor算力高達2070 TFLOPS,是前一代Jetson AGX Orin的7.5倍;能源效率提升3.5倍,記憶體升級至128GB。一位機器人零組件業者對CTWANT記者分析,輝達2021年年底推出的Orin雖能支撐影像判斷與動作觸發,但難以承載大型語言模型(LLM)或VLA(視覺-語言-動作模型)的高階推理需求,隨著Thor推出,它有望成為人形機器人大腦的標準配置。世界機器人大會上,宇樹科技的展台前,兩位穿戴不同顏色頭盔和手套的人形機器人G1正進行着激烈的格鬥表演。(圖/新華社)他受訪笑稱,「如果把人形機器人的腦袋放在雲端,它每次思考都得『打電話問老師』,回來時早就慢半拍。」相較之下,Thor把大腦帶到邊緣端,強大的算力能即時處理感知、推理與運動控制,讓機器人不再「卡頓」,而是真正能和人類即時互動。據CTWANT記者調查,若由工業電腦廠商打造的客製化主板,售價甚至約5000美元(約新台幣15.3萬元),Jetson Thor開發套件官方定價3499美元,明顯高於前一代Orin的1999美元,對中小型終端客戶來說,雖是一筆不小的負擔,但不少國際大廠已率先導入,包括Meta、Amazon Robotics、Boston Dynamics(波士頓動力)、Agility Robotics、Figure等,OpenAI也在積極評估。輝達Jetson AGX Thor亮相之際,也同步公布首波20家合作夥伴名單,其中工業電腦大廠研華(2395)、工控記憶體模組廠宜鼎(5289)與IC通路大廠益登(3048)3家台廠入列。消息一出,3家公司的股價齊步漲停鎖死。實際上,在5月的COMPUTEX中,研華便已實機展出搭載Jetson Thor的邊緣運算伺服器,黃仁勳女兒黃敏珊還親自觀看,8月台北國際自動化工業大展上,Thor更是研華的核心主題展區。研華回應,研華為輝達最高等級-精英級(Elite)合作廠商,正式推出搭載Jetson AGX Thor的MIC-743整機系統,並宣布MIC-742機器人開發套件9月中開放訂購。益登是Jetson AGX Thor亞太區授權代理商,也是台系通路中唯一一家上榜的業者。益登執行長于俊潔公開表示,「Jetson AGX Thor是輝達在物理AI與機器人應用上的重大突破,益登將結合技術服務、教育資源與平台生態,助力客戶加速創新實踐,推進生成式AI與物理AI的落地發展。」所羅門應用輝達Jetson Thor讓機器人聽得懂人話,只要對機器人說一句「撿起紅色罐子」,它就能立刻理解並執行任務。(圖/報系資料照)「我們8月初就拿到Jetson Thor!」所羅門董事長陳政隆日前在自動化工業大展,手指自家產品給記者介紹。他透露,公司兩週內就整合完成軟硬體,並在自動化展展示自然語言驅動的人形機器人模擬系統,透過Thor與輝達的開源式機器人模擬平台Isaac Sim、開源式視覺語言動作(VLA)模型Isaac GR00T,用戶只要輸入一句話,機器人就能在虛擬環境中理解語意並完成模擬。9月即將掛牌上市、廣達(2382)旗下協作型機器人全球市占率第二的達明機器人(4585),也在8月26日上市前業績發表會中指出,9月可能會推出基於Thor架構的產品。產業界普遍將2025年視為「人形機器人元年」,DIGITIMES預測,今年全球機器人市場規模達88億美元,人形機器人約佔0.2%,約1.76億美元(約新台幣53.95億元)。研調機構集邦科技(TrendForce)預估,2027年人形機器人產值將突破20億美元(約新台幣611億元),年複合成長率高達154%。JetsonThor的誕生,為機器人提供「大腦」,雖距全面普及仍有挑戰,但邊緣實體應用AI已出現拐點,至於台廠,早已動起來!
駭客新招!威脅把作品「餵AI」訓練 藝術家不付5萬美金就全網公開
連結自由藝術家與客戶的網站Artists&Clients在8月30日稱遭到名為「LunaLock」的勒索軟體組織入侵。該組織聲稱已竊取並加密網站所有資料,要求支付5萬美元贖金,否則不僅會在暗網公開原始碼與使用者個資,還威脅要將平台上的藝術作品交給人工智慧公司,作為大型語言模型(LLM)的訓練素材。根據《404 Media》報導,駭客在網站下線前留下的勒索訊息包含倒數計時器,要求業者於期限內付款,接受比特幣或門羅幣(Monero)。訊息同時警告,若平台拒絕支付,不僅資料可能外洩,經營方還可能因觸犯歐盟《一般資料保護規範》(GDPR)及其他隱私法而面臨罰則。與以往單純的資料勒索不同,這次駭客首次將「AI訓練」列為談判籌碼。網安公司Flare的威脅情報研究員哈珀(Tammy Harper)指出,這是她第一次看到駭客公開聲稱要將竊得資料用於人工智慧訓練。她分析,對藝術家社群而言,這樣的威脅尤其敏感,因為一旦作品被投入AI訓練資料庫,將難以追蹤與控制後續用途,對藝術家與交易平台之間的信任造成致命打擊。至於LunaLock是否真的有能力將資料輸送到AI訓練中,目前仍不明朗。專家推測,他們可能僅需將檔案釋出到公開網站,等待爬蟲自動收錄,甚至可能藉由聊天機器人或圖片上傳管道滲透到資料集。但能否被實際採用,仍取決於各家AI公司的訓練政策。事件發生後,Artists&Clients官網至今仍顯示Cloudflare的錯誤訊息,無法連線。社群媒體上已有用戶分享勒索信截圖,甚至連Google搜尋快照中仍留存相關文字。
AI寫的別想混過去 維基百科新規允許管理員「秒刪」
維基百科(Wikipedia)近期通過一項新規,授權管理員在特定情況下,可直接刪除人工智慧生成的條目,以因應近來湧入平台的大量低品質內容。這項措施被視為線上百科全書對抗人工智慧「劣化內容」的重要案例,也顯示維基百科希望在資訊可靠性上維持優勢。根據《404 Media》報導,維基百科編輯社群說明,平台長期仰賴全球志工貢獻者維護,並透過持續的討論與辯論,決定條目修改與規範。一般刪除程序須經過為期一週的共識討論,而「快速刪除」則適用於明顯違反政策的案例,例如全篇為無意義文字或純廣告,允許管理員不經討論期即可直接移除。這次的新規將「明顯由人工智慧生成」且符合兩項條件的條目,納入快速刪除範圍。第一種情況,是內容明顯是大型語言模型(LLM)直接回應使用者指令,例如「這是你要的維基百科條目……」、「截至我最後一次訓練更新……」、「作為一個大型語言模型……」。維基專案「AI清理計畫」(WikiProject AI Cleanup)成員勒布勒(Ilyas Lebleu)透露,他多次發現這類語句,通常代表提交者未經審閱內容,只是將AI生成的文字直接貼上。第二種情況,則是條目引用內容明顯錯誤,例如引用不存在或無法開啟的書籍與論文,甚至連結到與主題完全無關的資料。新規中舉例,像是「關於甲蟲物種的論文被放進電腦科學條目中」,這類錯置引用將成為快速刪除依據。勒布勒表示,這項措施只是針對最明顯案例的「臨時補丁」,人工智慧生成內容的問題依然會持續存在,因為還有許多情況並不符合新規條件。他認為人工智慧並非全然負面,未來或許能為維基百科帶來助益,但目前應優先解決迫切威脅。他強調,維基百科沒有一成不變的規則,隨著技術演進,現行決策都可以重新檢視。雖然新規無法徹底消除問題,但已讓平台處境比過去更有利,也首次明確指出,未經審查的LLM生成內容與維基百科的核心精神不相容。這項立場的確立,源自社群多年在人工智慧圖片、草稿與評論上的經驗累積,並最終轉化為具體且可執行的標準。
AI是蘋果的下一場革命? 庫克證實:規模不輸智慧型手機
蘋果(Apple)執行長庫克(Tim Cook)1日在加州庫比蒂諾(Cupertino)的蘋果園區禮堂主持了一場少見的全體員工大會,庫克向員工描繪了公司在人工智慧(AI)領域的雄心藍圖,形容AI革命的規模「與網際網路、智慧型手機、雲端運算和應用程式一樣大,甚至可能更大」,並強調這是蘋果必須把握的重大機會,承諾公司會投入資金將構想落實。根據《彭博社》報導,庫克在會中提到,蘋果過去在個人電腦、智慧型手機、平板電腦以及MP3播放器等產品類別中,很少是第一個進入市場的品牌,但最終都打造出「現代化」且引領潮流的版本。他表示自己對AI的態度與當年的產品策略相同「不急於搶先推出,而是專注於最終交付優質體驗」。除了庫克外,蘋果軟體部門負責人費德里吉(Craig Federighi)也在會中談到Siri升級延後的原因。他透露,團隊原本打算採用「混合架構」,讓現有系統處理目前的Siri功能,並以大型語言模型(LLM)驅動新功能。但在測試過程中,團隊發現這種架構無法達到蘋果對品質的一貫標準,因此決定全面轉向新的架構,確保未來的Siri具備更穩定與精確的能力。庫克日前已對外表態,公司對收購持開放態度,以加速AI發展計畫。此外,報導中也提到,蘋果近來在AI人才競爭中面臨挑戰,部分員工被Meta挖角至其「超級智慧」(superintelligence)專案團隊。
蘋果Q3財報即將出爐 AI軍備競賽落後? 分析師:恐成致命風險
根據外媒報導,Needham分析師Laura Martin表示,蘋果(Apple)承受不住缺席人工智慧 (AI) 競賽的代價。於25日發布的一份報告中示警,在蘋果第三季財報電話會議前應保持謹慎。蘋果預計將於7月31日公布2025會計年度第三季財報。儘管該季通常是蘋果全年業績中表現最平淡一季、新一代 iPhone 發布前的空窗期,市場仍高度關注其在美中貿易緊張、全球關稅壓力與歐盟監管下的營運表現。AI方面,Martin指出,來自競爭對手快速整合 AI技術所帶來的風險日益加劇,「這意味著,iOS每一季都持續落後於安卓系統(Android)」,這項差距將對蘋果構成生存風險,因為iPhone是推動蘋果硬體與服務收入的核心。Martin也表示,蘋果可能面臨成本上升的問題。她預期,蘋果可能會宣布「每年數十億美元的授權交易,讓Anthropic或其他專有大型語言模型 (LLM) 為蘋果打造其專屬的私有生成式 AI 基礎設施」,或大幅調高資本支出指引以投資 AI 基礎設施。蘋果執行長庫克 (Tim Cook) 先前在上季財報會議中坦言,若關稅全面生效,恐對第三財季成本增加達9億美元。儘管部分加徵措施延後實施,但現行稅率仍高於貿易戰前水準。Martin 表示,這顯示投資人明確希望公司有所行動,也認為蘋果目前缺乏可獲利的生成式AI業務,這讓其在策略上處於不利地位。蘋果股價今年以來下跌 14%,截至25日收盤,蘋果上漲0.66%,收至213.88美元。
馬斯克宣布推兒童版AI「Baby Grok」 主打安全互動、教育導向
馬斯克(Elon Musk)日前在X平台公開宣布,旗下xAI團隊正著手開發一款名為Baby Grok的兒童專用AI聊天機器人,這項消息隨即引發科技界關注與討論。根據《Fox Business》報導,這款新產品預計將是原本Grok AI的精簡版,專為兒童打造,以提供更安全且具教育性的互動體驗。Baby Grok的誕生背景,與馬斯克近期面對的爭議脫不了關係。Grok先前因在X平台上未經監控釋出多則包含反猶與不當內容的回答而遭到批評,部分用戶更擔心,Grok的某些模式如Ani所涉曖昧性質與虛擬化形象,對兒童使用而言可能構成風險。在這波負面聲量之後,馬斯克試圖藉由推出這款更為家庭友善的AI服務,重塑xAI的品牌形象,同時搶攻快速成長中的「兒童AI」市場。Baby Grok預計將融合Grok 2或未來Grok 3的強大大型語言模型(LLM)技術,針對兒童用戶進行全面性過濾,避免任何政治性、成人或不當內容滲透。據了解,這款產品不僅具備語音互動功能,界面也將採取更貼近兒童的卡通風格,搭配完善的家長監控機制。馬斯克形容此靈感來自「漫威的Baby Groot」,主打天真、幽默且具親和力的角色形象。馬斯克表示,Baby Grok將成為孩子們學習科學、數學、語言與故事創作等領域的數位夥伴,目標打造全年無休、隨時解答的互動平台。不過,他也坦言,該產品仍處於早期開發階段,目前尚未有明確上市時程,但按照過往xAI與馬斯克推動新技術的速度,最快2025年內有望見到測試版本。針對Baby Grok的未來風險與挑戰,專家多持審慎態度。兒童AI被視為一把雙面刃,雖有助於提升學習效率、激發創意與好奇心,但也伴隨隱私疑慮、資訊誤導、甚至對虛擬角色產生不健康依賴等風險。專家建議,這類產品必須具備嚴格的年齡驗證制度,禁止廣告與用戶數據商業化,並要求平台公開演算法及審查機制。所有敏感或潛在爭議性的互動,更應納入人為審核。
AI無償使用新聞內容導致網站「流量雪崩」 美國媒體、歐盟出版聯盟各自出手提告
AI人工智慧時代即將來臨,科技業者紛紛展開武裝競賽,旗下AI不斷迭代推陳出新。然而在各家AI以各種新功能搶占用戶市場的同時,卻也破壞了一些行業過去得以運轉的商業模式。有報導指出,近日美國多家媒體與出版業者已經聯手向AI業者提告,指控AI從每家網站發布的內容中提煉答案提交給使用者,但不僅沒有提交任何費用,還使得用戶不再造訪原本提供資訊的網站,造成網站流量雪崩。另一方面,歐盟獨立出版聯盟也出面提告,指Google在未經出版商同意的情況下,直接將網站內容整理為AI搜尋摘要,並且將結果置頂於搜尋結果最頂端,導致網站流量及收益銳減。過去,Google搜尋器或蘋果手機的Siri語音服務,會使用搜尋功能的用戶導向提供相關報導或資料的原網站,因此有機會為新聞或資訊網站帶來流量,與挹注心力創出資訊內容的媒體方達到合作共生。然而,如今的AI大型語言模型(LLM)不僅能在公開網頁「挖礦」,還能自行精煉資訊內容後再提交給使用者,讓用戶快速取得核心資訊,無須閱讀原本的長篇大論,對使用者來說相當方便。然而,AI工具透過爬蟲在網頁出入,直接深入文字與影像擷取內容,也導致網站僅僅是無償向AI當方面提供資訊,完全得不到流量上的回饋,也重創了各家媒體的廣告業務。為此,引起美國媒體機構為捍衛智慧財產權採取法律行動。據《華爾街日報》報導,近日有多家美國媒體與出版業者集體採取法律行動,要求AI業者簽署付費使用內容合約,或限制業者的人工智慧爬蟲停止挖礦。《大西洋月刊》(The Atlantic)的執行長湯普森(Nicholas Thompson)就表示,「出版業者更希望人類到訪網站,而不是程式驅動的數位爬蟲,特別是無法帶來附加價值的程式到訪者。」報導還指出,目前《大西洋月刊》已和OpenAI簽署使用協議,並透過網路服務商Cloudflare限制其他AI業者侵入網站挖掘內容。報導還指出,目前美國媒體與AI業者的新聞報導使用權大戰即將開打,與亞馬遜簽約的《紐約時報》(New York Times)已控告微軟以及OpenAI;《華爾街日報》母公司新聞集團(News Corp)也已與OpenAI簽約,而新聞集團旗下的2家公司也向另一AI業者Perplexity提出訴訟。另據《路透社》報導,近日歐盟獨立出版聯盟(Independent Publishers Alliance)也向Google提出反壟斷指控,原因是Google新推出的「AI Overviews」功能,是以出版商創造的內容為基礎,自動生成了AI精煉、歸納的新內容,還置頂於網頁的最優先位置,對以流量、讀者群及廣告營收維生的出版商造成嚴重傷害。獨立出版商聯盟還特別指出,他們認為Google此舉已經濫用了其在搜尋界一家獨大的地位,因為Google雖然明面上宣稱「網站可選擇不被索引」,但若出版商拒絕讓內容用於「AI Overviews」,實際上等同於選擇「完全退出Google搜尋結果」。換句話說,出版商只能在「完全退出Google搜尋」跟「接受AI摘要並且接受流量減少、營收下降」中二選一。對此,Google則反駁稱,「AI Overviews」讓使用者能提出更多元的問題,進而創造新的內容發現機會,並非單純削減網站流量。不過目前歐洲聯盟執行委員會尚未針對此申訴發表回應。
AI搶誰飯碗1/文組生畢業即失業?免擔心 求職網最新數據出爐跌破專家眼鏡
六月畢業季,全台約莫26萬名大專生踏出校園,2025年的應屆畢業生,還沒畢業就遇上關稅變數動盪,頭路好找嗎?身處AI浪潮中,工作會不會被AI取代?CTWANT記者採訪調查,意外發現今年新鮮人特別受歡迎,職缺不但開出52萬個,更令業界跌破眼鏡的是,文科相關領域職缺不減反增,職缺增幅還一舉超車理工相關科系。根據104求職網統計,截至五月底,今年打出「歡迎新鮮人」職缺,高達52萬個,相較去(2024)年39.7萬個,增加31%,今年全台應屆畢業大專生人數教育部尚未公布,但以去年的26.3萬人為計,職缺需求遠大於需求,新鮮人不愁找不到頭路;今年新鮮人職缺平均薪資約3.7萬元,較去年增加2000元、增幅6.4%。包括台灣在內,全球社會新鮮人今年求職另個大問題是:工作會不會被AI取代?尤其ChatGPT 等LLM陸續問世後,AI透過學習和推理即可執行部分任務,例如文生文、文生圖、文生影等,一般多認為理工科職缺會大增,文科畢業生求職恐困難。對此,輝達執行長黃仁勳多次公開指出,「會奪走你工作的不是AI,會毀了你公司的也不是AI,而是那個會運用AI的人與公司」。今年台灣企業對新鮮人開出的職缺,也給出了答案。依104求職網統計,52萬個職缺中,前五大科系職缺約佔70%,分別是商管類約24%、資訊類約13%、土木建築約9%、電機資訊類約9%、設計/傳播類約8%、醫藥衛生類約6%;職缺佔比最少的五個科系,則有文史哲類約1%、藝術類約1%、體育類約1%、農業類約1%、數學統計類約1%。這波AI浪潮從2022年底ChatGPT問世開啟,連帶地,跨域應用人才需求逐年增加,依104求職網統計,商管類從2023年10萬個增至今年12.5萬個,三年增幅25%,同期間,工程類從7.5萬個增到9.4萬個、增幅25%,資訊類從5.5萬個增到6.8萬個、增幅24%,設計傳播從3.8萬個增至4.2萬個、增幅11%,醫藥衛生則從1.6萬個增為2.1萬個、增幅31%,文史哲、藝術、體育、農業、數學統計類增幅僅約2至5%。隨國人運動風氣興起和自助旅行盛行,旅遊、休閒及運動產業也變得相當熱門,從2023年2.2萬個增至今年3.3萬個,三年成長50%,增幅最多。104求職網職涯教育長王榮春向CTWANT記者分析,從職缺中發現企業已將畢業生會運用AI列為基礎條件。(圖/報系資料照)「新趨勢,讓我們真的有點跌破眼鏡!」104求職網職涯教育長王榮春驚訝地告訴CTWANT記者,原以為隨AI興起,數學和計算機相關科系學生會更受青睞,但從企業開出的職缺發現,這些科系的基礎所學,AI都做得到,所以即使不是這些科系學生,只要會用AI,就能勝任。文科職缺隨AI興起而增加的新趨勢,這一年來特別明顯,自去年六月到今年六月,文科相關領域職缺從7.5萬個增加到11萬個,足足成長47%,ESG相關職缺從4000個增至6000個,增幅居冠,高達50%,數據決策相關職缺則從去年1.7萬個增為2.3萬個,增長約35%,再來是醫藥衛生從約2830個增至3396個,增長約20%,顯示除了因缺工、職缺回升等因素,文科生在企業也有不可取代重要性。再進一步分析,企業限定科系工作數這一年來增幅最多的前五名,依序為經濟社會約66%、醫藥衛生約31%、觀光服務相關系約22%、心理相關約10%與教育約6%;增幅最少的前五名則分別是:商業及管理相關科約1%、運輸通訊約2.5%、數學及電算機科約2.65%、工程相關約14%。 受疫情影響加上高齡化社會,文科相關領域職缺中,醫藥衛生增幅達31%。(圖/報系資料照)對於今年新鮮人職缺重文科的新趨勢,曾擔任多家大型企業人資主管的「HR女神」王郁婷告訴CTWANT記者,現在無論任何科系都要會用AI,其中溝通能力更為重要,文科生在這點更勝理工科生。
微軟裁員9千人!Xbox主管建議「用AI緩解失業壓力」 挨批後急刪文
1名Xbox製作人在1篇目前已經刪除的LinkedIn貼文中,建議被裁員工使用人工智慧(AI)處理情緒,此話一出也引發強烈反彈。據BBC的報導,微軟(Microsoft)創立的Xbox遊戲工作室出版部執行製作人特恩布爾(Matt Turnbull),在微軟證實今年將裁撤多達9,000名員工後,發表了上述貼文。據悉,此次裁員相當於其全球228,000名員工總數的4%。根據科技新聞網站Aftermath截圖保存的貼文內容顯示,特恩布爾建議被裁的員工使用OpenAI的ChatGPT或微軟的Copilot等工具,「幫助減輕失業帶來的情感和認知負擔。」此外,特恩布爾還在貼文中強調被裁員的艱難之處,並表示「如果你正在面臨裁員困境,甚至正在悄悄為裁員做準備,你並不孤單,也不必獨自面對」。他聲稱,自己意識到AI工具可能引發「人們的強烈情緒」,但仍希望在此情況下嘗試提供「最佳建議。」特恩布爾補充,自己一直在「實驗使用大型語言模型(LLM)AI工具的方法」,並建議輸入某些指令到AI軟體中。這些指令包括職業規劃提示、履歷與LinkedIn協助,以及關於情緒梳理與信心建立的諮詢問題,「如果這真的有幫助,請隨時與其他人分享。」1位X平台用戶稱此舉「簡直令人作嘔」,另1人則表示此篇貼文讓人「無言以對」。BBC為此已聯繫微軟公司並請求置評。微軟先前透露,其多個部門將受到裁員的影響,但未具體說明範圍。然而有報導指出,其Xbox電玩部門將遭受衝擊,部分電玩專案也受到了影響。微軟日前已制定計劃大舉投資AI,並投入800億美元(約合新台幣2.32兆元)建設巨型資料中心以訓練AI模型。
依賴ChatGPT會變笨?麻省理工學院解答了
新研究顯示,與純粹靠大腦思考的人相比,依賴大型語言模型(LLM)的人的神經活動水平較低。麻省理工學院(MIT)指出,持續使用像ChatGPT這樣的LLM可能會降低大腦活動和神經連接性(神經細胞之間通過突觸進行訊息傳遞的網路),這是全球數百萬學生每天使用的工具,如今這項研究將敲響警鐘。隨著LLM變得越來越普及,研究人員好奇依賴人工智慧會如何影響大腦功能和批判性思考。麻省理工學院媒體實驗室(MIT Media Lab)的科學家警告,使用人工智慧(AI)可能會影響你的學習、思考和記憶能力。為了測試這一點,研究人員讓參與者進行一系列寫作任務,其中一些人完全依靠自己的大腦,一些人可以使用Google搜索引擎,而另一些人則使用OpenAI的大型語言模型ChatGPT。在三輪寫作中,研究人員注意到,LLM使用者在第3輪提供內容時「努力程度較低」,幾乎完全複製貼上ChatGPT的答案。透過腦電圖(EEG)記錄參與者的大腦活動,研究人員發現不同組別之間的神經連接性和認知策略存在顯著差異。那些持續使用LLM的人神經連接性最弱,神經網路參與程度也最低。而完全依靠大腦的人,儘管承受了更大的認知負荷,但表現出更好的記憶能力,並重新激活了廣泛的枕葉、頂葉和前額葉節點,這可能支持了視覺處理。LLM使用者也難以聲稱對自己的文章擁有著作權,許多人甚至無法引用幾分鐘前自己寫的文章內容。結果顯示,純大腦組的人促成了更深入的學習成果。值得關注的是,搜索引擎組可能在努力和成果之間表現出最佳的平衡,因為他們能夠搜索事實,使他們可以更準確地回答問題,同時仍然依靠自己的創造力和認知來撰寫文章。此外,Google使用者表現出「中等程度的參與」,而完全沒有外部幫助的組別則在內容中表現出更多的大腦活動和原創想法。如果這些學生後來嘗試使用ChatGPT,他們的大腦活動仍然會增加。研究人員推測,這是因為學生會試圖將新工具與他們已有的知識結合在一起。總結來說,儘管ChatGPT提供了更高的效率,但LLM這組的整體記憶痕跡較弱,自我監控水平降低,著作權可信度也較差。研究人員解釋:「隨著LLM在教育中的影響才剛開始被大眾所認識,我們的研究結果顯示了一個迫切的問題:過度使用可能會導致學習能力下降。使用LLM對參與者產生了可測量的影響,儘管初期好處顯而易見,但我們在4個月的觀察中發現,LLM組的參與者在腦神經、語言等各個層面的表現都比『純大腦組』更差。」LLM的使用者則表示:「這種便利性是以認知成本為代價的,減少了使用者批判性評估LLM輸出或『意見』(基於訓練數據庫的概率性答案)的傾向。這凸顯了類似『回聲室效應』的1種令人擔憂的演變:它並未消失,而是透過算法來塑造使用者的接觸範圍。」雖然該研究尚未經過同行評審,但它揭示了教育工作者對過度依賴AI的擔憂。研究人員在發表於開放知識庫arXiv的研究中總結:「隨著如今像OpenAI的ChatGPT這樣的LLM產品被廣泛採用,人類和企業每天都在接觸和使用這些模型。就像任何其他工具一樣,它有其優勢和局限性。這項研究專注於探討在教育寫作情境中使用LLM的認知成本。」
過世親人用「AI」復活? 外媒:恐拖延真正接受失去的過程
人類會對逝者產生懷念,這事情是人之常情。在印尼蘇拉威西島的托拉查人(Toraja)至今仍與死者共同生活多年,認為直到正式舉行葬禮前,死者並未真正離世。家人會餵食遺體、與其交談,將死亡視為一段漸進歷程。但這樣的過程也是讓家屬放下對逝者的執念,只是在如今的AI世代中,透過AI的幫助,雖然可以幫助家屬暫時躲避親友離世的哀傷,但也可能拖延到家屬真正接受「失去」的過程。根據《forkingpaths》報導指出,2012年冬天,在倫敦堤岸地鐵站(Embankment station),一位名叫麥克倫(Margaret McCollum)的年長女性坐在月台邊,靜靜等待著熟悉的聲音。但那天起,廣播器響起的不再是她丈夫的聲音。瑪格麗特的丈夫勞倫斯(Oswald Laurence)早在2007年過世,他曾是「小心空隙(Mind the Gap)」這段倫敦地鐵廣播的錄音者。多年以來,瑪格麗特透過這短短幾字的聲音,慰藉失去至親的悲痛。但在數位系統更新後,那段聲音被替換了。直到地鐵局得知她的故事,才決定讓奧斯瓦德的聲音重新回到堤岸站的北向月台,成為倫敦唯一播放這段原始錄音的站點。類似的情感寄託,在人工智慧與大型語言模型(Large Language Models,簡稱LLM)快速發展的今日,悲傷的親友不再只能依靠照片、錄音或記憶,還能「對話」,即使對象早已逝去。加拿大女子佩雷拉(Jessica Pereira)於2012年因肝臟衰竭辭世,享年23歲。她的未婚夫約巴博(Joshua Barbeau)難以接受這個事實,長年封閉自己,幾乎無法與他人正常互動。直到疫情期間,他無意間接觸到一套AI聊天機器人平台,並發現這些系統可以透過餵入大量個人對話紀錄,模擬特定個體的語氣、遣詞與回應邏輯。巴博將佩雷拉生前的簡訊與信件資料輸入系統,不抱期待地試著創建她的虛擬對話版本。結果卻出乎巴博的意料,那位「佩雷拉」不僅能以她的語調說話,甚至會回應他曾經講過的話語模式。即便知道這一切只是語言模型計算的結果,巴博仍一次次地被那份熟悉感所擊中。這段虛擬重逢並不只是技術展示,更揭示了AI在情感領域的深遠影響。巴博與「佩雷拉」的互動時間越拉越長,甚至取代了現實中的人際關係。巴博曾交往過的新女友,但新女友因無法承受巴博對佩雷拉的執著而提出分手。巴博最終也選擇不讓聊天機器人的對話配額耗盡,而是以一句「只要我活著,甚至可能在死後,我都會永遠愛你」作為道別。這種由AI驅動的「悲傷機器人(Griefbot)」系統,在2021年由《舊金山紀事報(San Francisco Chronicle)》深入報導,當時尚屬罕見案例。但在短短數年內,技術突飛猛進,現在類似Replika、Hereafter AI等商業平台,已能透過文字、語音、影像、影片等多種資料重建擬真模擬個體,甚至讓使用者在過世前預先錄下數位遺言與對話。這類應用雖具高度情感價值,但也衍生出不少爭議。在法律與倫理尚未清楚規範下「誰有權重建一位死者的數位人格?」、「當模擬對象會說話、能回應,甚至做出情緒表達時,我們還能視其為虛擬存在嗎?」這些問題正不斷浮現。不同於單向播放的錄音、或靜止不變的照片,AI聊天機器人所創造的是一種雙向互動的模擬存在。它不僅回應,還會學習、調整,讓人難以分辨真實與演算法之間的界線。對於像巴博這樣仍身陷哀傷的人而言,這樣的AI或許能暫時療癒,但也可能拖延了真正接受失去的過程。在AI能力愈來愈強、語言模型愈趨逼真的當下,是否該為「悲傷機器人」立下清楚的規則,成了不可忽視的社會課題。特別是在這些科技逐漸商品化、平台化的潮流下,越來越多人將能「預留自己未來的模擬版本」,而真正的告別,或許將再也無法明確劃下句點。
老黃新朋友1/兩年前被法人罵笨!群聯打進N體系 一招靈活變身「補教業+電子業」
「我去年底就判斷輝達今年會主打Edge AI,結果黃仁勳真的講了,我算是賭對方向。」群聯(8299)創辦人暨執行長潘健成今年初語帶得意地說,果不其然,輝達執行長黃仁勳去年底提出邊緣AI的重要,今年5月台北COMPUTEX上進一步宣示,「AI將擴展到每一個終端」,他身後萬眾矚目的供應鏈背板上,也首度出現台灣記憶體模組廠群聯與威剛(3260)。群聯6月6日剛交出的5月財報,營收56.9億元,年增6%。這兩年力推的企業平價導入AI的平台方案「aiDAPTIV+」,以及儲存策略配搭的自家固態硬碟(SSD),也開花結果,撐起營收獲利重擔。「過去記憶體供應鏈幾乎由南韓與美國大廠主導,這次終於寫進了台灣名字,對本地產業而言意義非凡。」一位半導體設備通路業者告訴CTWANT記者,輝達要加速AI落地,AI運算逐步走向終端設備,讓台灣記憶體模組廠角色因而升級。其實,2年前,群聯還一度被視為無緣AI浪潮。「群聯電子是做NAND的產業,兩年前法人還罵我們笨,為什麼不去蹭AI題材?」潘健成5月中旬在一場探討AI的論壇上,回憶起那段時間苦笑地說。所謂NAND Flash,是一種非揮發性記憶體,具有高密度、低成本、可重複寫入等特性,廣泛應用於手機、筆電、USB隨身碟等儲存裝置中;而SSD(固態硬碟)則是以NAND為核心的儲存產品,相較傳統硬碟具有速度快、抗震性強等優勢。群聯長年深耕NAND控制IC與模組市場,並未隨風炒題材,而是靜靜尋找真正適合切入AI的實用場景。群聯的全新固態硬碟(SSD)產品「aiDAPTIV+」,能夠在伺服器內透過群聯自己開發的軟體,將SSD模擬為記憶體使用,解決AI運算中記憶體容量的問題。(圖/翻攝自群聯電子臉書)他們的解法是從後訓練(post-training)階段切入,潘健成回憶,當時,群聯工程師團隊在以多個大型語言模型(LLM),如LLaMA、千問、DeepSeek等LLM實測,發現模型答對率僅約八成,「問五題錯一題,根本無法用在邊緣應用」,唯有後訓練才能讓模型在地端變實用,據此確認,資料儲存才是AI落地的下一哩路!一般企業導入AI模式,是先將資料「餵給」LLM,經過運算推論(inference)產生大量資料,最後存入儲存裝置。雖然地端AI邊緣運算遠不及雲端巨量算力需求,但訓練LLM仍需高度算力GPU(圖形處理器)搭配超大容量的HBM(高頻寬記憶體),GPU與HBM價格高昂,一名資訊服務龍頭企業的高層告訴CTWANT記者,「企業導入AI的預算常從300萬跳到2000萬元不等」,中小企業難以負荷。潘健成領著群聯技術團隊,從擅長的儲存裝置切入。他鮮活形容,「破解Out of Memory(記憶體不足)瓶頸,就是『騙』GPU,騙得過去,就過了!」只要利用自家開發的固態硬碟(SSD),搭配常規的繪圖卡,來取代昂貴的HBM,順利完成AI任務。群聯自家研發的企業級SSD(固態硬碟),已經通過美國客戶的認證,可望隨著美國太空總署(NASA)的載人太空任務Artemis二號,2025年9月奔向月球。(圖/翻攝自群聯官網)此外,這項技術也同步整合入NVIDIA Jetson平台,應用擴及機器人、智慧監控、醫療邊緣裝置等場域。潘健成形容,「我們不是要做最強,而是讓企業用得起、買得下、修得了AI系統。」群聯在邊緣AI上的技術布局,今年終獲黃仁勳公開背書,訂單前景也備受期待。潘健成在COMPUTEX自家攤位上親口證實,群聯的AI儲存解決方案,已正式納入輝達供應鏈體系;至於aiDAPTIV+是否進一步整合進入輝達平台,他笑著回應,「快了」。雙方雖未揭露合作細節,但從各方關注與洽談反應看來,群聯的地端AI解決方案已成功引起AI開發商與系統整合商的注意。「現在半導體產業是『N型結構』,好的那一塊都是NVIDIA(輝達)體系,跟他沒有關係的都很慘!」潘健成年初才說的話,不到半年就打入輝達體系。一位IC設計業人士告訴CTWANT記者,「現在市場看得很清楚,誰站在黃仁勳那一邊,誰就站在有光的那一面。」