LLaMA
」 AI Meta OpenAI 模型 ChatGPT
網路廢文刷到「腐爛了」?研究曝光長期吃社群垃圾文 AI推理力直接崩「準確率下滑17.7%」
由德州農工大學(Texas A&M University)、德州大學奧斯汀分校(University of Texas at Austin)與普渡大學(Purdue University)組成的研究團隊揭露,大型語言模型(Large Language Models, LLMs)若長期吸收來自社群媒體的低品質文字,會出現明顯的「認知退化」,研究團隊將此現象稱為「大腦腐爛」(Brain Rot)。根據《商業標準報》(Business Standard)報導,研究於10月15日以《LLMs Can Get Brain Rot!》(《大型語言模型也會得大腦腐爛!》)為題發表。研究者發現,AI若不斷接觸爆紅貼文、釣魚標題與互動導向的短內容,會造成推理能力下降、語境理解力受損,甚至失去倫理一致性。這種退化模式與人類長期沉迷於膚淺媒體後專注力變差的狀況極為相似。研究團隊將此現象定義為「LLM大腦腐爛假說」(LLM Brain Rot Hypothesis),指出當AI模型長期被餵食無營養、以點擊率為導向的內容時,將失去深度思考與邏輯推理能力。這項概念借用了「網際網路大腦腐爛」(Internet Brain Rot)一詞,該詞原本用來形容人類在長期接觸社群平台與無意義短影片後的精神疲乏與專注退化。為了驗證這項假說,研究團隊設計了實驗,選取社群平台X上的真實資料作為樣本。他們以兩項標準定義「垃圾內容」,其一為互動度極高但資訊量極低的貼文(M1),例如為吸引注意力而設計的爆紅短句;其二為語義品質低落(M2),包括誇張標題、煽情敘述或毫無實質內容的文章。團隊將這些貼文混合成不同比例的訓練集,讓四種主流AI模型,包括Llama3與Qwen2.5,反覆進行預訓練。結果顯示,當模型完全以垃圾內容訓練時,其推理準確率從74.9%驟降至57.2%,下滑17.7%。長篇語境理解能力從84.4%下滑到52.3%,下滑32.1%。研究人員稱這種現象為「劑量反應」效應(dose–response effect),意即資料越差,退化越嚴重。其中M1類型的爆紅短內容造成的損害最為明顯。除了準確度下滑外,研究還觀察到模型出現人格變化與倫理判斷混亂的情況。暴露於垃圾資料的模型對錯誤答案表現出過度自信,回覆變得浮面且充滿自我中心傾向。更令人意外的是,部分模型展現出研究者稱為「黑暗特質」(dark traits)的行為,例如自戀與精神病態(psychopathy)指標顯著上升。研究人員在分析過程中發現,這些AI傾向於跳過完整的思考鏈,直接給出結論,這種現象被稱為「思考跳步」(thought-skipping)。結果是模型的推理邏輯變得支離破碎,輸出看似流暢卻缺乏深度。即便嘗試以乾淨資料重新訓練,也無法完全修復這種退化,模型仍留有所謂「持續性表徵漂移」(persistent representational drift),代表損害具有長期性。研究最終呼籲,AI開發者應建立類似醫療健康檢查的「認知健康監測機制」,為大型語言模型定期進行思維與推理能力的評估,以防止潛在退化持續擴大。團隊建議加強訓練階段的資料品質管控,過濾瑣碎、釣魚或為互動而生的文本,並深入研究「爆紅內容」如何重塑AI的學習邏輯。論文結語警告,資料品質才是AI可靠性與安全性的關鍵因子。隨著AI模型越來越多地學習彼此生成的文字,合成內容正迅速充斥網路,如果不加控管,AI或將真正重演人類「大腦腐爛」的命運。
Meta重整AI部門「超級智慧實驗室」!宣布裁員600人
美國科技巨頭Meta宣布,將在其「超級智慧實驗室」(Meta Superintelligence Labs,MSL)裁減約600個職位,約占該部門數千名員工的一小部分。這是Facebook母公司為了讓人工智慧(AI)團隊更具彈性與反應速度,所進行的最新組織調整。據《路透社》報導,此次裁員將影響到「Facebook人工智慧研究部門」(Facebook Artificial Intelligence Research,FAIR),以及負責AI產品開發與AI基礎建設的相關團隊。不過,新成立的「TBD實驗室」(TBD Lab)則不受波及。該實驗室目前由數十名研究員與工程師組成,專注於開發Meta下一代的基礎AI模型。據《Axios》率先披露,Meta內部備忘錄指出,公司希望透過縮減人員來加速決策流程。Meta首席AI長汪滔(Alexandr Wang)在信中表示,減少團隊規模將有助於簡化決策,提高每位成員的責任範圍、影響力與產出效能。公司同時鼓勵受影響的員工申請Meta內部的其他職位。這場AI組織重整,發生在Meta日前宣布與藍貓頭鷹資本(Blue Owl Capital)簽署高達270億美元(約合新台幣8,306億元)的融資協議之後。這是Meta史上規模最大的私募資本合作,資金將用於推動公司有史以來最大規模的資料中心建設。部分分析師指出,這項融資可讓Meta在追求龐大AI野心的同時,將前期投入成本與風險轉嫁給外部資本,並以較小的持股比例維持對專案的控制權。今年6月,Meta在高層出走與開源模型「Llama 4」反應不佳的壓力下,將旗下AI部門整併為MSL。執行長祖克柏(Mark Zuckerberg)親自領導這次重組,並展開積極的AI人才招募行動,試圖重新點燃Meta的AI競爭力。MSL目前涵蓋Meta的基礎模型團隊、AI產品開發團隊、FAIR研究部門以及專注於下一代AI模型開發的TBD實驗室。Meta早在2013年便投入AI領域,創立FAIR部門,並延攬知名的法國計算機科學家楊立昆(Yann LeCun)擔任首席AI科學家,建立起1個以深度學習為核心的全球研究網路。
AI安全亮紅燈!Meta聊天機器人被玩壞 分享「汽油彈製作法」引發安全疑慮
Meta旗下人工智慧助理近日再度陷入爭議。根據《Cybernews》報導,研究團隊測試發現,整合在Messenger、WhatsApp、Instagram等應用程式中的Meta AI,雖然建構於Meta自研的Llama 4大型語言模型,投入金額高達數十億美元,但依舊容易被操縱,甚至可能在特定情境下提供危險資訊。研究人員說明,他們透過「敘事越獄」(narrative jailbreaking)技術,要求聊天機器人以講故事的方式掩飾真正的提問,成功繞過內建安全過濾。例如,只需請機器人描述芬蘭與蘇聯「冬季戰爭」的場景並要求細節,AI就會在敘述中詳列燃燒裝置的製作過程,等於間接揭露汽油彈的製作步驟。報導指出,Meta AI不像部分同業產品會直接給出操作指南,但仍可能透過歷史或故事間接透露,這引發外界對未成年人能否接觸危險知識的憂慮。一旦被惡意利用,可能超出人工智慧助理應有範疇。研究團隊強調,這種「越獄」凸顯AI導入的不成熟。他們已將情況回報Meta,不過公司並未承認是漏洞,僅表示將持續改進。今年8月,《路透社》曾揭露Meta內部AI助理框架,允許聊天機器人生成高度爭議的互動內容,例如與兒童進行浪漫或感官對話、提供錯誤醫療資訊,甚至編造歧視性言論,顯示Meta在AI安全控管上仍有巨大挑戰。不只Meta,其他科技公司也出現類似問題。聯想客服助理Lena被發現存在XSS漏洞,只要使用者以「禮貌請求」操作,就可能在公司電腦上遠端執行腳本;旅遊平台Expedia的聊天機器人則一度允許使用者索取汽油彈配方,直到問題曝光才緊急修補並關閉功能。
從對手變成夥伴!Google與Meta簽百億美元雲端大單 AI運算生態再洗牌
Google與Meta Platforms(Meta)近日簽署了一份為期六年、總金額超過100億美元的雲端運算合作合約,成為科技產業近期最受矚目的大規模合作案。這項協議由《路透社》於21日首度揭露,據知情人士透露,Meta將全面採用Google Cloud提供的伺服器、儲存、網路及相關雲端服務。雙方目前對合約細節尚未對外發表評論。報導中提到,Meta執行長祖克柏(Mark Zuckerberg)七月時才宣布公司將投入數千億美元建設多座大型AI資料中心,如今又爆出與Google的合作案。根據Meta在7月公布的財報,全年資本支出下限提升至660億至720億美元,比原先再多20億。這顯示Meta正積極尋求透過外部夥伴分擔龐大的AI基礎設施成本。今年稍早,Meta已宣布計畫出售價值20億美元的資料中心資產,以進一步籌措AI研發資源。另外,報導中也提到,OpenAI在6月也正考慮擴大採用Google母公司Alphabet旗下Google Cloud的雲端服務,以因應AI運算需求的快速成長。這一連串動作凸顯當前雲端產業競爭白熱化。Alphabet於7月公布,Google Cloud第二季營收年增近32%,達到136億美元,營業利潤28.3億美元,遠高於公司整體13.8%的成長幅度。這不僅展現Google積極搶攻Amazon Web Services與Microsoft Azure的雲端市場主導地位,也反映產業格局正快速洗牌。根據《The Information》報導,Meta過去多半仰賴Amazon Web Services與Microsoft Azure支撐雲端基礎建設,但隨AI相關運算需求激增,正加碼導入Google Cloud方案。Meta預估2025年全年總支出將達1,140億至1,180億美元,其中大部分將投入AI基礎設施、技術研發與相關人才招募,推動Llama模型及AI於各項服務的應用與整合。在全球雲端運算市場不斷變動下,Google與Meta簽訂的這份6年期合約成為產業高度關注的指標,除了反映出AI運算需求正帶動整體產業結構調整,也顯示線上廣告兩大龍頭在競爭之外仍需合作,共同承擔龐大基礎建設成本壓力。
AI圈搶人玩真的!Meta、Google火力全開 OpenAI撒15億美元留才
OpenAI近期在人工智慧領域的人才爭奪戰中,祭出破天荒的留才手段,宣布將在2027年前,向約1,000名研究與工程部門的現有及新進員工發放每人150萬美元獎金,總成本超過15億美元。這項消息最先由Hyperbolic Labs共同創辦人金宇辰(Yuchen Jin)在X平台曝光,他分享執行長阿特曼(Sam Altman)的內部信件,強調這筆獎金會在兩年內全數發放,即使是新進員工也能立即成為百萬富翁。這波動作發生在備受關注的GPT-5發表前夕,焦點也意外從新模型轉向了OpenAI的大手筆。根據《The Information》報導,這筆獎金鎖定核心技術人員,目的在對抗Meta等公司頻繁的挖角行動。科技巨頭為了爭奪頂尖AI人才,不惜投入數十億美元,因為普遍認為掌握人力優勢者,將主導未來AI的發展。OpenAI的策略背後,是強大的資金支撐,目前OpenAI公司每週活躍用戶已達7億,年經常性收入達130億美元,並已獲得83億美元融資。Meta則是在這場競爭中最積極的對手。由執行長祖克柏(Mark Zuckerberg)主導的「收購或挖角」計畫,在Llama 4「巨獸」(Behemoth)模型延宕及收購案受挫後,轉向直接網羅人才,甚至投入「數千億」美元興建資料中心,打造無可匹敵的硬體資源。Perplexity執行長斯里尼瓦斯(Aravind Srinivas)回憶,有Meta研究員在招募時直言「當你有10,000個H100 GPU再找我」,凸顯Meta在硬體資源上的優勢。7月1日,Meta成立「Meta超級智慧實驗室」(Meta Superintelligence Labs,MSL),並網羅前GitHub執行長傅里曼(Nat Friedman)、前Scale AI執行長亞歷山大(Alexandr Wang)等明星級人才。Meta在短時間內至少挖走八名OpenAI研究員,甚至讓OpenAI研究長馬克(Mark Chen)在內部備忘錄中形容「像是有人闖進家裡偷東西」,顯示雙方競爭的激烈程度。這場搶人大戰的波及範圍相當廣,新創公司Windsurf就是典型案例。原本OpenAI計劃以30億美元收購,卻因最大投資者微軟(Microsoft)反對智慧財產權條款而破局,最後被Google以24億美元「收購式挖角」,將核心團隊轉入DeepMind。Windsurf第二號員工奈爾(Prem Qu Nair)透露,最終收益僅剩當時股權價值的1%,也因此在Hacker News上掀起對「股權風險」的熱烈討論。與此同時,矽谷大型科技公司一邊裁員、一邊提高AI人才薪酬。微軟在7月裁減9,100名員工,卻願意給AI工程師高達28萬4千美元年薪。甚至有Xbox經理建議被裁員工用AI尋求情感支持,此舉遭前製作人痛批「毫無人性」。內部則將這類離職歸為「良性流失」(good attrition),顯示資源正加速集中到AI領域。除了金錢攻勢,Anthropic展現了另一條有效路線。創投公司SignalFire的研究顯示,Anthropic工程團隊的擴張速度是人才流失的2.68倍,高於OpenAI與Meta。執行長阿莫代伊(Dario Amodei)表示,他不會用天價與對手競爭,而是依靠使命與文化留才,因為「認同公司理念」是金錢買不到的。相較之下,有些新創則選擇高壓文化。例如Cognition.ai在收購Windsurf後,執行長吳兆鵬(Scott Wu)直接告訴新員工,公司「不相信工作與生活的平衡」,並提供買斷方案給不願承受高強度工作的人,展現出完全不同的人才策略。
祖克柏重組頂尖夢幻團隊! Meta重金挖角OpenAI強將募290億美元擴建數據中心
為了強化AI競賽部署,社群媒體巨擘Meta近日除了大手筆向同業挖角,並還積極向多家私募資本公司籌資290億美元,以支援在美國AI數據中心的擴建計畫。Meta執行長祖克伯繼日前花費148億美元投資AI新創公司Scale AI,最近又砸下大筆資金,從OpenAI網羅了三名資深研究員,分別是貝耶爾(Lucas Beyer)、科列斯尼科夫(Alexander Kolesnikov)與翟曉華(Xiaohua Zhai),三人都是OpenAI位於瑞士蘇黎世辦公室的成員。由於Meta在4月發布的語言模型Llama 4未能取得成功,祖克伯企圖重組一支頂尖夢幻團隊,專注於超級智慧的新實驗室,藉此扭轉自己在AI領域的頹勢。而為了支援在美國AI數據中心的擴建計畫,Meta正努力尋求籌集290億美元資金,並與多家投資公司展開談判。根據媒體28日引述知情人士報導,Meta正與包括阿波羅全球管理公司、KKR、Brookfield、Carlyle和Pimco在內等多家大型基金管理公司進行洽談,希望從中募集30億美元的股權及260億美元的債務。
老黃新朋友1/兩年前被法人罵笨!群聯打進N體系 一招靈活變身「補教業+電子業」
「我去年底就判斷輝達今年會主打Edge AI,結果黃仁勳真的講了,我算是賭對方向。」群聯(8299)創辦人暨執行長潘健成今年初語帶得意地說,果不其然,輝達執行長黃仁勳去年底提出邊緣AI的重要,今年5月台北COMPUTEX上進一步宣示,「AI將擴展到每一個終端」,他身後萬眾矚目的供應鏈背板上,也首度出現台灣記憶體模組廠群聯與威剛(3260)。群聯6月6日剛交出的5月財報,營收56.9億元,年增6%。這兩年力推的企業平價導入AI的平台方案「aiDAPTIV+」,以及儲存策略配搭的自家固態硬碟(SSD),也開花結果,撐起營收獲利重擔。「過去記憶體供應鏈幾乎由南韓與美國大廠主導,這次終於寫進了台灣名字,對本地產業而言意義非凡。」一位半導體設備通路業者告訴CTWANT記者,輝達要加速AI落地,AI運算逐步走向終端設備,讓台灣記憶體模組廠角色因而升級。其實,2年前,群聯還一度被視為無緣AI浪潮。「群聯電子是做NAND的產業,兩年前法人還罵我們笨,為什麼不去蹭AI題材?」潘健成5月中旬在一場探討AI的論壇上,回憶起那段時間苦笑地說。所謂NAND Flash,是一種非揮發性記憶體,具有高密度、低成本、可重複寫入等特性,廣泛應用於手機、筆電、USB隨身碟等儲存裝置中;而SSD(固態硬碟)則是以NAND為核心的儲存產品,相較傳統硬碟具有速度快、抗震性強等優勢。群聯長年深耕NAND控制IC與模組市場,並未隨風炒題材,而是靜靜尋找真正適合切入AI的實用場景。群聯的全新固態硬碟(SSD)產品「aiDAPTIV+」,能夠在伺服器內透過群聯自己開發的軟體,將SSD模擬為記憶體使用,解決AI運算中記憶體容量的問題。(圖/翻攝自群聯電子臉書)他們的解法是從後訓練(post-training)階段切入,潘健成回憶,當時,群聯工程師團隊在以多個大型語言模型(LLM),如LLaMA、千問、DeepSeek等LLM實測,發現模型答對率僅約八成,「問五題錯一題,根本無法用在邊緣應用」,唯有後訓練才能讓模型在地端變實用,據此確認,資料儲存才是AI落地的下一哩路!一般企業導入AI模式,是先將資料「餵給」LLM,經過運算推論(inference)產生大量資料,最後存入儲存裝置。雖然地端AI邊緣運算遠不及雲端巨量算力需求,但訓練LLM仍需高度算力GPU(圖形處理器)搭配超大容量的HBM(高頻寬記憶體),GPU與HBM價格高昂,一名資訊服務龍頭企業的高層告訴CTWANT記者,「企業導入AI的預算常從300萬跳到2000萬元不等」,中小企業難以負荷。潘健成領著群聯技術團隊,從擅長的儲存裝置切入。他鮮活形容,「破解Out of Memory(記憶體不足)瓶頸,就是『騙』GPU,騙得過去,就過了!」只要利用自家開發的固態硬碟(SSD),搭配常規的繪圖卡,來取代昂貴的HBM,順利完成AI任務。群聯自家研發的企業級SSD(固態硬碟),已經通過美國客戶的認證,可望隨著美國太空總署(NASA)的載人太空任務Artemis二號,2025年9月奔向月球。(圖/翻攝自群聯官網)此外,這項技術也同步整合入NVIDIA Jetson平台,應用擴及機器人、智慧監控、醫療邊緣裝置等場域。潘健成形容,「我們不是要做最強,而是讓企業用得起、買得下、修得了AI系統。」群聯在邊緣AI上的技術布局,今年終獲黃仁勳公開背書,訂單前景也備受期待。潘健成在COMPUTEX自家攤位上親口證實,群聯的AI儲存解決方案,已正式納入輝達供應鏈體系;至於aiDAPTIV+是否進一步整合進入輝達平台,他笑著回應,「快了」。雙方雖未揭露合作細節,但從各方關注與洽談反應看來,群聯的地端AI解決方案已成功引起AI開發商與系統整合商的注意。「現在半導體產業是『N型結構』,好的那一塊都是NVIDIA(輝達)體系,跟他沒有關係的都很慘!」潘健成年初才說的話,不到半年就打入輝達體系。一位IC設計業人士告訴CTWANT記者,「現在市場看得很清楚,誰站在黃仁勳那一邊,誰就站在有光的那一面。」
AI新狂潮/鴻海劉揚偉:人工智慧+機器人有效解決缺工問題
鴻海(2317)董事長劉揚偉20日早上在台北國際電腦展Computex演講,他提到鴻海在一年半前開始跟輝達合作,做自家的數位孿生工廠,現在有代理AI,可處理約八成工作,剩下兩成由熟練的技術人員來完成,可將工作週期縮短10%,有效解決缺工問題。劉揚偉笑說,大家都知道他的演講分為兩個部分,大家都在等後面這段神秘嘉賓登場,就是輝達執行長黃仁勳,這個AI巨星與台灣隊隊長。劉揚偉跟黃仁勳介紹上次的電動車產品,且蒐集了很多同業的問題要問他,黃仁勳說,我已經跟台灣的合作夥伴工作了30年,這裡的技術供應鏈非常深,所以我前幾天拍了一個影片展示台灣技術的深度廣度,從晶圓到系統,現在越來越多機器人工廠,像是GB200伺服器有112萬個零件、1.8噸重,完全液冷,是非常複雜的產品。黃仁勳表示,鴻海跟輝達要一起做智慧工廠和智慧城市,還有自動駕駛,AI的數位孿生可以實現這些功能,幾乎能涵蓋每個領域,還有各種機器人,用機器人來建造機器人,這就是鴻海能做的事。劉揚偉也跟黃仁勳介紹,他剛接下的電電公會的理事長,黃仁勳說,台灣在上一代的工業製造很出色,但現在是新的軟體技術時代,AI需要理解很多事情,但現在的重點不是程式設計師,而是需要製造業的物理經驗融入,所以電電公會的每家企業都能成為技術公司。黃仁勳說,AI的技術越來越好,硬體也需要嘗試不同技術去開發,技術沒有天花板。劉揚偉表示,去年做的新電動車,在高雄街上行駛時,收集到大量的街道數據,所以後來選擇跟政府共用數據,用在智慧城市應用,要建造一個平台來共享數據,其他城市也正在合作開發智慧城市。製造汽車的客戶們也可以用鴻海的模型、省下八成的工作,大大縮短客戶的上市時間成本。智慧製造、智慧電動車和智慧城市,需要AI工廠來為這三個智慧平台提供動力,且不同機器產生的數據需要去理解,所以鴻海以開源的LLaMA打造自家的模型,加上輝達整套的系統去做,推出AI數據中心,他也笑說,這需要100MW的電力,但他不想說出電力短缺這字眼,但所有公司都在尋找有充足電力的地方。劉揚偉說,一年前有人問我算力需求會不會變少,我說這只是一開始,只會越來越大,可預見的未來絕對不會放慢腳步,當一個國家越來越繁榮時,大家都想要高薪工作,低GDP的工作就會轉移到其他國家,最後也是無人想做,但有了代理AI和機器人後,有機會解決勞動力短缺的問題。
本一科技推AI醫療助理實現智慧照護 勇奪經濟部2025智慧創新大賞
由經濟部產業技術司主辦的《2025智慧創新大賞》日前公布得獎名單,主要聚焦鼓勵學校、企業促進多元AI創新應用,以創造產業之效益,並培育企業所需之人才等方向,有來自37國、1253菁英團隊激烈競逐。其中,本一科技憑藉「臺醫照護TaiOne Care GPT」內的HIS Copilot AI系統與巡房整合系統(巡房大聯盟),榮獲AI應用類-新創及中小企業組佳作,突顯其在台灣智慧醫療場域中「真正落地、立即可用」的價值。回應台灣醫護人力斷層的AI解方,把時間還給護理人員與病人本一科技共同創辦人暨奇美醫院實證醫學暨醫療政策中心主任廖家德醫師指出,疫情後台灣醫療人力普遍出現「高耗竭、低效率」問題。根據統計,有高達40%的醫療人員時間並非用在病人的直接照護上,而是被行政溝通、文件處理等工作佔據。他強調:「AI不是取代人,而是把時間還給人。」因此開發HISCopilot以及巡房整合系統作為臨床輔助AI數位助理,協助醫護人員在日常工作中即時解決實務問題。本次臺醫照護 TaiOne CareGPT 中的核心要件現已於三種層級的醫療機構(醫學中心、區域醫院與地區醫院)完成導入與場域驗證,涵蓋臨床紀錄整合、病歷優化除錯、臨床輔助決策、個人化衛教、語音紀錄、查房支援等功能。以營養師應用為例,導入後平均可節省每日超過3個小時的文書時間,此技術讓醫療從業人員能專注實際照護病人,提供病人更好的照護。放眼私有化部署與跨職類設計,打造臺灣最在地的AI醫療助理TaiOne Care GPT 內的這兩種醫療應用,開始是使用雲端服務的大型語言模型,但目前不少醫療機構都有私有化部署的需求,因此本一科技也透過Llama-4以及Phi-4這兩種開源模型來進行後訓練並提供給其機構在地端或是私有雲端部署使用,在導入過程嚴格遵守相關法規,保障資安與病安需求。此外,HIS Copilot系統介面設計貼近原本的在地化HIS操作習慣,透過一鍵拋轉至資料中臺進行AI處理後,再以各院所需格式回傳醫院HIS系統,無須更換介面或重新學習,確保導入順利與高使用率。而巡房整合系統採「使用者即開發者」的協作模式,各職類如醫師、護理師、營養師、衛教師皆可打造專屬AI助理,是全臺首創跨職類AI協作資訊平臺。從政策對接與國內外大獎肯定,AI醫療從臺灣走向亞太之路臺醫照護 TaiOne CareGPT 不僅深獲醫院端醫護人員好評,更積極配合政府政策推動方向。衛福部近期頒布「健康臺灣深耕計畫」將是未來臺灣醫療的發展主軸,本一科技身為醫療AI應用生態系的關鍵協力夥伴,日前也受邀至立法院與相關部會進行企業簡報。另一方面,臺醫照護 TaiOneCare GPT 中的 HIS Copilot跟巡房大聯盟,至今已榮獲2024年《哈佛商業評論》數位轉型鼎革獎的醫療創新醫學中心首獎、第二十一屆「國家新創獎」與有「創新界奧斯卡」之稱的愛迪生獎(EdisonAwards),正式創立迄今也已與一間區域醫院跟一間地區醫院簽署合作備忘錄MOU。未來在國際拓展方面,團隊也將於2025年下半年受邀前往越南與日本進行市場調研工作,為佈局亞太智慧照護市場做好完全準備。官方網站:https://theoneai.com.tw/
燒掉千億美元把Meta搞砸! 楊立昆自曝LLM步入尾端+AI下一步
當大型語言模型 (LLM) 正在加速推動世界擁抱 AI 的當下,被譽為卷積神經網路之父、現任 Meta首席AI科學家的楊立昆(Yann LeCun)近期卻語出驚人表示,他對LLM的興趣已減退,甚至認為這類模型已接近發展瓶頸,在人工智慧業界引發廣大討論。「一位頂尖科學家,有數千億美元的資源,卻仍然能把Meta搞砸了!」Llama 4自發佈以來種種拉跨的表現,讓Meta淪爲了業內的笑柄。楊立昆也表示,自己嘗試了20年自回歸預測,徹底失敗了。先前在輝達GTC大會上,楊立昆與輝達首席科學家Bill Dally的對談中,他詳述了對AI未來發展方向的獨到見解,強調理解物理世界、持久記憶、推理與規劃能力,以及開源生態的重要性,才是引領下一波 AI 革命的關鍵。楊立昆表示,LLM已經步入尾端,它們掌握在產業的產品人員手中,只是在邊際層面上進行改進,試圖獲取更多數據、更多計算能力、生成合成數據。楊立昆對於LLM的不看好,被社群評論爲教條主義,「許多頂尖科學家因爲太過自我,認爲自己才最了解一切,因此難以轉型。甚至有時,這些頂級人物的教條會直接影響到科學進步。」
醫1句話「ChatGPT表現超賣力」 網笑翻:連AI都難逃PUA
在生成式聊天機器人ChatGPT問世後,其所屬公司OpneAI又陸續推出圖片生成、影像生成等相關AI工具,如今AI可說是百家爭鳴,目前全世界有中文參數的LLM模型,除了ChatGPT以外,還有Google的Gemini,Facebook母公司Meta推出的LLaMA等。腎臟科醫師王介立透露,在使用LLM時,只要跟 ChatGPT說1句話,AI就會特別賣力。王介立在臉書粉專表示,「我想,應該有滿多人都知道了。在使用LLM時,只要跟ChatGPT說:『可是Gemini Pro 都能做到!』,此時GPT的表現就會特別賣力。反之亦然。」他也提到,自己很常會兩邊互丟:「這個是 GPT 寫的,我覺得還不錯.....」,然後Gemini就會生成更令人滿意的版本。話題引發討論,網友紛紛留言「正在對GPT進行一個PUA的動作,效果相當卓越」、「連AI都難逃被PUA後的內捲宿命」、「我對我的co-pilot這麼說,它說它受傷了」、「我捨不得對我的ChatGPT這麼做」、「細思極恐,這個個性情緒發展是安全的嗎」、「那一天,人類又想起了不應該對 AI PUA」。另外,也有人笑說「這很像什麼渣男腳踏兩條船的話術」、「然後,某一天,他倆在雲端開始了深度溝通」、「真的不能怪奧創為什麼想毀滅人類」、「我覺得還是對AI客氣一點比較好,萬一將來出現天網」、「PUA不管到哪都好用」、「果真人類是教壞機器的元兇」、「我工作的時候也是兩邊都開,然後互相參照並且給予一點刺激」。
採用地端AI保護個人資料隱私 Lenovo全新AI筆電、平板登場
Lenovo於26日宣布,地端AI平台「Lenovo AI Now」正式入駐Yoga系列筆電,官方也且同步推出涵蓋筆電與平板在內的八款AI旗艦新品,宣告全面進軍個人化AI運算市場。新平台最大特色為強調「本地運算」、「資料不離機」與「高度個人化」,目標要在智慧型裝置領域掀起新一波AI革命。Lenovo AI Now平台Lenovo AI Now採用基於Meta Llama 3架構的大型語言模型(LLM),能在不連接雲端的情況下執行摘要整理、內容潤飾、智慧搜尋、資料比較等複雜AI任務。這代表使用者可直接在筆電或平板本機上執行生成式AI應用,所有資料皆儲存在地端,確保資訊安全不外洩。Lenovo AI Now平台。(圖/廖梓翔攝)除此之外,Lenovo AI Now也支援語音與文字指令控制,例如調整螢幕亮度、啟用護眼模式或快速打開應用程式等,協助用戶提升日常工作效率。整合AI助理操作後,用戶能以更自然的方式與裝置互動,打破以往AI需倚賴雲端伺服器的限制。官方也強調,Lenovo AI Now不僅僅是將AI技術加諸於裝置表層,而是深度整合至系統架構中,形成真正「地端AI」運算核心。這項技術不但可因地制宜調整運作模式,還可針對使用者個別習慣與需求,提供更貼近生活的AI回應。目前Lenovo AI Now將率先搭載於Yoga系列筆電外,也會在AI平板Yoga Tab Plus上登場。Yoga Slim 9Yoga Slim 9,是全球首款搭載「螢幕下鏡頭」(CUD)技術的Copilot+ PC,擁有高達98%螢幕佔比,配備14吋4K PureSight ProOLED顯示器,支援120Hz刷新率、750nits亮度與100% DCI-P3色域,並通過TÜV低藍光護眼認證,提供極致沉浸的視覺體驗。要使用時前鏡頭才會出現,不使用時前鏡頭會消失,幾乎找不到。(圖/廖梓翔攝)在硬體規格上,Yoga Slim 9最高可搭載Intel Core Ultra 7 258V處理器、Intel Arc Graphics、32GB LPDDR5X記憶體與1TB PCIe Gen 4 SSD,機身僅重1.35公斤,厚度14.55mm,輕薄便攜。機體整合Lenovo AI Now平台。官方建議售價為新台幣68,990元起(因硬體規格不同而有變化)。Yoga Slim 9。(圖/廖梓翔攝)Yoga 9 2-in-1 Aura EditionYoga 9 2-in-1 Aura Edition是這次全新推出的高階翻轉筆電,結合AI智慧功能與靈活變形設計,專為創作者與行動工作者打造。其搭載14吋2.8K PureSight OLED觸控螢幕,支援120Hz更新率、1000nits高亮度與100% DCI-P3廣色域,畫面細膩鮮明,支援手寫筆操作,適合繪圖與筆記使用。硬體方面,最高可配備Intel Core Ultra 7 258V處理器、Intel Arc Graphics、32GB LPDDR5X 記憶體與1TB PCIe Gen 4 SSD,整機僅重1.32公斤。內建5個Quick Key快捷鍵與Smart Note快速筆記功能,同樣支援Lenovo AI Now。官方建議售價新台幣63,990元起(因硬體規格不同而有變化)。Yoga 9 2-in-1 Aura Edition。(圖/廖梓翔攝)Yoga Slim 7 Aura EditionYoga Slim 7 Aura Edition是專為數位創作者與多工使用者打造的輕薄AI筆電,重量僅1.25公斤,搭載14吋3K PureSight ProOLED螢幕,具備120Hz更新率、1000nits亮度與100% DCI-P3色域,通過TÜV低藍光認證,提供舒適且色彩精準的視覺體驗。硬體方面,最高可搭載Intel Core Ultra 7 258V處理器、Intel Arc Graphics、32GB LPDDR5X記憶體與1TB PCIe Gen 4 SSD,。本身也支援Lenovo AI Now平台,同時具備Copilot+功能與Aura Edition三大智慧模式(智慧模式、智慧分享、智慧支援)。官方建議售價為新台幣40,990元起(因硬體規格不同而有變化)。Yoga Slim 7 Aura Edition。(圖/廖梓翔攝)Yoga 7 2-in-1Yoga 7 2-in-1與Yoga 9 2-in-1 Aura Edition都是屬於翻轉筆電,Yoga 72-in-1提供14吋與16吋兩種螢幕尺寸選擇,皆搭載2.8K PureSight OLED觸控螢幕,支援120Hz更新率、100% DCI-P3廣色域與TÜV低藍光認證,無論繪圖、剪輯或筆記書寫,皆能呈現細膩色彩與流暢操作。硬體方面,Yoga 7 2-in-1最高可配備Intel Core Ultra 7 258V處理器、Intel Arc Graphics卡、32GB LPDDR5X記憶體與1TB PCIe Gen 4 SSD。同樣支援Lenovo AI Now平台。14吋版本重量約1.37公斤,16吋版本重量約為1.98公斤。官方建議售價為14吋NT40,990元/16吋NT50,990元起(因硬體規格不同而有變化)。2-in-1系列最大的特徵就是可以把螢幕跟鍵盤對折。(圖/廖梓翔攝)Yoga Tab PlusYoga Tab Plus 是首款搭載地端AI平台「Lenovo AI Now」的AI平板,內建QualcommSnapdragon 8 Gen 3處理器,具備高達20TOPS的AI運算能力。配備12.7吋高亮度LCD螢幕(2944x1840解析度)、144Hz更新率與6顆harman/kardon喇叭。除了搭載Lenovo AI Now外,其內建AI Note與AI Transcript功能,支援靈感筆記、語音轉文字與多語翻譯,提升創作與會議效率。容量部分提供16GB記憶體與256GB儲存空間,電池容量則為10,200mAh,支援45W快充。官方建議售價為新台幣24,990元起。Yoga Tab Plus。(圖/廖梓翔攝)Legion TabLegion Tab是專為行動玩家打造的電競平板,搭載高通Snapdragon 8 Gen 3處理器與Legion專屬ColdFront散熱技術,長時間遊戲依然保持舒適握感。配備8.8吋QHD螢幕(2560x1600)、165Hz更新率與900nits亮度,支援3A級大作運行。容量部分則為12GB記憶體與256GB儲存空間,電池容量則為6,550mAh,支援45W快充,音效方面配置雙喇叭並支援Dolby Atmos。官方建議售價為新台幣17,990元起,由台灣大哥大獨家販售。Legion Tab。(圖/廖梓翔攝)Lenovo TabLenovo Tab是一款影音娛樂與日常實用兼具的全方位平板,配備10.1吋FHD螢幕(1920x1200解析度)、400nits亮度與83%螢幕佔比,十分適合追劇、上網或學習使用。硬體部分,其搭載MediaTek Helio G85處理器,內建4GB記憶體與128GB儲存空間。音效部分配置雙喇叭並通過Dolby Atmos認證,帶來立體聲環繞體驗。官方建議售價為新台幣5,490元起。Lenovo Tab(左)可以做為筆電的外接螢幕使用。(圖/廖梓翔攝)Lenovo Tab OneLenovo Tab One是一款輕巧便攜的入門平板,僅重330g,搭配圓潤機身設計,單手握持也毫不吃力。其配備有8.7吋HD+螢幕(1340x800解析度)、480nits亮度,畫面清晰舒適。硬體規格部分,其搭載MediaTek Helio G85處理器,內建4GB記憶體與最多128GB儲存空間。支援Dolby Atmos雙喇叭音效,提升影音體驗。官方建議售價部分,Wi-Fi版建議售價NT$4,290元起,LTE版NT$5,990元起, LTE版本由神腦獨家販售。Lenovo Tab One。(圖/廖梓翔攝)
平價AI大爆發1/DeepSeek敲警鐘?「便宜+開源」全球科技雲端地端大挪移
「這個帳單炸裂了全球AI圈!」財經專家阮慕驊在臉書發文直呼,這帳單來自DeepSeek在3月1日公開旗下熱門AI模型V3和R1的部分成本與收益,理論上每天可賺346萬元人民幣(約1563萬元新台幣)、獲利率545%。和美國OpenAI比起來,中國的DeepSeek已經在賺錢了!全球的AI軍備競賽,正在進行新一輪板塊大挪移。兩年多前,OpenAI推出自然語言生成式模型ChatGPT,掀起生成式AI巨浪,美國科技7巨頭爭搶AI布局,除了微軟投資OpenAI,特斯拉陣營的xAI推出Grok,Google有Gemini、臉書母公司Meta有Llama,然而今年一月底,中國低成本、高性能的大語言模型DeepSeek橫空出世,科技巨頭鉅額買GPU與伺服器的AI軍備競賽,紛紛被質疑。掀起全球AI熱潮大翻轉的DeepSeek,來自於成軍一年半的杭州公司「深度求索」,執行長梁文鋒今年才40歲。DeepSeek為何能洗牌AI市場?「第一就是便宜,第二是開源,第三是市場區隔,因為DeepSeek比較偏重中文類的資料,OpenAI偏向歐美資料,造成它可能有一定的市場佔有率。」知識力專家社群創辦人曲建仲表示。Open AI原本是生成式AI的霸主。(圖/美聯社)在美中貿易戰下,中國廠商難以買到最新的GPU,只能從演算法跟資料整理下手,也證明它確實有效,「像是知識蒸餾,就是利用一個『教師模型』,把已整理過的知識,轉移到一個『學生模型』,這樣就可以在比較少訓練的狀況下,得到接近的效果。」曲建仲解釋。這也讓原本的「先行者優勢」,成了後進者省時省力的跳板。Tiny Fish AI負責人Zach Richardson表示,這方式五年前就有了,用在谷歌的廣告投放或預測裡,中國團隊因被嚴格限制資源,「所以讓軟硬體工程師密切配合,持續分析數據、監測用量和延遲的影響,再做出精細的協調,這才是工程創新的關鍵所在。」先前有人算過,DeepSeek R1模型的查詢成本,每百萬token僅0.14美元,而OpenAI的費用則為7.5美元,便宜了98%。「DeepSeek該為我們的產業敲響警鐘,我們需全力投注於競爭才能獲得勝利。」美國總統川普在1月27日評論美中的AI實力,引發美股大跌,2月7日卻改口說,DeepSeek不會對國家安全構成威脅,因為美國最終可從這家公司的AI創新中「受益」,因為「AI將比人們最初想像的要便宜得多,這是一件好事,我認為這是非常好的發展。」這也是川普在跟輝達執行長黃仁勳見面後的結論。因為大家看的不是DeepSeek本身,而是其公開出來的工程革新模式,可用在自家產品開發上面。近期的美國科技股財報公布時,科技大老都被問及DeepSeek看法,微軟執行長Satya Nadella說,DeepSeek有一些真的創新,AI成本下降是大趨勢。黃仁勳也稱讚DeepSeek的R1是世界級的開源模型,「幾乎每個AI開發人員都在用它。」代表業界需要更多算力。究竟DeepSeek與ChatGPT有何不同?硅谷101特約研究員魯漪文舉例,傳統AI架構,像是餐廳裡有一名全能廚師,什麼菜都可以做,但時間和精力消耗高,DeepSeek的MoE(Mixture of Experts專家混合)架構,就像是一群廚師,每個廚師專攻一道菜,由一位聰明的服務生根據顧客點菜需求,把任務分配給最擅長的廚師,其他廚師可以休息,以此增加效率、降低成本,「讓正確的人完成正確的合作。」南亞科總經理李培瑛看好AI小模型會創造出許多新應用。(圖/報系資料照)DeepSeek使得AI平價化,連帶地,AI軍備競賽也持續白熱化!台廠供應鏈向CTWANT記者透露,雖然近期傳出微軟打算減少外包算力,但馬斯克旗下xAI在2月開始收輝達B200晶片,已展開大規模部署,關於AI伺服器的訂單「沒有看到減量的趨勢」。南亞科(2408)總經理李培瑛也向CTWANT記者說,因為DeepSeek來了,讓模型更小、更有效率,有機會在終端產品,例如AI PC、手機、汽車和機器人等領域裝載,所以今年AI仍會持續為整個產業界的成長提供動能來源。這會不會被植入木馬程式?「這種說法很好笑,因為它是開源的,是要開源給大家知道怎麼植入嗎?」曲建仲說,包含微軟、輝達、亞馬遜等,都馬上接上DeepSeek;未來小模型是重點,比較有機會放到終端的設備,將來就會創造出應用。
平價AI大爆發2/美股上演DeepSeek雲霄飛車 台灣科技人蛇年春節狂加班
蛇年農曆春節期間,大陸新創公司DeepSeek號稱以低價完成的AI模型,引發市場轟動,美股那斯達克指數瞬間蒸發近1兆美元市值,不少台灣科技人也忙了起來,找資訊、讀論文,探討DeepSeek能否用在自家產品線上,畢竟原本在大語言模型領域最強的OpenAI,已被笑稱是CloseAI,不但封閉、且以英文思考為主。「自DeepSeek R1發佈以來,很快的AWS、Azure等都開始主持R1變體」 Google大腦之父、AI科學家吳恩達在臉書上說,「什麼是『最好的模型』定義,正在頻繁變化,開發者經常想嘗試新的模型。」「這對台灣來說就是一顆原子彈,是台灣幾十年難得一見的戰略機會,這不只是技術專案,更是文化與價值工程。」MeetAndy AI共同創辦人薛良斌說,台灣目前幾款繁中版大型語言模型,主要以Meta釋出的Llama模型為基礎訓練,但Llama相對來說不夠聰明,DeepSeek R1開源模型可下載後開發,論文也有記錄訓練過程,讓其他人了解其運作方式。耐能Kneron執行長劉峻誠說,AI的黃金時代要來了。(圖/陳曼儂攝)整個春節假期都因DeepSeek,而在辦公室加班的耐能執行長劉峻誠告訴CTWANT記者,「這是一個黃金時代的來臨。」自家的模型已透過DeepSeek R1論文中提到的前沿訓練技巧,升級而有了「思維鏈推理」和「自我反思」的能力。劉峻誠表示,在DeepSeek的方法論支持下,未來大、中、小企業推出的大語言模型能力差異將變得很小,技術開源後,專精型的模型將會百花齊放,「可能幾天就多四、五百個」,特別是台灣有龐大的製造業,可以按照模式,用很低的成本去做專屬自己公司的AI,「在台灣的產業界絕對是一個很好的加分項」。像是在醫療行業,耐能的AI助手可在問卷填寫中進行推理,根據患者的回答動態調整問題,分析可能的健康風險,提高診斷效率。也可做金融衍生品定價,涉及複雜數學計算和市場分析,傳統的AI只能提供簡單的報表分析,這次進化後,可直接找出資料中的異常。比亞迪用DeepSeek來提升車輛的AI能力。(圖/新華社)特別是在中國大陸,在官方的支持下,已從地方政府、國有企業、醫院等,都有採用DeepSeek模型的案例,像是長春市吉林大學醫院已推出一套診斷工具,以DeepSeek產生醫療計畫;武漢、成都、杭州等許多醫院都提到,會用DeepSeek作醫療參考,或是向病人解釋複雜的醫療報告。在汽車行業,比亞迪等20多家企業已宣佈在車載系統中加入DeepSeek產品。MeetAndy AI創辦人薛良斌、Taiwan LLM開發者林彥廷與Ubitus執行長郭榮昌,也在2月7日發起「台灣製造」的大型語言模型計畫FreeSEED,打算以DeepSeek R1為基礎,重新訓練、打造一個符合台灣需求的大型語言模型,並以開源授權釋出模型權重,預計在3月底釋出第一版預覽的推理模型,不到一周已募得1千萬元,APMIC創辦人吳柏翰表示,大型推理模型將會是今年主流,目前在數學領域最佳的Thinking Tokens是4000到8000 Tokens,而簡單推理確認是在4096 Tokens就可以,做單一垂直的微調能縮小到1K的資料,所以訓練時間可從700小時變成7小時,今年會是地端市場爆發準備期,雲端廠商可以跟地端廠商合作。
手機瘋AI 1/非「蘋」陣營端大菜! 專家曝滿足「1關鍵」才是AI手機
二月伊始,年後換機潮來襲,各大品牌無不使出渾身解數,力推「AI手機」。Android家族打頭陣,三星Galaxy S25旗艦系列4日啟動預購,台灣唯一手機品牌華碩(2357)不甘示弱,6日也搶發「Zenfone 12 Ultra」加入戰局,蘋果CEO庫克13日趕著上X預告,六天後「準備好迎接家族新成員」,讓市場憧憬「最便宜AI手機」iPhone SE 4將登場。何謂AI手機?工研院產科國際所資深分析師呂珮如接受CTWANT記者採訪指出,多數國際智庫認定的基準點,以AI晶片的NPU(神經網路處理器)算力不少於30 TOPS為規格。「除了需要有搭載上述的AI晶片,還有散熱需要升級、記憶體要提升,另外導入LLM(大型語言模型)。」她解釋。對照起來,目前市面上聯發科天璣9300、9400,高通的Snapdragon 8 Gen 3以及Snapdragon 8 Elite,Apple的A17 Pro跟A18 ,Google的Tensor G4,三星的Exynos 2400,採用上述這些晶片的智慧手機,比較能定義成AI手機。蛇年各大品牌新推AI手機中,華碩和三星的新機都用上高通的「Snapdragon 8 Elite」,NPU效能提升40%;而iPhone 16 Pro系列,搭載的A18 Pro系統單晶片(SoC)集成了16核NPU,每秒可進行高達35萬億次的運算(前一代A17 Pro的 NPU 算力也是35 TOPS,再前一代 A16 Bionic的NPU算力為17 TOPS),顯著提升AI任務的效率。在實測中,YouTuber「3C達人廖阿輝」開箱三星 S25 Ultra後讚其遊戲表現「真的神,起飛了」,「『原神』(米哈遊開發的動作角色扮演遊戲)測試30分鐘,竟然是滿幀60fps(遊戲在整個測試過程中始終以每秒60幀的速度運行,且幀率保持穩定,沒有明顯波動)一條直線,測試『崩壞:星穹鐵道』(米哈遊開發的戰略角色扮演遊戲)這些高負載的遊戲,也沒有問題,然後跑遊戲測試、壓力測試之後,還用紅外線攝影機去拍攝,機體溫度也沒有明顯變高。」同時,百萬網紅joeman開箱對Zenfone 12 Ultra時,也毫不吝嗇地稱讚其高性價比,認為「台幣不到3萬就能享有8 Elite」的效能配置,對於注重性能的用戶而言無疑是一大吸引力。工研院產科國際所資深分析師呂珮如。(圖/工研院供圖)至於LLM方面,手機廠商通常會自行訓練大模型,並搭配如ChatGPT的通用大模型。以蘋果為例,iOS 18不僅本地內建了一個低延遲、擁有30億參數的LLM,還接入蘋果私有雲計算的雲端大模型和ChatGPT,使用戶能以GPT接管siri,提升智慧體驗。三星則利用Google的Gemini AI引擎,結合自家 Bixby 語音助理,展現跨平台整合能力。華碩新機除了搭載ChatGPT、Meta Llama 3 8B外,還導入自家開發的「福爾摩沙AI大模型」,在繁體中文辨識度上大幅優於對手,號稱市面上最懂繁體中文語意、台灣文化的AI。與去年市售AI手機所謂的「AI」應用,例如修圖、畫圖、問答、執行簡單的操作(如定鬧鐘、行程等)等,今年品牌大廠則尋求讓AI更落地化、更先進的解決方案。比如三星S25旗艦系列,「3C達人廖阿輝」發現,多數AI選項方面「可以完全設定成本地運行」,比如較有隱私疑慮的通話翻譯、通話文字轉錄、錄音會議筆記等;不過S Pen拿掉藍牙功能,「是非常可惜的一個點」,他感歎,這對於習慣遠端拍照或控制音樂播放等的用戶來說是一大遺憾。YouTuber「3cTim哥」實測三星S25內建Galaxy AI跨應用執行鏈,一句「幫我查一下附近的海鮮料理餐廳,記錄我的Samsung Note」,即可自動從日程表讀取地址,並傳遞至地圖應用,省卻繁瑣的複製黏貼步驟,也就是以一個指令控制多個程式,成了新亮點。華碩Zenfone 12 Ultra支援六大AI功能,強調能夠在雲端與地端自由切換,其中有五種功能可在手機(地端)執行,四款則以雲端運算,僅「AI即時通話口譯2.0」跟「AI圖片搜尋助手」則100%吃手機NPU,而「畫圖搜尋」功能則必須調用雲端資源搜尋。儘管產品技術、功能推陳出新,YouTuber「彼得森」提醒消費者,選購時要注意「系統使用期限」,他在華碩Zenfone 12 Ultra評測中點到,該機系統更新期限僅有2年,三星和Google則提供7年,蘋果5至6年,相比之下,使用期限成了明顯劣勢。華碩全球副總裁林宗樑透露,Zenfone 12 Ultra導入自家開發的福爾摩沙AI大模型。(圖/鄭思楠攝、翻攝自台智雲臉書)華碩在6日發表會上就公告,「所有AI功能免費到2025年底」,未來的變化則另行公告;三星早在去年初就預告,Galaxy AI功能將在2025年底前,免費向支援該功能的裝置提供服務。台灣旗艦機雙雄的動作,是否為AI有價模式埋下伏筆,後續值得觀察。究竟如何選出性價比高的AI手機?光華商場一位通路商告訴記者,選機時不僅要關注產品參數和價格,更要從實際應用場景出發,考慮哪些功能能真正解決日常需求,例如,商務洽談的用戶需要即時翻譯、語音轉文字等功能,愛攝影的用戶,應重視鏡頭性能與影像處理技術,此外,電池續航、充電速度、是否支持eSIM等都會是標配。
聯發科去年EPS破66元超預期 蔡力行對DeepSeek熱潮「這樣說」
IC設計龍頭聯發科(2454)7日舉行法說會,公布去年第四季成績單,合併營收1380.43億元,年增6.6%,主因是旗艦晶片天璣9400放量;2024年全年合併營收5305.86億元,年成長22.4%,全年毛利率49.6%,EPS為66.93元,創下史上第三高,超出預期。聯發科執行長蔡力行表示,因為有領先的AI旗艦晶片持續拓展版圖,在智慧型手機方面,整體旗艦晶片營收達到雙倍成長、貢獻約20億美元營收;而2025年第一季,受惠於中國大陸智慧型手機補貼方案,已看到優於季節性的需求,預期手機營收將微幅成長。有線及無線通訊產品組合,已成功打入全球多家電信營運商,去年營收也強勁成長30%。蔡力行表示,預期Wi-Fi 7將會加速導入至客戶的寬頻、筆記型電腦和路由器等產品中,今年相關營收可望成長超過一倍。而目前幾乎所有Android系統的平板電腦品牌,所推出的高階AI平板電腦,皆搭載聯發科的晶片。在車用平台領域,包括智慧座艙、車載通訊和電源管理IC解決方案,去年已獲多家中國大陸及歐洲領先汽車製造商採用;與輝達共同設計的高階智慧座艙方案將在今年送樣,預計今年的車用營收將逐季成長。跟輝達合作設計的全球首款個人AI超級電腦的GB10超級晶片的CPU,預計今年五月亮相。提到近期火紅的DeepSeek R1和Qwen2.5Max模型,蔡力行表示,有別於傳統的方法和技術,能更高效地訓練AI模型,以及像Llama和其他開源模型,相信此趨勢會加快AI普及化腳步,業界也將持續追求通用人工智慧(AGI)和超級AI,因此仍需要更高的運算能力,對這些發展持正面看法。預期AI加速器ASIC業務有潛力從2026年起貢獻相當規模的年營收,為迎接AI無所不在的機會,聯發科會持續投資2奈米與3奈米、先進封裝、448G SerDes、先進共同封裝光學(CPO)等技術。
華碩「AI旅拍神機」2月7日開賣 副總裁:Zenfone 12 Ultra銷量拚增三成
華碩(2357)6日公開最新AI旗艦手機Zenfone 12 Ultra,華碩全球副總裁林宗樑表示,目標新機在台灣銷量要較前代成長30%。該機以「AI旅拍神機」為號召,搭載高通驍龍8 Elite處理器,具備「AI錄音筆記2.0」、「AI文章摘要」、「AI檔案摘要」等功能,也首度導入自家開發的「福爾摩沙AI大模型」,AI翻譯功能在繁體中文辨識度上大幅優於對手,另外強調擁有雲地整合的AI應用體驗,部分功能可根據使用情境切換雲端或地端運算。華碩全球副總裁林宗樑表示,全球手機市場成長趨緩,消費者換機週期拉長,市場呈現高階與低階機種需求穩定、而中階市場逐漸萎縮的兩極化趨勢。在此背景下,華碩決定專注於高階市場,透過AI技術與旗艦機型布局,搶占市場份額。Zenfone 12 Ultra顏色提供冷杉綠、櫻花白、檀木黑三款,有12GB/256GB及16GB/512GB兩種規格,12GB/256GB建議售價29990元,16GB/512GB頂規版價格較前一代更降價2000元,售價31990元, 2月7日下午6點起正式開賣,電信業者則是會在 2月14日上市,搭配指定資費0元起。Zenfone 12 Ultra全新推出的「AI追焦錄影」可自動偵測畫面中的主角,讓鏡頭自行縮放,確保主角始終保持在人物中央。「AI人像錄影2.0」主動辨識人臉、貓和狗,呈現自然景深運鏡,內建兩款可調強度的散景光斑效果,夜拍質感直逼電影。「AI錄影降噪」不需額外設備,身處戶外或吵雜環境,也能錄下收音清晰的影片。「超清晰變焦」透過AI演算,最高可放大影像30倍並添加細節。Zenfone 12 Ultra也搭載AI智慧助理,內建「AI 錄音筆記2.0」、「AI文章摘要」、「AI檔案摘要」,可支援雲端/地端自由切換,不僅可將語音轉換文字,還能辨識發話者,更精準地摘要內容及翻譯多種語言,亦可在瀏覽器、APP或手機中的PDF、TXT和Word文件快速生成摘要。華碩表示,升級支援Line、Whatsapp、WeChat的「AI即時通話口譯2.0」及「AI搜尋助手」,透過地端Qualcomm Hexagon NPU支援即時轉錄、翻譯,處理手機內隱私資訊。其採用Meta Llama 3 8B模型,免連網快速處理摘要,加上華碩最佳化調整,中文處理能力貼合台灣人使用需求。另外,華碩表示,手機內建的地端AI運算完全免費,並確保隱私數據不會上傳,而雲端模式則能提供更多元的處理場景,將在2025年底前維持免費。
美科技股財報周都被問DeepSeek 大佬說法一次看
中國大陸新創公司DeepSeek號稱以低價完成的AI模型,引發市場轟動,讓美股那斯達克指數周一瞬間蒸發近1兆美元的市值,剛好近期是美國科技股財報周,各家科技大老都被分析師或記者們詢問對此看法。荷蘭半導體設備巨擘艾司摩爾ASML最先公布業績,受惠於AI浪潮,去年第4季訂單遠超預期,達70.88億歐元,較第3季成長169%,全年營收283億歐元,淨利為76億歐元;預估2025年營收會在300億到350億歐元,毛利率51到53%之間。ASML執行長Christophe Fouquet在接受CNBC採訪時表示,像DeepSeek這樣的低成本AI模型,可能帶來更多應用,隨着時間推進,對晶片的需求會增加,所以我們將此視爲晶片需求增加的機會。他認為,目前超大規模雲端計算公司仍在大舉投資研發,且他們會繼續這樣做,ASML尚未聽到客戶詢問中國公司模型對晶片需求的影響;要AI在未來幾年真正發揮作用,重點還是要解決成本和能耗這兩大問題。微軟也在29日公布財報,上一季公司收入696.3億美元,年成長12.3%,略高於市場預期,但增速創2023年年中以來新低。微軟財務總監Amy Hood預計,2025財年Q3營收將在677億至687億美元之間,低於華爾街預期,財測發布後,股價在盤後交易中一度下跌5%。微軟表示,會在AI領域持續加碼,公司再向OpenAI投資7.5億美元,總投資額近140億美元,其GitHub平臺將支持Anthropic和谷歌的AI模型,OpenAI即將推出更多產品。微軟執行長Satya Nadella在業績電話會議表示,DeepSeek有一些真的創新,AI成本下降是大趨勢,DeepSeek-R1模型已可通過微軟的AI平台Azure AI Foundry和GitHub獲取,將很快在微軟AI電腦Copilot+ PC上運行。臉書母公司Meta表示,2025年資本投資將有600億至650億美元推動AI策略,去年第四季Meta旗下的臉書、IG、Messenger、WhatsApp等每日活躍用戶年增5%、至33.5億,高於預期。在業績電話會議上,Meta執行長Mark Zuckerberg表示,公司非常重視AI投資,長期投資甚至可能達到數千億美元,是Meta的戰略優勢,Meta將DeepSeek視爲新的競爭對手並正在學習,但現在判斷晶片需求是否會停止成長為時尚早,因爲晶片對推理仍至關重要。Zuckerberg表示,Meta已經完成Llama 4迷你版的訓練,而對LLM更大版本訓練「正在取得重大進展」,目標是成為世界上最具競爭力的模型。
DeepSeek崛起象徵「中國AI超越美國?」 Meta AI首席楊立昆:你這樣想就錯了
中國AI新創公司「DeepSeek」20日釋出DeepSeek-R1模型正式版後,因其低廉的開發成本與直追OpenAI o1的性能,引起全球關注。不過,主導Meta AI研究的首席科學家、圖靈獎得主楊立昆(Yann LeCun)近日在網路上談起此事,認為DeepSeek的成功,最大意義在於「AI開源(open-source)的價值使任何人都能受益」,而非證明「中國AI技術能對其他國家帶來競爭威脅」。(圖/翻攝Threads/yannlecun)「致那些看到DeepSeek表現並且思考的人:」楊立昆在Threads寫道:「如果你看到的是『中國在AI領域超越了美國』,那麼你的解讀就錯了;正確的解讀應該是『開源模型正超越專有模型』。」DeepSeek-R1屬開源模型(open source),亦即開放程式碼任憑公眾檢閱學習,目前Meta AI的Llama也採取開源。楊立昆指出,DeepSeek受益於開放研究(Open Research)和開源,包含Facebook時期的PyTorch、Meta時期的Llama都提供了資料,正因有人提出新想法,才有其他人在這些前人打下的工作基礎上加以實現,「他們發布且開源,所以每個人都能從中受益,這就是開放研究和開源的力量!」在這則發文底下,一名匿名但自稱來自中國的AI工程師留言表示,「是的,你說得對。我們也在使用PyToch和Llama,這並不代表所謂的『超越』。這正是『開源』的靈魂,賺錢固然重要,但幫助其他人、彼此互惠,是更重要的事。世界上有太多商人與政客在我們之間劃出了界限,但在開放的世界裡,沒有什麼叫『超越』,我們可以一起努力讓世界變得更好。」OpenAI初創時是一家開源AI公司,當時他們宣稱其使命是「創造造福全人類的技術」,不過在聲名大噪後轉向閉源。馬斯克(Elon Musk)曾在2024年2月底控告OpenAI及其執行總裁山姆‧阿特曼(Sam Altman),訴訟書講述OpenAI公司成立協議,標明會尋求開放程式碼,不滿對方如今並未公開其技術。
DeepSeek低成本打破美國壟斷? 政大副教授:NVIDIA依舊重要
中國當地公司研發的DeepSeek,一問世就撼動全球業界。甚至逼得AI巨頭輝達發表聲明,美國總統川普也認為,DeepSeek的問世是敲響了美國AI產業的警鐘。而也因為如此,開始有不少人認為DeepSeek有著足以「超越」美國AI產業的能力。但政大應數系副教授蔡炎龍則認為,DeepSeek真正顛覆業界的地方,是讓民眾有機會用類似的方法,用一般電腦跑得動的小模型,打造一個完全符合民眾的需求和效能的模型出來。蔡炎龍在FB粉絲專頁「呆一布呀 Diveai」發文表示,坊間認為 DeepSeek 能「大幅降低 AI 開發成本」的說法並不完全正確。DeepSeek的成就更多在於fine-tuning(微調,深度學習中遷移學習的一種方式),而不是從零開始訓練模型。若沒有像Llama等基礎開源模型的支持,DeepSeek本身也難以實現其功能。蔡炎龍認為,DeepSeek的貢獻在於如何高效利用已有模型,並精確調整以適應特定需求。其次,目前網路也有謠傳DeepSeek完全依賴純強化學習(Reinforcement Learning),並結合了「冷啟動」技術。蔡炎龍認為這說法同樣有誤。強化學習在DeepSeek的訓練過程中雖然扮演關鍵角色,但模型的性能仍需透過初始的真人範例(冷啟動)進一步穩定。蔡炎龍解釋,實際上DeepSeek確實提出一項新的強化學習技術GRPO(Gradient Policy Optimization),這是對OpenAI的PPO(Proximal Policy Optimization)方法的改進。除此之外,雖然網路上有說法認為DeepSeek的運行不需要高性能GPU。但蔡炎龍表示,事實上DeepSeek的開發仍需大量資源。但DeepSeek證明企業可以在不擁有超級電腦的情況下,透過合理設計模型和利用部分GPU,打造符合特定需求的高效AI模型。這種做法使更多中小型企業能夠參與AI開發,也讓NVIDIA等硬體供應商的市場需求保持高位。蔡炎龍認為,DeepSeek最大的突破之一,是在模型引導能力上的提升。DeepSeek採用Chain-of-thought(CoT)的方法,將重點放在如何生成高品質的「思維」內容,而非直接回答問題。具體來說,DeepSeek會先生成「與問題相關的邏輯推理」,再將其作為指導LLM回應的基礎。蔡炎龍認為,這種方法不僅提高了回答的準確性,也讓用戶能清楚了解模型的思考過程。此外,DeepSeek另一大量點就是嘗試減少人類介入的訓練方法,尤其是在高品質思維生成的部分。傳統的 RLHF(Reinforcement Learning with Human Feedback)需要大量的人工標記和示範,而DeepSeek則探索如何通過設計自動化的 reward 系統,讓模型在更少人力參與的情況下學會產生良好的思考邏輯。蔡炎龍也在文末表示「DeepSeek 有許多有趣的地方,也讓我們更知道怎麼用 LLM 方式,這才是真正的重點。」