跳至主要內容區塊
財經
熱線

擺脫輝達獨霸? 6大科技巨頭群起自研AI晶片

據外媒報導,六大科技公司正在研發自家的AI晶片,預計與輝達H100 GPU競爭。(圖/unsplash)

據外媒報導,六大科技公司正在研發自家的AI晶片,預計與輝達H100 GPU競爭。(圖/unsplash)

據科技媒體The Information昨天(7日)引述知情人士消息報導,微軟、OpenAI、特斯拉、谷歌、亞馬遜、Meta這六大科技公司正在研發自家的AI晶片,預計會與輝達(Nvidia)的旗艦級微處理器H100 GPU競爭,且可能有助於降低成本及減少對輝達AI晶片的依賴。

輝達如今已是當之無愧的「AI算力王者」,A100/H100系列晶片佔據金字塔頂部的位置,但用戶面對輝達的獨霸天下,吃盡了成本高昂的苦頭。據華爾街投行伯恩斯坦(Bernstein)的分析,ChatGPT單次查詢的成本約4美分(約新台幣1.2元),若要將搜尋量增長到谷歌的十分之一,每年將耗費約481億美元的GPU,以及約160億美元的晶片來維持運行。所以無論是為了降低成本,還是減少對輝達的依賴、提高議價能力,科技巨頭們都紛紛下場自研AI晶片。

微軟計劃在下個月的年度開發者大會上,推出該公司首款為人工智慧(AI)設計的晶片。事實上,The Information曾報導過,微軟自2019年以來就一直在開發一款代號雅典娜(Athena)的專用晶片,用於為大型語言模型提供動力。該晶片將由台積電代工,採用5nm先進製程,計劃最早於明年推出。

有分析師表示,開發類似於雅典娜的晶片可能每年需花費約1億美元,ChatGPT每天的營運成本約70萬美元,大部分來源於昂貴的服務器,如果雅典娜晶片與輝達的產品擁有同等競爭力,每個晶片的成本將可以降低三分之一。

OpenAI也正在探索製造自研人工智能芯片,並已開始評估潛在的收購目標。報導稱,至少從去年開始,OpenAI就已討論各種方案,以解決AI晶片短缺問題。OpenAI已與包括輝達在內的其他晶片製造商更密切地合作,以及在輝達之外實現供應商多元化。

電車大廠特斯拉則立足於智能駕駛,目前已經推出了兩種自研晶片,分別為全自動駕駛(FSD)和Dojo D1晶片。FSD晶片用於特斯拉汽車上的自動駕駛系統;Dojo D1晶片則用於特斯拉超級計算機Dojo片,它是一種通用的CPU,目的是為了加速特斯拉自動駕駛系統的訓練和改進。

谷歌也早在2013年,就已祕密研發一款專注於AI機器學習算法的晶片,並將其用在內部的雲端計算數據中心中,以取代輝達的GPU。這款自研晶片「TPU」於2016年公諸於世,可以為深度學習模型執行大規模矩陣運算,例如用於自然語言處理、計算機視覺和推薦系統的模型。谷歌實際上2020年便已在其數據中心部署了AI晶片TPU v4。不過直到今年4月才首次公開了技術細節。

亞馬遜從2013年推出首顆Nitro1晶片至今,AWS是最先涉足自研晶片的雲端廠商,已擁有網路晶片、伺服器晶片、人工智慧機器學習自研晶片3條產品線。AWS自研AI晶片版圖包括推理晶片Inferentia和訓練晶片Trainium。2023年初,專爲人工智慧打造的Inferentia 2(Inf2)發佈,將計算性能提高了三倍,加速器總內存提高了四分之一,可通過晶片間的直接超高速連接支持分佈式推理,最多可支持1750億個參數,這使其成為大規模模型推理的有力競爭者。

Meta直到2022年,還主要使用CPU和專為加速AI算法而設計的訂製晶片組合來運行其AI工作負載,但CPU的效率往往不如GPU。後來Meta取消了於2022年大規模推出訂製晶片的計劃,轉而訂購了價值數十億美元的輝達GPU。為扭轉局面,Meta已經在開發內部晶片,並於5月19日公布了AI訓練與推理晶片項目。據介紹,該晶片的功耗僅為25瓦,佔輝達等市場領先供應商晶片功耗的一小部分,並使用了RISC-V(第五代精簡指令處理器)開源架構。