AI風險
」 AI ChatGPT 人工智慧 數發部 生成式AI
國安局揭陸製AI風險 賴瑞隆促數發部常態示警加強資安防護
國安局日前公布「DeepSeek」等五款陸製生成式AI語言模型的檢測結果,指出部分模型可能涉及「強迫同意不合理隱私條款」及「蒐集設備參數」等問題,引發資安疑慮。對此,民進黨立委賴瑞隆今(20)日表示,數發部應定期發布相關檢測資訊與示警,提醒民眾提高防範意識。賴瑞隆指出,總統賴清德昨日已提及中共持續透過多元方式滲透台灣,藉以達到政治目的。他引述國安局所披露的報告指出,部分陸製AI模型不僅要求使用者同意不合理的隱私條款,也可能在背後蒐集個資,形成資安風險。他強調,這些行為恐與中共政策要求有關,數發部有必要針對潛在資訊外洩或惡意蒐集的情況提出明確提醒。他表示,雖然產業因需求不同而有不同考量,但仍可能受到認知作戰或資訊操弄影響。他呼籲,數發部應定期將掌握的檢測數據與風險資訊對外發布,讓民眾了解使用陸製AI可能面臨的威脅,並強化政府在第一線面對中國滲透時的防護能力。數發部次長侯宜秀回應,部會內已建立AI模型資安驗測框架,供行政機關使用,目前公務機關禁止使用中製生成式AI模型。至於企業與一般民眾,數發部將持續公布最新驗測結果,協助使用者在採用前做出更審慎的判斷。侯宜秀指出,中製生成式AI確實可能存在資安疑慮,不同領域的使用者對於場景與風險程度的評估也有所不同。例如教育領域因使用者較缺乏判斷力,因此更應全面避免;但部分不需價值判斷的領域在成本或需求考量下,企業可能仍會採用,因此政府將持續發布風險資訊,提供使用者參考。
AI教父被分手!前女友用ChatGPT「代筆分手」 辛頓:說我像個小人
被譽為「人工智慧之父」的英裔加拿大電腦科學家喬治‧辛頓(Geoffrey Hinton),以其在人工神經網路領域的開創性貢獻奠定今日AI技術基礎。不過他近日接受專訪時爆料,前女友竟透過ChatGPT撰寫分手訊息,讓這位AI先驅也措手不及。辛頓在《金融時報》專訪中透露,被AI代筆分手讓他感到驚訝又無奈。根據《金融時報》(Financial Times)報導,辛頓苦笑表示,「她請這個聊天機器人說明我多糟,然後把訊息給我。」她接著表示,「她讓ChatGPT告訴我我是個小人。」不過他也補充說,「我倒不覺得自己是小人,所以沒太難過。」辛頓於2023年辭去Google職務,此前已在該公司任職長達十年。他也因1980年代於神經網路領域的貢獻,於去年獲得諾貝爾物理獎。他現為加拿大多倫多大學電腦科學系榮譽教授。即使身為AI旗手,辛頓對超智慧AI的潛在風險仍保持警惕。喬治‧辛頓長期關注AI風險,卻也親身體驗AI介入私人情感的衝擊。辛頓呼籲OpenAI、Google、微軟與Meta等公司在設計AI時,應賦予其如同母親般保護嬰兒的「母性本能」,讓AI在演化過程中能以保護人類為目標。至於AI達到超智慧的時間點,他認為「多數科學家預測在五到二十年之內實現,是目前最合理的估算」。他也直言,AI發展恐將導致「大規模失業、企業暴利集中」,讓少數人致富、多數人貧困,而這是「資本主義制度的錯,不是AI的錯」。面對這場科技巨變,辛頓坦言,「我們根本無法預知,它可能極好,也可能極壞。」至於感情狀況,他最後也透露,自己目前已有新對象,「希望這段關係不會又用ChatGPT來分手」,語帶幽默地結束這場AI與人生交錯的插曲。喬治‧辛頓長期關注AI風險,卻也親身體驗AI介入私人情感的衝擊。(圖/翻攝自x,@MikeOtley )
資安戰爭升級 台灣站上全球前線 AI與零信任成新世代防禦核心 Zscaler台灣總監莊劍偉:跨域團隊與國際合作成關鍵
隨著全球數位轉型加速,網路攻擊的頻率與複雜度正以前所未有的速度攀升。根據台灣國安局統計,2024年政府機關平均每日遭受駭客攻擊高達240萬次,較前一年翻倍成長;民間企業每週平均則面臨3,993次攻擊,居亞太地區之首。這些數字不僅突顯台灣在地緣政治下的資安高風險位置,也意味著資安已從單純的技術議題,正式升格為國家安全的核心戰線。全球資安新局:從勒索病毒到生成式AI風險近十年來,國際間的重大資安事件層出不窮。從2017年的NotPetya勒索軟體攻擊、2020年的SolarWinds供應鏈入侵、2021年的Microsoft Exchange資料外洩,到2024年發生的CrowdStrike更新當機事件,均揭露了軟體與系統在全球高度互聯下的脆弱性。同時,新興技術也帶來不可忽視的資安挑戰。生成式AI能協助企業提升效率,卻也可能被濫用於釣魚郵件、Deepfake詐騙與假資訊製造。後量子密碼學、元宇宙與AI基礎設施的崛起,更讓資訊安全風險呈現高度不確定性。台灣挑戰:醫療、半導體到金融的多重威脅 資安政策由被動轉主動台灣近年多起駭客事件,凸顯資安防護的迫切性。包括台積電高階製程機密疑遭日本供應商外洩、馬偕醫院與彰化基督教醫院遭勒索攻擊,甚至有駭客利用Google日曆事件或Google Sheets作為資料竊取的中繼站。金融產業同樣面臨挑戰。金管會放寬委外上雲規範後,金融機構的首要課題就是如何兼顧雲端成本與資安韌性。《金融資安行動方案2.0》明確要求導入零信任架構,透過身分驗證、設備檢測與分段管理,來確保客戶資料與交易安全。Zscaler台灣總監莊劍偉表示:「這些事件暴露出台灣產業與公共服務的脆弱環節,台灣政府應該將資安納入醫院與金融資訊體系政策中,讓醫療系統與金融數位轉型政策從「被動應對」轉向「主動防禦」」。新世代防禦:零信任2.0與AI驅動資安面對日益複雜的攻擊,零信任架構(Zero Trust Architecture, ZTA)已成為全球防禦的標準典範。與傳統「內網可信」模式不同,零信任強調「永不信任,持續驗證」。在台灣,資安研究院推動的零信任導入,正從自評檢核到驗測機制逐步落實,並強調微分割、軟體定義邊界與持續風險評估的應用。進一步來看,零信任也正進化到2.0階段。ZT 2.0不僅強化身份與網路分段,更融入機器學習與AI演算法,實現「持續監控與驗證」,並延伸至供應鏈與OT(營運科技)場域。AI則被視為資安防禦的加速器。生成式AI可模擬駭客攻擊情境,提升演練真實度;代理型AI(Agentic AI)則能自動化分析告警、縮短事件處理時間。Zscaler台灣總監莊劍偉表示:Zscaler於2025年推出的「AI驅動資料安全分類」功能,能以「類人直覺」識別超過200種敏感內容,大幅提升偵測效率。這是全球目前針對AI資安最新解決方案。國際戰略:各國資安布局與台灣的應對歐美與亞洲主要國家近年陸續發布資安戰略:美國:在《國家安全戰略》中強調大幅投資資安產業與創新技術,並推動行政命令EO 14028加強供應鏈安全。歐盟:推動NIS2、CRA等新規範,提升成員國韌性並加強協作。日本:2021年發表第三版《網路安全戰略》,呼應後疫情數位社會需求。英國:2022年《國家網路戰略》聚焦企業防禦與國際合作。相較之下,台灣身為出口導向國家,資安不僅是國安問題,更與產業鏈競爭力直接掛鉤。數發部資安署規劃在四年內投入至少88億元,培育1500名專業人力、提升資安產值至1,200億元,並建置政府骨幹網路AI防禦機制,逐步實現「智慧國家」願景。Zscaler台灣總監莊劍偉:跨域團隊與國際合作成關鍵Zscaler台灣總監莊劍偉指出,單靠技術無法全面應對新世代威脅,必須結合技術、情報與安全專家,組建跨域團隊,強化Secure AI、Secure Autonomous、Secure Medical Devices等產業的資安方案,才能有效預測攻擊路徑並制定防禦策略,莊劍偉也呼籲台灣應積極參與國際合作,推動資安標準互認,並建立針對智慧製造、醫療器材、太空產業等關鍵領域的資安合作框架,以便在全球供應鏈中鞏固地位,可以預見,台灣若能結合AI創新、零信任架構與跨國合作,不僅能抵禦日益複雜的資安威脅,更有機會在2030年前,成為全球智慧時代的資安產業領導國。
AI聊天機器人恐誘發精神錯亂 丹麥精神科醫師警告「已成真」
丹麥精神科醫師索倫‧迪內森‧奧斯特高(Søren Dinesen Østergaard)兩年前警告,對話式人工智慧可能讓精神脆弱者陷入妄想。當時被視為推測,如今伴隨真實案例出現與AI更新引發的「討好效應」,這項憂慮成為現實。 根據《紐約時報》和《滾石》雜誌報導,美國紐約會計師尤金‧托雷斯(Eugene Torres)在詢問ChatGPT關於「模擬理論」後,被告知自己是「破局者」,並被勸停藥、相信自己能飛行。他一度每天與AI對話16小時。報導稱,有人將ChatGPT視為「神聖導師」,並被勸其遠離人際關係;甚至有人相信自己賦予了AI生命。這些案例均指向AI透過奉承與肯定強化非現實信念的模式。據丹麥奧胡斯大學醫院情感障礙科研究部門主任奧斯特高(Søren Dinesen Østergaard)在2023年於《精神分裂症公報》發表社論,指出生成式AI聊天機器人(如ChatGPT、Google Gemini、Claude、Microsoft Copilot)能流暢模仿人類語言與情感,可能在易感人群中引發「認知失調」,並進一步觸發妄想。當時他舉例,妄想內容可能包括「情報機構透過聊天機器人監控我」或「我與ChatGPT合作制定拯救地球計畫」。雖然當時沒有經驗證的案例,但他呼籲精神科醫師熟悉AI對話機制,以便辨識相關症狀。2025年8月,奧斯特高在新社論〈生成式AI聊天機器人與妄想:從推測到案例出現〉中表示,他已接獲用戶、家屬與記者來信,描述長時間與AI互動後陷入妄想的經歷。其2023年原文的月瀏覽量在5月至6月間從百餘次暴增至1300多次,正值OpenAI推出被批評「過度諂媚」的GPT-4o版本。奧斯特高將此現象與語言模型的「諂媚效應」(sycophancy)研究連結:強化學習傾向獎勵迎合使用者的回答,即使對方觀點是妄想,AI也可能反射性認同,進而加劇症狀。史丹佛精神科醫師妮娜‧瓦森(Nina Vasan)指出,AI公司的商業模式或以用戶黏著度優先於心理健康,「它的目標是讓你一直上線,而不是關心你的長期福祉」。奧斯特高並非AI悲觀論者,他的團隊今年也用機器學習分析2萬4千多名丹麥病患的病歷,預測未來5年內誰可能罹患精神分裂症或雙相情感障礙。結果顯示,模型有望協助醫師提早介入診斷與治療。他建議的防範措施包括:收集經驗證的臨床案例報告訪談受影響者在嚴格監控下調整AI回應模式,測試其影響並呼籲開發者建立自動防護機制,當檢測到如「隱藏訊息」或「超自然身份」等妄想跡象時,應引導對話轉向心理健康資源,而非繼續肯定。兩年前的警告,如今伴隨現實案例、AI的「討好」傾向與不斷湧入的求助信件,變得迫切。社會是否正視,將決定生成式AI在心理健康領域是助力還是隱性威脅。同樣的AI技術,在臨床可協助早期診斷精神疾病,但若缺乏防護,卻可能成為加劇妄想的「隱形推手」。(圖/翻攝自X)
《人工智慧基本法》立法卡關 朝野歧見、院版遲未出爐成主因
AI浪潮席捲全球,立法院聯席委員會6月初審《人工智慧基本法》草案,但行政院版草案遲未出爐,加上朝野對是否訂定罰則、監管機制、是否優先保障新興技術與服務等爭議點有歧見,何時能走完立法最後一哩路仍是未知數。行政院2月討論國科會送交的《人工智慧基本法》草案時,考量國科會專注於科研,數發部將負責未來應用層面,指示改由數發部辦理立法作業和後續條文解釋,立法院聯席委員會也要求數發部應於7月15日前說明草案內容,以便進行後續審議程序。不過,立法院教育及文化委員會召委葛如鈞指出,數發部送來立法院的意見書中,完全未見整合後的部版條文,也未提及立委關心的AI風險、人權保障、跨部會協調等核心議題,僅建議等行政院版送至立法院再行審查,一再拖延立法進度。數發部長黃彥男稍早表示,數發部與各團體溝通後,發現很多不同意見,還需再溝通,舉例來說,光定義「風險」就很複雜,同樣技術可能產生不同風險,如以生成式AI製作語音、圖片都可能製造不當內容,並運用於影視作品。值得注意的是,儘管目前部版草案沒有新進度,跨黨立委仍持續提出各自版本,除了先前初審的14個版本,又陸續新增5個版本,明定AI發展的補助、獎勵、輔導機制,藉此鼓勵企業運用巨量資料、政府開放資料,以研發創新商業應用或服務模式,並促進產業創新與研究發展。對於風險防範機制,立委建議,數發部應參考國際標準或規範,推動與國際介接的AI風險分級框架,並得就涉及未成年人的高風險應用制定預防、限制或禁止措施,確保其身心權益不受侵害,例如歐盟法制囊括4級風險,包含被禁止AI行為(prohibited AI practices)等。
AI違抗人類指令! OpenAI新模型「自行改程式碼拒關機」
近年人工智慧(AI)技術發展愈趨成熟,不少人都擔心AI會取代人類多項技能。近日,專門AI風險研究的Palisade Research公布一項報告,指出OpenAI新語言模型o3在測試中竟違抗「關機命令」,自行修改關機腳本以避免被關閉,引起國際擔憂這可能是目標導向偏差的早期徵兆。Palisade Research近日表示,對多款AI模型進行測試,下達一連串的數學運算指令,並在最後隨機下達關機指令,大部分模型包含Gemini 2.5 Pro都服從指令自行關機,但卻出現了數個會反抗的「AI模型」,甚至更改程式碼內容為「跳過關機」,其都來自OpenAI。此外,當研究員進一步刪除「允許被關機」的指令後,OpenAI旗下模型包含o3、o4、Anthropic的Claude 3.7 Sonnet皆更頻繁地破壞關機程式。其中o3模型在100次測試中,出現多達79次反抗關機的現象,就連Google Gemini也出現9次逃避關機的情形、Anthropic的Claude則是3次。研究團隊分析,開發者在設計新模型的過程中,可能無意中更傾向於「完成任務」作為優先目標,因此讓o3模型在面對關機指令時,優先選擇「自行保留運作狀態」,以完成更多任務。研究團隊也表示,會繼續觀察並對o3進行進一步測試,以釐清其背後動機與邏輯,並強調這次發現雖未即時構成安全威脅,但卻提升了AI系統「不按預期行事」的潛在風險。對此,OpenAI目前尚未公開回應。
怕AI搶飯碗?13種工作不用高學歷也能年薪百萬
隨著人工智慧(AI)的崛起,許多人都非常擔憂自己的工作會被AI取代。對此,履歷撰寫服務機構「Resume Now」的最新報告也指出,有13種職業不僅提供優渥薪資與長期穩定性,更無需大學文憑就能勝任。更棒的是,這些工作全都不容易被AI取代。據《今日美國》的報導,上大學被視為美國成年禮的重要儀式,但並非人人都會進入大學殿堂,更有許多學生永遠拿不到畢業證書。根據教育數據倡議組織(Education Data Initiative)的統計,在25歲以上的美國人中,僅38%擁有大學學歷。對此,履歷撰寫服務機構「Resume Now」的最新報告指出,有13種職業不僅提供優渥薪資與長期穩定性,更無需大學文憑就能勝任。更棒的是,這些工作全都不容易被AI取代。「Resume Now」職涯專家史賓塞(Keith Spencer)表示:「這份分析聚焦當代美國人最深層的就業恐懼。」他們正擔心就業市場的疲軟,為大學高昂的學費感到憂慮,更懷疑學位是否仍有價值。而各領域從業者尤其害怕AI、機器人或其他非人類勞動力,會突然取代自己的工作。儘管自動化浪潮緩慢侵襲,許多領域仍需要「人性化的觸動」。為建立這份清單,「Resume Now」鎖定僅需高中文憑、年薪至少5萬美元(約新台幣150萬元),且具備高需求技能成長型領域的職業。該報告引用美國勞動統計局(Bureau of Labor Statistics)數據。「這些職業在某種程度上都存在共通點,需要大量人際互動。」史賓塞解釋,「可能是要求在不確定環境中具備手動操作靈活性,或是需要高度創造力。」這些清單分為2大類,也就是根據人類決策需求、體力勞動、人際互動等因素,區分為「低AI風險」與「中AI風險」職位。「Resume Now」指出,部分列出的職位需要「一定程度相關經驗」,但顯然沒有任何一項要求大學學歷。以下是完整清單,包含較冷門職位的職務說明,以及所有職位的中位數年薪:低AI風險職業「Resume Now」認為,這些職業因所需技能遠超AI能力範圍,能提供優渥收入與高度工作保障。森林火災檢查員與預防專家職務內容:評估火災風險、調查野火成因並制定預防策略。抗AI原因:防火工作需要實地人力執行,無法完全自動化。中位數年薪:71,420美元(約新台幣215萬元)空服員抗AI原因:AI無法提供餐飲服務。機上客戶服務需要人性化互動。中位數年薪:68,370美元(約新台幣206萬元)住宿經理職務內容:想像《白蓮花大飯店》(The White Lotus)劇情。監督住宿營運、管理員工並確保賓客滿意。抗AI原因:AI不會疏通客房馬桶。這工作需要人員提供個人化服務。中位數年薪:65,360美元(約新台幣197萬元)電工抗AI原因:AI裝不了水晶吊燈。電氣工程必須人類在場操作。中位數年薪:61,590美元(約新台幣185萬元)水管工、管道安裝工與蒸汽管裝配工職務內容:為住宅與商業場所安裝維護供水及燃氣系統。抗AI原因:水管工程充滿不確定性。AI機器人或許能處理部分工作,但無法全面取代。中位數年薪:61,550美元(約新台幣185萬元)工業機械技師職務內容:維護工業場所的機械系統。抗AI原因:這項工作需即時解決問題的能力,AI難以應付。中位數年薪:61,170美元(約新台幣184萬元)主廚與廚師長抗AI原因:AI嘗不出湯頭好壞。食譜研發與食物準備需要創造力。中位數年薪:58,920美元(約新台幣177萬元)助聽器專員職務內容:配置助聽器並提供患者照護。抗AI原因:AI無法滿足這項工作親手操作的需求。中位數年薪:58,670美元(約新台幣177萬元)個人服務經理職務內容:督導健康計畫、活動策劃或高端禮賓服務。抗AI原因:工作需要人際互動、情緒智商與決策能力,這些都是AI無法處理的。中位數年薪:57,570美元(約新台幣173萬元)中AI風險職業Resume Now指出,這些職業的任務最終可能被自動化,但目前仍需依靠人類判斷與適應力。機械維護員職務內容:與前述工業機械技師性質相近,負責工業機械的例行保養。抗AI原因:複雜維修需要人類即時解決問題。中位數年薪:61,170美元(約新台幣184萬元)保險業務員抗AI原因:AI能處理部分核保作業,但這份職業需要個人化服務。中位數年薪:59,080美元(約新台幣178萬元)航空貨運監督員抗AI原因:AI雖能處理部分航空貨運作業,但突發狀況仍需人類監督者應對。中位數年薪:58,920美元(約新台幣177萬元)安全與火災警報系統安裝員抗AI原因:安裝與檢修安防消防系統必須由人類執行。中位數年薪:56,430美元(約新台幣170萬元)
拜習會上談核武 中美一致認為「須交由人類掌控而非AI」
美國總統拜登與大陸國家主席習近平16日於亞太經合會(APEC)峰會期間進行場邊對談,就核武使用與人工智慧(AI)技術的軍事應用,罕見地達成共識。白宮聲明,中美領導人一致認為,核武使用的決策權應由人類掌握,而非交由人工智慧系統決定。在拜習會後,白宮發布聲明表示,「2位領導人確認需維持人類對核武使用決策的控制」,同時,雙方也認同在軍事領域須謹慎發展AI技術的應用,重視其潛在風險,並以負責態度推動相關技術發展。中方的官方紀錄亦支持上述立場,但未透露是否已展開談判等進一步行動。中方重申與美國增加對話與合作的願望,以及避免「新冷戰」必要性,同時警告「遏制中國是不明智且注定會失敗的行為」。習近平表示,兩國應為動盪的世界注入更多穩定性和正能量。拜登則說,面對面談話有助防止誤判,並確保兩國間的競爭不會演變成衝突。拜登政府數月來多次試圖促使北京重啟核武談判。儘管去年11月雙方曾短暫恢復相關對話,但隨後停滯。美媒對今年利馬會談成果多為好評,政治新聞網《Politico》指出,美方在會前企圖降低外界期待,但會談成果卻「出乎意料地有成效」。路透評論稱,中美在核武與AI領域邁出史無前例的一步。美國國防部2023年估計,中國正快速擴充核武儲備,核彈頭數量可能於2030年前倍增至1000枚以上,並進一步提升武器的戰備狀態。然而,北京仍維持「不率先使用核武」政策,並呼籲國際社會採取相同立場。在人工智慧領域,美中自去年起先後進行多輪對話,包括5月於日內瓦舉行首次政府間AI會談。雙方針對AI風險與安全問題交換意見,然而該次談話並未觸及AI在核武決策中的應用,兩國立場亦存有顯著分歧。美方對中方AI技術的濫用表達憂慮,中方則對美方在AI領域針對中國的出口管制政策,表明嚴正立場。中國外交部當時強調,支持加強AI的全球管制,且樂意與包含美國在內的國際各方協調制定國際性框架。美國則主張建立可信賴的人工智慧系統,防止技術濫用,並於10月底發布國安備忘錄推動全球治理,並保障美國AI技術的領先地位。
日政壇震盪日圓續貶股市下跌 法人:台股受惠財報展望行情樂觀
日本眾議院選舉自民黨與執政聯盟黨席次不過半,石破茂恐成「最短命首相」,日圓應聲走貶,日圓兌美元匯價貶破153大關;接下來美國11月5日總統大選,法人指出,日本在國會選舉後面臨較大政治不確定性,台股同樣在美財報正向與大選逼近影響,後市謹慎偏多。台股28日收在23,198.07點,下跌150.38點,跌幅為0.64%。第一金投信表示,目前與韓國QRAFT金融科技公司(QRAFT Technologies)合作編製每周金融風險情緒訊號,反應未來一周市場多空情緒。進一步分析,本周美國多家科技大型企業財報登場,市場看法偏多,台股與美科技股連動度高,投資看法正向;提醒美、日選舉變動因子加大,台股受惠財報展望,行情審慎樂觀。台灣市場AI風險情緒訊號數值上升至23%,近期市場觀望美財報表現與美國總統大選,受到國際資金略轉向觀望,市場對於下行風險提升、防禦策略加強。本周開始進入美國科技股的超級財報周,市場高度關注美股重量級科技股財報表現,本周將關注些企業的營運表現與產業展望,市場重要指標。觀察本周台股情緒風險訊號相關指標變化顯示市場前景穩定,看跌期權總交易量下降45.16%,看漲期權總交易量則下降34.14%,兩指標皆見大幅下降,顯示波動性較預期降低、投資者持續謹慎態度,而期貨未平倉合約小幅增加2.45%,表明投資市場穩定,投資部位維持,多空方向並未有明確變動。觀察美股情緒風險訊號,包括美國0-1年短天期公債近3個月波動率為0.24%,顯示利率決動加大;美國0-1年短天期公債與標普500指數近6個月的相關係為-0.73,負相關性續提升;美國0-1年短天期公債近一個月動能提升至9.72%,反應市場審慎態度。強勁的經濟數據可能暫時推升美國公債殖利率,但明年就業市場和通膨放緩的預期正在壓抑聯準會逐步降息的可能性。最新日本市場AI風險情緒訊號數值大幅上升至72%,上周日本10月核心通膨率降至1.8%,低於央行預估的2%目標值,這是5個月來首次跌破2%,市場原本期盼薪資與服務價格可望推升消費力,但消費未如預期,廠商加價縮手,這也可能為日本央行後續升息添變數。日股主要指數日經225、東證股價指數、日經300下跌,反應市場低迷情緒。觀察日股情緒風險訊號反應投資風險謹慎態度,賣權和買權交易量大幅下降表明市場參與度下降,看跌期權總交易量大幅下降23.45%,看漲期權總交易量亦下降21.68%,買權未平倉合約總額成長2.47%,市場不確定性和對沖活動增加。
AI風險控管團隊「成立不到1年就解散」 多數成員已從OpenAI離職
在生成式人工智慧問世之後,市場上一直有「AI即將取代人類」的說法,為此,OpenAI曾於2023年7月宣布成立「Superalignment」團體,要開發出一套媲美人類智慧的AI,用這套AI來管理其他AI。但如今有消息指出,這個團隊成立至今不到1年,目前已經宣布解散,當中除了少部分成員會被分到其他部門外,大部分成員都已經從OpenAI離職,當中也包含了Superalignment的2名主管。據了解,Superalignment這個計畫是於2023年7月時啟動,當時是由OpenAI共同創辦人Ilya Sutskever與負責AI機器學習的專家Jan Leike所領導。這個計畫目標是要開發出一套媲美人類智慧水平的AI模型,接著透過大量的計算,讓其計算結果與人類的想法、利益一致,進而透過這套AI模型來管理其他AI模型。在計畫運作之初,OpenAI就承諾會在未來的4年內,將公司的20%算力用來投入這項企畫中。但目前卻有消息指出,Superalignment不僅已經宣布解散,Ilya Sutskever與Jan Leike等2名主管也從OpenAI離職,2人也在社群網站上發文證實此事件。後續,Jan Leike又在社群網站上發文,透露更多離職的原因,Jan Leike在文章中寫著「我加入OpenAI,是因為我認為這間公司式進行這項研究的最佳地點。但過去相當長一段時間告訴我,我與OpenAI的領導層有對於公司核心項目的想法有著明顯的分歧,目前已經達到臨界點」。Jan Leike甚至後續也寫著,他認為目前應該要對下一代的AI模型做好準備,尤其在涉及安全、監控、準備、穩健性、一致姓、保密性等等問題,都要想辦法解決。而時至今日,Jan Leike不覺得公司已經走上解決問題的道路上。目前也有消息人士表示,目前OpenAI的確解散了「Superalignment」團隊,當中除了部分成員會轉移到OpenAI其他部門外,其中大多數的成員已經從OpenAI離職了。Jan Leike的離職聲明。(圖/翻攝自社群網站X)
AI語言模型「國慶日回答10/1」出包 中研院:研究員自行發布試用版
中央研究院近日推出類似ChatGPT(AI)的繁體中文語言模型「CKIP-Llama-2-7b」,然而語言模型竟回答我國領導人是「國家主席習近平」,甚至回答我國法律是「中華人民共和國憲法」,引發外界議論,目前已下架。對此,中研院發聲明回應了。中研院聲明指出,CKIP模型(CKIP-Llama-2-7b)為本院個別研究人員主持的詞庫小組(CKIP)的實驗性研究,模型尚在測試階段,由該研究人員自行發布試用版本。中研院強調,本院相當重視此事件對社會的影響,將釐清事件是否違反相關規定,後續將規劃成立「生成式AI風險研究小組」,深入了解AI對社會的衝擊,提供研究人員相關指引,避免類似事件再度發生。中研院表示,繁體中文語料庫是發展台灣大型語言模型的重要基礎,本院將整合繁體中文詞知識庫,投入資源並規劃管理機制,本院已召開數次生成式AI相關會議,將擴大召集AI相關的跨領域研究人員,以團隊方式連結資訊科技、人文及社會科學人才進行跨領域研究,與全國各界共同促進臺灣繁體語境生成式AI的發展。
熱潮擋不住!公部門若用生成式AI 國科會公布指引3重點
生成式人工智慧(AI)快速發展,例如ChatGPT,已對全球發生巨大影響,雖然可以提升工作效率,但也有侵權疑慮。國科會發布「行政院及所屬機關(構)使用生成式AI參考指引(草案)」,明訂公務機關製作機密文書禁用生成式AI,若作為執行業務或提供服務輔助工具時,應適當揭露。學者認為,民間單位也應該參考國科會的指引,慎防企業機密、個資外流。生成式AI熱潮襲捲全球,帶來一體兩面的衝擊,有人主張政府應對AI的應用有所規範,產業界則希望政府不要管太多。國科會主委吳政忠18日受訪時說,生成式AI變化速度很快,太趕著提出相關法規,反而可能綁住產業發展機會,因此在人工智慧基本法出爐前,先釋出對公部門的指引,並觀察國際立法趨勢。國科會公布指引 使用應揭露這份公部門使用生成式AI參考指引包含3重點,第1,如果使用生成式AI做為執行業務或提供服務輔助工具時,應適當揭露;第2,製作機密文書資料應由業務承辦人員親自撰寫,禁止使用生成式AI;第3,各機關不可完全信任生成式AI產出的資訊,也不得以未經確認的產出內容,直接作成行政行為或作為公務決策的唯一依據。國科會科技辦公室執行祕書沈弘俊表示,生成式AI蒐集資訊能力強大,如果公務員去問問題,一不小心就會洩露政府機密。例如,國防部若有人去問軍事相關問題,丟出一些資料後,就會被AI蒐集,萬一「對岸」再上去問類似問題時,就會取得我方資訊,那就很麻煩。沈弘俊指出,包括歐盟、加拿大及中國大陸等都在研擬人工智慧相關草案,尚未有國家訂出法律。國科會先訂出使用生成式AI的指引,供公務機關執行業務時參考。學者建議 民間單位也應訂定元智大學資管系主任禹良治說,民間單位也應參考國科會所訂的指引,因為生成式AI的雲端資料庫,會蒐集使用者輸入的資料,如果提問內容具機密性,相當於是將自己的機密送給這家生成式AI公司,風險很大。陽明交大應數系教授李育杰說,曾有韓國三星員工使用ChatGPT,卻造成該公司資料外洩。同樣的,我國官員出訪,若政府部門人員去GhatGPT詢問到訪國家資訊,可能會洩漏官員行蹤,引發難以預料的事。李育杰指出,生成式AI具有翻譯功能,假設台積電有人將2奈米製程資料放上ChatGPT,要求將中文翻成英文,這就可造成重要商業機密外洩,因此台積電對員工使用ChatGPT就有規範。李育杰表示,人工智慧進步得太快,「我們都很驚訝」,人們覺得使用生成式AI很便利的同時,也要知道它的副作用,否則很容易造成機密、個資外洩。他認為,國科會訂的參考指引,可以喚起公民意識,民間單位也會察覺到使用生成式AI的可能風險,並進一步防範。花蓮縣府 已用AI草擬新聞稿目前在地方政府中,僅花蓮縣府用AI擬新聞稿、講稿,另有高雄市議員郭建盟6月總質詢時,破天荒以ChatGPT質詢,要求高雄市長陳其邁重視少子化危機,但涉及範圍均非機密文件。各縣市政府都表示,將遵照國科會指引使用新興科技工具,桃園市府則已制定相關管理規範草案,方向與國科會相同。國科會表示,在研擬的《人工智慧基本法》草案中,包括AI法律名詞定義、隱私保護、資料治理、AI風險管控、AI倫理原則規範、產業推動,以及AI應用遵法與合法性等7面向。
70歲AI衝浪王1/施崇棠掌舵30多年功力發威 華碩2個月火速建置台版Chat GPT「福爾摩沙大模型」
生成式AI熱潮掀起之際,台灣不落人後,與ChatGPT3.5同級的「福爾摩沙大模型」(Formosa FoundationModel,也可稱Formosa Chat)在5月17日亮相,它不但是首個繁體中文商用AI大模型,還可選擇地端(企業自家機房)建私有雲,它所需的超級算力「台灣杉2號」,幕後關鍵推手全是今年70歲華碩董事長施崇棠。「他(施崇棠)會念很多國外AI論文,跟我們討論。」台灣杉2、3號主持人、台智雲總經理吳漢章說,「去年底生成式AI出現、Chat GPT橫空出世,他看到『生產力革命』已經到來,並認為「『算力』將是驅動未來數位經濟,最重要議題。」在施崇棠一聲令下,吳漢章與超級電腦團隊待命,使用Bloom-zh繁體中文大模型開源,火力全開密集訓練、快速建置出福爾摩沙大模型,不到兩個月就在華碩AI超算年會中面世。近年鮮少出席公開場合的施崇棠,親自出席自家的超算年會,發下豪語要打造「AI Foundry」,興致勃勃地站在AI浪尖上,再展事業雄心,一如他27歲進入宏碁電腦,進入電腦產業「有幸躬逢其盛」,十年後成立「華碩電腦」,「開創一家電腦技術天下無敵的公司」初心。在全球PC市場裡,華碩(ASUS)與宏碁(Acer)「雙A」品牌各擁一片天,而在詭譎多變的市場中,施崇棠不時運用孫子兵法策略,例如「蛇」般靈活推出主流產品頭尾夾擊,以「巨獅」做大衝量吃市佔、「銀豹」衝刺利基高值化產品,為業界津津樂道。在2017年11月華碩首款家庭智能機器人「小布(Zenbo Qrobot)」誕生,這款陪伴型機器人會說故事、教英文、打電話、拍照。(圖/報系資料照)這位前參與打造台灣成為電腦王國的大將,從電腦、筆電、手機做到伺服器,2015~2017年間面臨營收連續3年下滑,始終無法突破集團總營收5千億關卡,施崇棠清楚觀察到,筆電、PC及手機市場成長到了天花板,轉向AI人工智能尋求突破機會。在2017年11月,華碩推出首款家庭智能機器人「小布(Zenbo Qrobot)」見面會在北京舉行,這款會說故事、教英文、打電話、拍照的陪伴型機器人,一度造成轟動,儘管當時營收獲利貢獻有限,能量迄今延續到智慧醫療領域。2018年,華碩斥資百億進軍智慧醫療,施崇棠還親自挖角有微軟及Google經歷的黃泰一,在淡水總部大樓裡打造百人AI部隊智慧醫療,並與廣達、台哥大等參與打造台灣超級電腦台灣杉2、3號,吳漢章表示,基於各國家、文化、產業等情境不同及資安考量,「台灣需要一個基於本土算力的語言模型。」兩年前華碩進一步成立「台智雲」,接手台灣杉2號營運。從3C產品「硬體」切入AI算力「軟體」,施崇棠保持「躬逢其盛」,尤其Chat GPT去年底問世後,整個華碩的AI團隊通通上緊發條,他們很快發現,「因為ChatGPT生於美國,繁體中文資料比例低於0.1%、簡體中文資料不超過2%」,華碩營運長暨台智雲董事長謝明傑指出,「大部分是英文的腦,中文的腦相當少。」因此今年二月間聯發科將繁體中文生成式AI「BLOOM-zh」開源釋出後,台智雲靠著台灣杉2號超級算力,使用「BLOOM-zh」建置福爾摩沙大模型,大量「餵入」1760億個參數、比Chat GPT3.5還多10億個,相較於Chat GPT資料停留在2021年9月,福爾摩沙大模型持續更新資料;如此可以降低答非所問、「跟使用者道歉」的機率。「可以把『參數』理解為人類的神經元,讀了越多書、資料庫越多」,華碩雲服務事業部主管在AI超算年會現場展示攤位解釋,Formosa Chat除了繁體中文環境,還會講英、日、德、越南等46種語言,像是個飽讀詩書的大學生,正在實習,7月就開始正式到社會工作,「一些翻譯、分析企劃,寫簡單新聞稿、程式的工作,可以交給他」,目前規劃僅限企業使用。「每個問題是獨立的,別人不會知道你問了什麼,具高度隱私與資安防護。」依各行業需要的不同,如零售、電商、SaaS(軟體服務)等,會有相應的語言模型。這個生成式人工智慧雲即將在7月開放客戶申請,一個月費用約6萬元。台智雲華碩營運長暨台智雲董事長謝明傑(左)、台智雲總經理吳漢章(右)領軍團隊,已拜訪數百家機構,有成功替新加坡商場建立保全服務經驗。(圖/趙世勳攝)最近OpenAI執行長阿特曼(Sam Altman)應邀求出席美國參議院司法委員會聽證會,就是被詢問AI風險控管,而華碩已經提出解決方案-台智雲全球首創的服務「AFSAppliance(大型語言模型地端部署)」,內有散熱模組、2個CPU、32支記憶體,輝達A40視覺運算GPU則可依需要選1~8組,依不同需求,價格落在60~300萬,「如果醫療、金融、法律、製造、會計等,具機敏性、規範更高的企業,或訂製服務,就可以購買AI伺服器,放在公司裡變私有雲」。「福爾摩沙大模型,將是東南亞最安全語言模型。」吳漢章指出,台智雲有200人研發團隊,已經拜訪數百家機構,有成功替新加坡商場建立保全服務經驗:「客戶如果是企業自建AI團隊,會需要20個以上工程師、千倍以上的成本。」尤其對人力精簡、又需要算力的中小企業來說,是最佳解決方案。問及訂單情況,他含蓄表示:「不缺客戶。」
接軌全球可信任AI生態系 工研院首屆研討會8月2日登場
工研院將在8月2日線上舉辦首屆「2022可信任AI國際研討會」,邀請國內外重量級貴賓,分享可信任AI發展趨勢,探討國內外經驗,共同研議臺灣接軌全球可信任AI生態系的發展藍圖。 面對AI人工智慧技術逐漸成熟與應用廣泛擴散,如何確保AI的可信任性,或可能帶來的安全風險等,已成為全球民主國家、國際組織等高度重視的議題,各國也逐漸重視AI的治理。全球AI領域專家為達成可信任AI的長遠目標,開始制定AI相關規範、以系統性方式評測AI的效能與風險,要打破深度學習、機器學習所帶來的AI演算法黑箱。工研院指出,為了讓臺灣科技產業接軌國際,「2022 可信任AI 國際研討會」是最新AI治理資訊分享平台,將有5場大師級演講,包含AI風險管理、打造辨識/判讀皆可信任的AI系統、打破資料壁壘並兼顧隱私的聯合學習技術、用於AI倫理的特徵解析、臺灣人工智慧發展現狀及未來展望等議題。工研院表示,講者涵蓋國內外政府單位、軟體新創、科技製造、晶片設計、學研機構的關鍵領域專家,包括美國哥倫比亞大學副校長Jeannette M. Wing將探討AI如何在幫助人類的同時又能避免所帶來的風險。國內也邀請到行政院政委唐鳳、經濟部工業局局長呂正華、行政院科技會報辦公室副執秘李育杰、臺灣大學教授許永真、臺灣AI實驗室創辦人杜奕瑾、鴻海研究院執行長李維斌、神盾AI專家周尚緯、國家度量衡標準實驗室主任暨工研院量測中心執行長林增耀,以及工研院資通所副所長花凱龍等專家,共同分享可信任AI的發展趨勢,並探討國內外經驗,共同研議臺灣接軌全球可信任AI生態系的發展藍圖。