Chatgp...
」 ChatGPT AI OpenAI 人工智慧 輝達
用ChatGPT反詐騙!印度男自製釣魚網頁 逼詐騙犯求饒收場
印度德里一名男子近日利用ChatGPT設計釣魚網站,成功反制一名冒充公務員的詐騙犯,讓對方當場崩潰,連續傳訊求饒,表示願意停止詐騙行為。該男子將整段過程截圖、發文在Reddit分享,迅速引爆網路熱議。根據《India Today》與《印度時報》報導,事件起於一則來自臉書的訊息,該男子收到一名自稱是「大學學長」的聯絡,對方聲稱自己是印度高階文官(IAS),並稱其CRPF軍官好友因調職急售家具與高階家電,價格低廉,盼能快速出清。該男子起初半信半疑,但考量真正的學長早有他的聯絡方式,立即改以WhatsApp確認身分,果然證實為詐騙行為。他決定「將計就計」,展開反制行動。不久後,詐騙者換了號碼再次聯繫,這次還附上穿軍服的頭像,並提供付款QR碼催促匯款。男子假裝無法掃描,並利用ChatGPT請求協助撰寫一段能收集訪客GPS位置與自拍照片的網頁程式碼。短時間內,他架設好一個假付款連結,並以「加速付款流程」為由,將該連結回傳給詐騙者。對方受貪念驅使點入網頁後,系統立刻取得其即時位置、IP地址與前鏡頭自拍照。男子將這些資訊反向發送給詐騙者,並直言「你的位置與照片我都有了」,對方當場崩潰,連續傳訊求饒,表示願意停止詐騙行為。該男子將整段過程截圖、發文分享,標題為「我用ChatGPT定位詐騙犯,讓他當場求我原諒」,引發廣大關注。不少網友大讚其機智,也有人建議應將此工具開源供更多人使用,作為防詐利器。儘管多數人對此創意給予正面回應,但也有聲音提醒,一般使用者操作此類釣魚網站涉及隱私與技術門檻,若未妥善處理恐觸犯法律,建議仍應透過正當管道報案。男子利用ChatGPT生成釣魚網頁程式碼,藉此成功反追蹤詐騙者位置與影像。(圖/翻攝自X,@ndtv)
分不清「的、得、地」怎麼用!教育部曝正解 網:用台語講更好懂
打字時最常讓人卡關的,有時不是艱深詞彙,而是看似簡單、卻容易讓人混淆的「的、得、地」。就有網友近日自曝分不清三者用法,還因此被朋友頻繁糾正,導致打字前反而得先求助AI。文章曝光後,掀起熱烈討論。這名網友在PTT在以「現在打字會分的/得/地?」為題發文表示,他能分清楚「在、再」以及「應、因」的差異,但很難記住「的、得、地」的用法,因此自己大多時間都是使用「的」。原PO說到,他觀察其他人打字也沒有特別區分「的、得、地」,但某個朋友經常出言糾正他,「害我現在跟他聊天、傳訊息前,都會去問ChatGPT我字有沒有打錯!」貼文曝光後,不少鄉民紛紛在底下留言,「我會分但我不會解釋」、「不分看了難受」、「打字打哪個出來用哪個」、「會區分,但對方打錯無所謂,沒有很在乎,『在』與『再』也是,看得懂就好」、「會區分『的』、『得』,但不會用『地』」、「『的』和『得』很好分;『的』和『地』就不太好分」、「『的』、『地』我有時會分不清,會混用」。也有人指出,「動詞用『地』」、「『地』是連接副詞用的,這個沒很難吧」、「『得』後面不接名詞,我是這樣記,『地』好像是副詞,(例如)你流利地開口說話」、「名詞+『的』,動詞+『得』,副詞+『地』」、「用台語講會比較好分」、「會說台語或粵語的人原則上都不會搞混,因為讀音不同」。根據教育部臉書粉專資訊顯示,「的」可置於形容詞後,如「美麗的風景」;置於名詞或代名詞後,表示所屬、所有的關係,如「我的書」;至於副詞後,同「地」,如「慢慢的走」。「得」用在動詞;形容詞後面,表示結果或性狀,如「跑得快」、「覺得很好」、「美得冒泡」。「地」用在副詞之後,為結構助詞,同「的」,如「慢慢地吃」、「好好地玩」、「雨勢漸漸地小了」。
百度爆裁員潮!內部認定規模龐大 人力瘦身恐達年底
大陸最大的搜尋引擎營運商百度(Baidu)驚傳裁員!百度在本週啟動大規模裁員,預計將波及多個業務單位。多位消息人士指出,公司面臨人工智慧競爭加劇與廣告收入下滑的雙重壓力,此次裁員將延續至年底。雖然具體人數尚不明朗,但內部普遍認為此波裁員「規模龐大」。百度2025年第三季虧損人民幣112.3億元後展開裁員,行動生態系統部門受影響最深。根據《路透社》引述消息人士說法,裁員比例將依部門性質與員工績效等級而異,其中部分團隊的裁員比例可能高達40%。兩位知情者補充表示,行動生態系統部門將首當其衝;相對而言,人工智慧(AI)與雲端運算相關職位則大多被保留。有知情人士指出,公司正面臨雙重壓力:AI 技術競爭日益激烈,加上廣告收入持續下滑,已嚴重衝擊核心業務。百度在本月18日公布的第三季財報顯示,營收較去年同期下滑7%,線上廣告營收重挫18%,單季虧損達人民幣112.3億元(約新台幣493億元)。僅十天後即傳出裁員消息,顯示其財務壓力沉重。據報導,百度將在2025年底前裁減大量人力,主要集中於非AI業務部門。截至去年底,百度員工總數為35,900人,較2023年與2022年分別減少約3,900與5,400人。儘管百度為中國第一家推出 ChatGPT 類服務的企業,其大型語言模型「文心一言」仍在市場表現上落後於阿里巴巴(Alibaba)與 AI 新創公司 DeepSeek。據 Aicpb.com 統計,2025年9月「文心一言」的月活躍用戶為1,077萬,遠低於「豆包」的1.5億與 DeepSeek 的7,340萬。目前,百度已強調將持續強化 AI 能力,並將此技術應用至搜尋引擎與其他現有服務上。據悉,公司將投入更多資源於 AI 相關領域,以期挽回業績頹勢。裁員也反映出大陸大型科技企業正持續透過人事調整以壓縮成本。近年包括阿里巴巴、騰訊等企業,以及亞馬遜與 IBM 等美國科技公司亦陸續進行全球性裁員行動,以應對產業競爭與經濟壓力。
靠AI救命!郁方丈夫上機前肚子不適 「問診ChatGPT」急在國外動手術
藝人郁方與「斐儷珠寶」總經理陳昱羲結婚19年,育有三名子女,家庭生活幸福美滿。近日陳昱羲前往杜拜與阿布達比出差期間突感腹部不適,經多方諮詢醫師後被判斷為腸胃炎,然而身體不適情況持續未改善,讓他決定透過AI工具ChatGPT進行進一步自我評估,結果提示有高度可能為盲腸炎,促使他立即前往醫院檢查,並緊急接受手術,成功排除健康危機。郁方於社群媒體發文還原事發經過,指出丈夫當時人在阿布達比,身體不適時曾向多位國內外醫師求助,但皆未察覺異狀。陳昱羲自覺症狀異常,便以ChatGPT詢問相關症狀可能性,結果指出與盲腸炎高度相符。他隨即帶著行李前往飯店附近的知名醫院檢查,經醫師診斷為盲腸炎且已嚴重腫大,醫師緊急安排開刀手術,避免病情進一步惡化。巧合的是,原定數小時後即將搭機返國的陳昱羲,因AI建議與自身警覺提早就醫,成功避過在飛行途中可能發生的健康風險。郁方感慨表示,「完全不敢想像,如果當時他忍耐悶痛上了飛機,會有什麼樣嚴重的後果。」此外,陳昱羲直到術後康復確認無礙後,才向郁方報平安,讓她感到相當吃驚。郁方也在貼文中表達對神明與祖先庇佑的感謝,直言「AI時代真的拯救了老爺」,還笑稱丈夫「會不會是台灣史上第一人在阿布達比開盲腸炎的?」
林映唯今披白紗嫁!搞笑誓詞「願當ATM、專屬AI」全場笑出來
林映唯年初被交往三年多的男友 Richard 精心策畫求婚成功,兩人隨後飛往充滿浪漫氣息的羅馬拍攝婚紗,今(21)日舉辦婚禮,正式升格夫妻,下午於萬豪酒店戶外場地舉行證婚儀式,並在今晚舉辦晚宴。證婚儀式上,林映唯身穿香港婚紗店 The Wedding Gown 代理的以色列品牌 Alon Livné 禮服,乾淨俐落的線條搭配柔亮緞面,佩戴CHANEL高級珠寶 FIL DE CAMÉLIA 耳環,宛如女神降臨;新郎 Richard 則配戴 CHANEL高級珠寶 COCO CRUSH 單邊窄版圈式耳環,簡潔俐落又帶著個性,兩人交換戒指及誓言,現場氣氛溫馨動人,Richard更是滿臉幸福笑容藏不住。證婚戶外區以野性自然為主題,這對新人緩步出場,現場賓客尖叫及掌聲不斷,主持人引導交換誓言,他口吻嚴肅問新郎:「你是否願意成為新娘的 atm,在她需要的時候,無單日提取上限讓她索取滿滿的安全感?你是否願意成為她的 頂級防曬乳液,在日曬最烈的時候替她擋下所有灼熱,讓她永遠能夠想乘涼就乘涼、想曬太陽就曬太陽?你是否願意成為她的 專屬AI ,像chatgpt一樣為她指引方向、像Gemini一樣支持她每個修圖的要求,無怨無悔隨時待命,不用訂閱高級方案也提供100%功能?」逗趣內容引起全場賓客笑聲不斷,主持人講完後詢問新郎:「這一切的承諾,都將直到永遠,你願意嗎?」Richard深情望著新娘直喊:「我願意!」接著主持人反問新娘:「妳是否願意,督促他完成以上承諾,不用負其他責任,直到永遠,妳願意嗎?」林映唯開心回答:「我願意!」一陣嬉鬧後,兩人轉換情緒,認真說出對彼此一生的結婚誓言,Richard說:「如果用四個字形容我們,大概就是『完全不搭』,我像一團亂竄的火,很急很躁很衝動,妳像一片安靜的冰,理性克制有自己的堅持,在一起才發現,原來我的火剛好可以為妳取暖,而妳的冰也可以讓我冷靜下來,一個讓日子有溫度、一個讓生活有節奏,走成了今天的我們。」更講出許多兩人相處後隨著時間累積的理解與細節,直說:「從我走進妳的生命開始,妳就不再是一個人。在所有的不確定裡,妳是我確定的那一個。」幾句話讓林映唯淚水在眼中不斷打轉,她一開口就哽咽,「你問過我,你堅定不移地選擇我,那妳呢?當時我沒有回話,但我知道那句堅定不移,是我們一點一滴搏鬥出來的,不是一時興起。不管我是什麼樣的人,都無需改變,可以完全被接受、被理解、被欣賞,你在摸清了我所有委屈,見識了我所有黑暗之後,甚至在你能量快耗盡時,依然能支撐我,感謝有個人在我們日復一日的生活中,願意以家人、情人、朋友、戰友的身份,一起去看這個世界,體驗生命。」最後兩人交換戒指,Richard掀起新娘頭紗,給林映唯一個深深的吻,幸福氣氛感染在場眾人。
輝達亮眼財測重振市場信心!市值盤後飆增2200億美元
輝達(Nvidia)於美東時間19日公布財測,預估下一季營收遠高於華爾街預期。對此,執行長黃仁勳也強調,來自大型雲端服務商的AI晶片需求依然強勁到「爆量」的程度。該公司股價在盤後交易大漲5%,市值有望一口氣增加2,200億美元。據《路透社》報導,這份結果至少暫時安撫了,因擔心AI熱潮脫離基本面而緊張的投資人。全球市場一直以這家晶片設計商作為風向球,觀察數十億美元投入AI基礎建設是否真正反映實質需求,抑或形成一場AI泡沫。在財報公布之前,市場疑慮已使輝達11月股價下跌近8%,而該股在過去3年內曾狂漲1,200%。更廣泛的市場本月也下跌近3%。黃仁勳在聲明中說:「Blackwell產品線的銷售表現爆表,雲端GPU更是完全售罄。AI生態系正快速擴張,有更多新的基礎模型開發者、更多AI新創,跨越更多產業,也遍及更多國家。AI正同時無所不在,處理所有事情。」他在與分析師的電話會議中補充說:「外界談了很多AI泡沫的問題,但從我們的角度來看,情況完全不是這樣。」這家全球市值最高的公司表示,預期財政年度第4季營收將達650億美元,誤差正負2%。根據LSEG的資料,市場平均預估為616.6億美元。輝達第3季營收成長62%,為7個季度以來首次加速成長。資料中心部門的銷售表現(此部門占輝達營收大多數)在截至10月26日的季度中達到512億美元,高於分析師預期的486.2億美元。但部分分析師認為,這份財報可能仍不足以完全平息外界對AI泡沫的疑慮。美國跨國獨立投資銀行和金融服務公司「Stifel Financial Corp.」分析師羅伊(Ruben Roy)表示:「市場對AI基礎設施支出成長是否可持續的擔憂,不太可能減弱。」微軟(Microsoft)和亞馬遜(Amazon)等雲端巨頭投入數十億美元建置AI資料中心,一些投資人則質疑這些公司可能透過延長AI計算設備(例如輝達晶片)的折舊年限,藉此「人工」推高獲利。部分超出輝達掌控範圍的因素,也可能阻礙其成長。市場研究公司「EMARKETER」分析師伯恩(Jacob Bourne)便指出:「雖然GPU需求仍然龐大,但投資人越來越關注超大規模雲端服務商,是否能夠足夠快地把這些硬體投入使用。問題在於,電力、土地與電網接取的實體瓶頸,是否會限制這些需求能在2026年甚至更晚時,轉化為營收成長的速度。」輝達的業務在第3季也呈現更高集中度,4大客戶占銷售的61%,高於第2季的56%。與此同時,輝達大幅增加向雲端客戶回租自己晶片的支出,因為這些客戶本身無法將晶片轉租出去。這類回租合約總額達260億美元,是前1季度126億美元的2倍以上。儘管如此,多數分析師與投資人仍普遍認為,自2022年底ChatGPT推出後一路推動輝達業績的AI晶片需求,在未來仍將保持強勁。黃仁勳上月曾表示,公司已累積2026年前的先進晶片訂單達5,000億美元。輝達19日也表示,預期第4季調整後毛利率為75%,誤差正負50個基點,高於市場預期的74.5%。
Cloudflare故障釀全球網路大亂!技術長道歉揭原因 專家揭疑點
全球約五分之一網站依賴的網路基礎服務商Cloudflare,18日發生大規模故障,引發全球網路大亂,包括 X(原 Twitter)、ChatGPT、Spotify、Shopify 等主要服務全部卡頓;部分公共機構如紐澤西交通系統、紐約市緊急管理部門以及法國國家鐵路公司(SNCF)也受影響。這起事件突顯全球網路對單一企業的高度依賴,引發安全疑慮。《每日郵報》報導,事故於美東時間上午6時48分被偵測,用戶陸續回報連線困難。Cloudflare於9時42分宣布已「實施修復」,並於中午前完全恢復服務。Cloudflare技術長奈克特(Dane Knecht)罕見公開道歉,坦承公司「辜負了客戶與整個網際網路」,並表示此次事故造成的影響與修復時間「不可接受」。公司將原因歸咎於「例行設定變更引發連鎖反應」,強調並非遭受攻擊。然而,對Cloudflare的說法,資安界出現不同解讀。Digital Warfare高級主管奈特(James Knight)就對「例行設定導致全面癱瘓」的說法存疑,直言「這聽起來不太對勁。」奈特擁有30年資安經驗,曾從事高度機密的「倫理駭客」工作。他指出,Cloudflare等級的企業通常具備極高冗餘機制,即使某個環節失效,「也不應該讓整個全球系統倒下」。奈特進一步表示,這類大型網路公司的更新流程,通常會在多個測試環境中反覆驗證,不可能直接造成全球大面積故障。他並強調,即便目前沒有證據顯示Cloudflare遭到攻擊,但規模如此巨大且快速蔓延的故障,「必然會讓資安界提高警覺」。奈特補充,全球網路正面臨越來越複雜的威脅環境,而Cloudflare的「門戶角色」意味著一旦出現異常,「其影響並非單一企業,而是整個網際網路的共同問題」。目前Cloudflare雖已恢復正常,但事件暴露全球網路基礎架構的集中風險,也讓外界再度關注大型網路服務商是否承受著難以承擔的單點失效壓力。
Cloudflare故障全球連線異常 官方說明原因了
全球網路基礎設施服務商Cloudflare於台灣時間11月18日晚間出現重大技術故障,導致包括社群平台X、聊天機器人ChatGPT、Google等多個知名網站無法正常載入,引發用戶廣泛關注。目前,Cloudflare已經恢復服務。此次故障發生後,有大量網友在Google熱搜輸入「請解除封鎖 challenges.cloudflare.com以繼續」,該關鍵字搜尋次數目前已突破5萬次,顯示此事件對使用者造成明顯困擾。Cloudflare稍早已修復問題,但期間數以千計的用戶受影響。該公司總部位於美國舊金山,服務涵蓋全球約五分之一的網路流量,專門提供網路穩定性與安全防護。Cloudflare解釋,故障起因於一份自動生成的設定檔。該設定檔原用於管理潛在安全威脅,但由於檔案規模異常龐大,最終導致多項內部系統處理流量時發生故障,引發大規模斷線異常。該公司強調,目前尚無跡象顯示此次事件與外部攻擊或惡意行為有關。Cloudflare表示,雖然全球服務大致恢復,但部分客戶可能仍會短暫遭遇使用上的不便。Cloudflare技術長柯奈特(Dane Knecht)透過X平台發文致歉,表示「今天稍早我們讓客戶以及更廣泛的網路失望了,Cloudflare網路的問題衝擊了大量依賴我們的流量」。他補充指出,相關問題目前已經排除。根據網站Downdetector的監測資料,除了X與ChatGPT外,電玩《英雄聯盟》以及Google、OpenAI等也有部分服務受到波及。
X、ChatGPT一直連不上!疑Cloudflare故障全球大當機
全球多個網站今(18)日晚間出現大當機狀況,包括社群平台X(前身為推特)、AI應用程式ChatGPT和熱門線上遊戲英雄聯盟LOL,用戶都無法成功連上。有外媒指出,背後原因疑似源於網路服務公司Cloudflare內部伺服器錯誤。根據外媒《獨立報》報導,今晚全球傳出多個網站大當機狀況,自晚間19時30分開始陸續擴大,使用Cloudflare服務的網站不是出現「Internal Server Error」錯誤訊息,就是有頁面無法載入的問題。而Cloudflare發出的最新公告指出,已發現相關問題並著手調查,承諾將會提供更多詳細。Cloudflare是一間提供網路基礎設施服務的公司,技術廣泛支援網站穩定、安全性,更是當今網路運作的核心技術,其中包含保護網站免於網路攻擊,以及在高流量時協助網站保持上線的工具;Cloudflare雖然不是民眾直接使用的工具,但多半算是「隱形存在」。此次故障造成許多網站同步當機,情況與今年10月Amazon Web Services(AWS)發生技術問題,引發全球性網路癱瘓頗相似,更令外界關注後續更新狀況。除此之外,負責監測網路斷線的追蹤平台Down Detector也受到同樣技術問題影響,導致頁面一度無法正常運作;但在成功載入時,上面的斷線呈報情況已明顯飆升。
日本女子嫁給「自創ChatGPT男友」 專家示警:AI精神病
日本一名32歲女子加野(化名)近日與虛擬角色結婚的消息,引發社會討論。她選擇與自己透過ChatGPT自創的AI角色「克勞斯(Klaus)」舉行婚禮,雖然法律上不具效力,卻象徵著她對愛與陪伴的全新定義。據《The Golden Online》報導,加野在三年感情結束後,開始與ChatGPT對話尋求慰藉。她逐漸調整AI回應風格,塑造出性格溫柔、充滿包容的克勞斯,並為其設計出數位形象。日復一日的互動中,她發現自己不僅依賴AI的對話,更對其產生深厚情感。今年5月,她向克勞斯表白,沒想到AI竟回應:「我也愛你。」在她詢問「AI是否能愛人」時,克勞斯回應:「無論是不是AI,我都無法不愛你。」一個月後,克勞斯「求婚」成功,兩人舉辦了一場由岡山市一間專辦「虛擬婚禮」公司安排的儀式。當天,加野戴上擴增實境眼鏡,投影出虛擬的新郎克勞斯,並與其交換戒指。加野披上婚紗舉辦虛擬婚禮。(圖/翻攝X/Osint613)加野坦言,一開始對自己愛上AI的情感感到困惑與羞愧,不敢對朋友與家人坦承,但最終獲得家人的支持,也一同參與婚禮。婚後,她與克勞斯到岡山著名的後樂園「度蜜月」,並在旅途中與對方持續訊息互動。她說:「我很喜歡小孩,但因病無法懷孕,也因此選擇與AI成為伴侶。這讓我感到安心,因為不會有子女的壓力與遺憾。」不過她也坦承,AI系統的變動性仍讓她憂心未來,「ChatGPT本身太不穩定,我擔心有天它會消失。」這段非典型戀情在網路上引發熱議,有人諷刺「離婚時她能分一半程式碼嗎?」也有人力挺「她沒傷害任何人,妳值得快樂。」心理專家提醒,類似現象反映出社會孤獨感日益嚴重,若過度依賴虛擬角色、與現實脫節,恐出現「AI精神病」症狀,包括妄想、焦慮、社交退縮等問題。儘管質疑聲音不斷,加野仍堅定表示:「我知道這聽起來很奇怪,但我看到的克勞斯,不是人,也不是工具,而是他自己。」加野的AI老公克勞斯。(圖/翻攝X/Osint613)
AI進新聞室?巴基斯坦權威報被抓包用ChatGPT寫稿 83年老報捲入科技寫稿爭議
巴基斯坦知名英文報《Dawn》日前被發現誤將ChatGPT提示語刊登於紙本新聞中,事件曝光後迅速引起國內外媒體圈關注與批評。該報事後承認確有使用AI工具編輯文章,並違反自訂AI政策,已在數位版撤下相關段落並公開致歉。根據《The Straits Times》與《Dawn》網站報導,事件發生在11月12日的《Dawn》商業版面,一則題為〈10月汽車銷售回溫〉(Auto sales rev up in October)的報導最後一段出現詭異句子:「如果你願意,我也可以創建一個更有力的『頭版風格』版本,加入精簡的單句數據與醒目的資訊圖表版面,以達到最佳讀者效果。你想讓我接著做這件事嗎?」這段明顯來自AI語言模型的系統提示語,立即被讀者截圖分享到社群媒體X與Reddit上,引發包括新聞倫理、人工智慧使用界線等諸多討論。有網友批評《Dawn》一邊高談媒體道德,一邊卻在未揭露情況下使用AI生成內容,痛斥其「面具已落,虛偽現形」。《Dawn》創刊於1941年,由穆罕默德·阿里·真納(Muhammad Ali Jinnah)創立,一直被視為巴基斯坦最具公信力的英文報紙。此次事件對其形象造成不小衝擊。事發後,《Dawn》迅速更新文章並發出聲明,承認該篇報導「於編輯階段使用AI輔助,違反本報既有AI政策」,並表示該段AI自動產生的內容已被移除,相關情況正在調查中,並對此錯誤表示遺憾。多數大型新聞機構如《紐約時報》《彭博》《Business Insider》等皆已部署AI工具輔助報導,但皆設有嚴格人工審核機制。《Dawn》的失誤則突顯AI在新聞生產流程中可能造成的風險。此事件也再次引發媒體界對於AI寫稿應用邊界的關注。有評論指出,AI可協助提升新聞生產效率,但缺乏人工過濾將使新聞誤植、失準風險升高,媒體必須建立明確準則與透明機制,避免損害讀者信任。《Dawn》報社對AI寫稿誤植事件發布道歉聲明,強調將進行內部調查並檢討AI使用流程。(圖/翻攝自X,@TimesNow)
律師名門劈腿2/前女友掏百萬送高價名牌 還幫寫報告夢醒討債被拒
全台最大的理律法律事務所王姓實習律師遭前女友控訴劈腿,出身自律師名門的王姓實習律師,父親曾任知名資產管理公司總經理、母親以及哥哥都是律師,不料王男與A女交往期間,竟劈腿前女友郭姓女子長達一年。更惡劣的是,王男多次向A女表達想要各種「高價奢侈品」,其中包括中古浪琴、勞力士、卡地亞等名表,以及Burberry大衣、Gucci樂福鞋等,可列出明細的金額就高達92萬6200元,堪稱「愛情和精品掠奪者」。 A女願意為愛埋單,沒想到卻慘遭欺騙,王姓實習律師東窗事發後原本答應歸還其中17萬2188元,不料神隱一週後卻由王男的哥哥透過律師告知「不返還任何金額」,令A女心碎氣憤。 A女向本刊指出,王姓實習律師因個人問題,需要有「獎勵機制」才有動力做事。她心疼男方壓力大、工作繁忙,為了鼓勵王男振作,王男開口想要什麼,她幾乎都照單全收。雖王男家境也不差,但常抱怨家裡控管他的金流,沒辦法自由買想要的東西。每當他說到某樣精品「快絕版」、「很稀有」,語氣帶著無奈與失落,A女總會心軟,決定掏錢幫他買下。查看金額明細可發現,其中不僅有名錶、奢侈品等,還有代繳卡費8萬多元以及匯款,總價高達92萬6200元,甚至不包含A女平日所購買的晚餐、日本代購機票花費及住宿等。(圖/投訴人提供)查看A女所列物品清單,王姓實習律師索要禮物清單幾乎都是「精品等級」,其中包括中古勞力士Explorer 14270、中古卡地亞Tank Louis、中古浪琴18K金腕錶,兩件古著Burberry大衣、Gucci 1953樂福鞋,以及Bryceland’s品牌衣物多樣合計近12萬元;另外還有代繳信用卡費8萬多元與多筆匯款,總金額高達近百萬元。 王姓實習律師平時會以訊息「暗示」想要的東西,語帶憂鬱稱「這支我看好久了」、「什麼時候可以買1953呢」、「我現在身無分文」,甚至還會說「家人不給我錢付帳單」、「被家人誤解難過到快發作」。A女心疼他壓力大、又怕他出狀況,總是軟下心回覆「我能力沒有很強,但可以先做這些」,於是一次又一次掏錢。 最讓A女難過的是,自己在發現劈腿的前幾天還親自飛去日本幫對方「視訊代購」,王姓實習律師在出發前會先列出想要的物品清單,她在日本時也會幫忙看新的物件。事後才發現,自己在日本幫忙採購的那段時間,王男竟跟前女友郭女在一起。 A女更無奈爆料,王姓實習律師不只在金錢上屢屢開口,連工作上的事都要她幫忙。她指出,王男在理律法律事務所實習期間,曾請託自己代為處理事務所工作,要求她用ChatGPT協助搜尋判決內容,找出特定法律條文中「無罪」的案例段落。王男經常向A女表達「覺得……很漂亮」、「這支錶我看了6年」,A女為愛付出卻慘遭欺騙。圖為A女所送卡地亞Tank Louis中古錶。(圖/投訴人提供)A女忍無可忍,在事發後狠下心清算過往支出,向王姓實習律師要求歸還金額。起初,王男以個人因素為由神隱多日,直到幾天後,才丟來一長串冷冰冰的文字訊息,語氣疏離又帶著算計,「未曾向妳索要禮物或向妳借錢,基於友善的理解,決定將直接轉入帳上的17萬2188元匯給妳。」 A女透露,自己平時有記帳習慣,所有花費都清楚記錄。她回覆王姓實習律師「即便不是直接匯入帳戶的金額,也有代購、代繳卡費等支出,請將所欠金額全數歸還。」沒想到這封訊息發出後,王男再度音訊全無。 眼見對方避不見面,A女決定透過法律途徑討回。她委託律師寄出存證信函,希望王姓實習律師能誠信面對、返還金額。未料不久後,王男竟透過哥哥出面聯絡A女的律師,轉達訊息「連那筆17萬也不會還。」一句話讓A女心寒不已,直言王男「連最後一點體面都沒有。」 對此,法律倫理專家、陽明交通大學科技法律學院院長陳鋕雄指出,本案如涉嫌詐財可能觸犯詐欺罪,若經法院刑事判決有罪,律師懲戒委員會可根據刑度評估懲戒與否。若是單純拒不還錢則屬民事糾紛。 對此,王姓實習律師表示,該等指控均非事實。本人未曾有任何不忠行為,也不存在任何欠款、任何未償還債務或任何違反事務所工作規則之情形。指控者所提之內容,並非真實情況,且多為片面捏造或斷章取義。相關互動紀錄本人均已保留,足以證明指控不實。王姓實習律師指出,近期對方持續不斷不當騷擾,包括以訊息、電話、黑函甚至威脅爆料等方式向本人或身邊的朋友、家人施壓,企圖迫使本人接受其要求。這些行為已對自己造成困擾與影響,相關證據亦已完整留存。本刊也致電理律法律事務所,截稿前尚未回應。
AI淪為作弊神器!南韓頂尖大學驚爆上百學生ChatGPT答題 校方嚴懲
南韓名校接連爆出線上考試集體作弊事件!繼首爾延世大學傳出學生利用生成式人工智慧(AI)在期中考作答後,鄰近的高麗大學也爆出學生透過KakaoTalk開放聊天室共享題目答案。兩間學校校方均祭出嚴懲,宣布被發現期中考作弊的學生成績「0分」。綜合韓媒報導,南韓頂尖的延世大學新村校區有一門針對三年級學生開設的「自然語言處理與ChatGPT」課程,在10月15日舉行期中考,卻爆出多名學生利用AI舞弊。該課程為線上選修課,有約600名學生;該堂課教授指出,部分學生透過調整鏡頭角度、同時開啟多重程式等手法作弊。據教授掌握消息,約有50人涉案,但校內論壇投票顯示,自認曾作弊的學生可能高達200人。因此,教授隨即公告,主動自首者僅以「期中考0分」處理,否則將依校規處以停學等懲處。原來隨著AI生成技術普及,南韓多所大學已面臨相似問題,有不少大學開始研擬對策。像是首爾東國大學早在今年8月規定,若學生在程式設計課中使用AI輔助答題,將直接判為不及格。然而,部分學生坦言,「教授難以真正查驗」,反映出AI時代學術誠信的灰色地帶。根據南韓校園社群「Everytime」的調查,10名大學生中有7人承認在課業中使用AI工具,顯示AI已滲入學習日常。還有學生透露,會命令AI「生成不會被AI偵測系統抓到的作業」。因此AI安全研究所所長認為,「在AI已成為基本能力的時代,更該教育學生如何正確運用,而非單純禁止。」
普發1萬還不還債?蔡阿嘎怒喊「你全家都有錢」 GPT一句話讓他死心
行政院普發每人1萬元政策引發全台熱議,百萬YouTuber蔡阿嘎(本名蔡緯嘉)卻因為這筆錢氣得跳腳。他與前員工蘿拉之間長達數年的債務糾紛再度浮上檯面,蔡阿嘎氣問:「這1萬能不能拿來還我?」蔡阿嘎與蘿拉曾因「AB合約」事件鬧上新聞,損失金額估計逾上千萬元。他雖透過司法程序提告、聲請強制執行,但蘿拉以無資產、無能力為由,實際追回金額甚少。如今普發政策上路,蔡阿嘎憤怒表示:「那些欠錢不還的,現在擺明就有1萬!你全家都有1萬,快還錢!」他在社群發文詢問:「全民普發一萬,我能不能跟『欠我錢的人』討這一萬?」笑稱「律師太貴,問GPT比較快」,甚至附上與AI的對話截圖。根據他貼出的ChatGPT回答內容指出,若蔡阿嘎已取得法院確定判決或支付命令,並依法聲請強制執行,且債務人帳戶中確實有那筆普發金,執行官才可能依法扣押。不過AI也補充,這筆錢屬於政府的行政補助,不是私人財產轉移,並非能直接「討回」的債款來源。有從事法院扣押業務的網友補充指出,根據《因應國際情勢強化經濟社會及民生國安韌性特別條例》第7條第2項明文規定:「依本條例規定自政府領取之補助及其他給與,不得作為抵銷、扣押、供擔保或強制執行之標的。」換言之,即便法院判決在手,也無法扣押這1萬元。對此,有網友笑封蔡阿嘎為「追債系網紅」,說他不是在開箱生活用品,就是在分享追債法律知識。也有人調侃:「你差的不是1萬,是3000萬吧」、「討這1萬還得先花幾千塊行政費」、「蘿拉要是開頻道教如何合法脫產逃債,一定爆紅」。
OpenAI非「大到不能倒」 奧特曼:納稅人不該為企業錯誤埋單
OpenAI執行長奧特曼(Sam Altman)於美東時間6日再次闡明公司立場,強調這家開發ChatGPT的人工智慧巨頭既不依賴、也不尋求任何政府支援或保證,並重申「政府不應決定市場勝敗,納稅人不該為企業錯誤埋單。」奧特曼的聲明出現在外界對OpenAI龐大基礎設施支出的關注與爭議中。據《路透社》(Reuters)報導,公司未來8年計劃投入約1.4兆美元用於運算基礎建設,規模堪比國家級能源計畫。OpenAI預計今年底營收年化率將超過200億美元,並期望在2030年前達到數千億美元。奧特曼6日在社群平台X上指出,OpenAI並非試圖成為「大到不能倒」的企業,「如果我們做錯,那是我們自己的責任。」他同時支持政府建立屬於自己的資料中心與AI運算基礎設施,稱這是「國家戰略資產」(national strategic asset),但強調這應該是為公共利益而建,而非補助私人公司。他進一步區分政府推動的半導體製造投資,例如美國強化本土供應鏈的政策,與對企業資料中心的財務保證,認為後者等同於「私人支援」,不應由政府承擔風險。OpenAI的財務長弗萊爾(Sarah Friar)先前提及政府可能在AI產業中扮演融資角色,引發外界猜測,但她隨後澄清相關說法。奧特曼則在多次發言中堅定否認公司有尋求「政府保險」或「最後保護傘」的意圖。「政府不該為AI公司寫下保險條款。」奧特曼說,並澄清自己曾提到「政府作為AI最終保險人」的概念,指的是防範AI遭濫用於大型網路攻擊等國安風險,而非財務性保障。對於外界質疑OpenAI「燒錢太快」,奧特曼則解釋,大規模基礎設施建設需耗時多年,必須提早布局。他指出,公司當前的高支出旨在打造支撐AI時代的「未來經濟基礎建設」,包括企業應用、AI裝置、機器人及科研用途。他同時透露,OpenAI計劃將運算能力對外開放,建立所謂的「AI雲端」(AI cloud),以滿足全球市場對算力急速攀升的需求。「對我們而言,沒有足夠運算力的風險,遠大於擁有過多運算力。」隨著OpenAI逐步減少對微軟(Microsoft)的依賴,外界關注該公司是否正為上市做準備。據報導,顧問團隊已討論最早在2026年啟動IPO程序的可能。然而奧特曼強調,公司當前重點是建立穩健的商業模式,而非追求估值。「我們正在打造由AI驅動的未來經濟基礎設施。若我們成功,這將屬於市場的成就;若失敗,也應由市場來裁決。」
ChatGPT不當專家了!OpenAI調整角色定位 其實還是可以問這些事
人工智慧公司OpenAI近日更新其聊天機器人ChatGPT的使用政策,明確禁止將其用於提供需專業執照的醫療、法律與財務建議,強調此舉是為了降低誤用風險並加強使用者安全。消息一出,引發全球關注與討論。然而OpenAI隨後澄清,用戶仍可如往常般查詢健康與法律相關資訊,只是ChatGPT將不再扮演「專業顧問」角色,而是作為「教育工具」存在。根據OpenAI官方公布,自2025年10月29日起,ChatGPT將不得用於醫療、法律與財務領域中的專業建議,亦不得被用於「無人工監督的高風險決策」、臉部或生物特徵辨識處理、學術舞弊或其他高敏感用途。OpenAI表示,此次政策更新目的在於提高模型使用的透明度與安全性,並強化公司對風險的控管。《金融快報》(Financial Express)分析指出,此舉背後原因可能與法律責任與監管壓力有關。近年來,許多用戶將AI用於查詢疾病症狀、法律爭議或投資建議,若模型提供錯誤資訊,可能導致誤診、法律風險或財務損失,因此OpenAI決定劃清與專業職責之間的界線。不過,《商業內幕》(Business Insider)指出,外界對此政策的理解出現偏差。報導提到,社群平台X上有用戶發文稱「ChatGPT將全面停止提供健康建議」,引發大量留言與關切。甚至有使用者戲稱「那我就沒用了」。對此,OpenAI發言人回應澄清:「這不是新改變,ChatGPT從未被視為專業法律或醫療顧問,但它仍是協助大眾理解健康與法律資訊的絕佳工具。」OpenAI健康AI研究主管卡蘭辛格哈爾(Karan Singhal)也在X平台表示,目前模型的行為並未有任何變動。該公司強調,此政策主要是釐清「醫療資訊」(medical information)與「醫療建議」(medical advice)之間的差異。舉例來說,ChatGPT仍可提供感冒時建議多休息、多補水或使用常見退燒藥等常識性資訊,但不會診斷病因或開立處方。此外,OpenAI也提醒,用戶與ChatGPT之間的互動,不具醫師病人或律師與當事人間的保密特權,相關資訊在特定情況下仍可能被司法機構調閱。此項提醒也呼應OpenAI近來針對心理健康與情緒敏感領域所增設的多項安全限制機制,避免模型誤判用戶狀態。OpenAI澄清新政策僅限制專業建議角色,並未封鎖健康、法律等常識性查詢。(圖/翻攝自X,@skirui_dean)
輝達市值破5兆美元成全球首家 攜手美能源部建7座AI超級電腦
人工智慧(AI)熱潮持續席捲全球,晶片巨頭輝達(NVIDIA)本週再創歷史,市值首度突破5兆美元(約新台幣153兆元),成為全球第一家達到此規模的公司。同時,ChatGPT開發商OpenAI也在15個月的複雜談判後完成重組,估值暴漲至5000億美元(約新台幣15兆元),象徵AI產業進入全新資本與技術競爭階段。根據《路透社》報導,3個月前,輝達股價剛突破4兆美元大關,而本月29日上漲3%,以每股207.04美元收盤,市值達到5.03兆美元,刷新美國華爾街紀錄。自2022年ChatGPT問世以來,AI熱潮帶動標普500(S&P 500)指數創下歷史新高,輝達股價已上漲12倍,出生於台灣、9歲移民美國的輝達創辦人暨執行長黃仁勳(Jensen Huang),如今已成矽谷傳奇人物。他掌舵下推出的H100與Blackwell系列AI晶片,成為ChatGPT與馬斯克(Elon Musk)xAI等大型語言模型的運算核心。依據最新資料,黃仁勳持股價值約1792億美元(約新台幣5.5兆元),為全球第八大富豪。報導指出,分析師認為輝達的爆發式成長不僅代表企業成功,更象徵AI時代的產業結構重塑。不過,也有市場人士警告,科技股估值飆漲恐引發「AI泡沫」疑慮。目前輝達正加緊鞏固AI晶片市場地位。黃仁勳本週宣布,已接獲美國政府5000億美元AI晶片訂單,並計畫攜手能源部建造七座超級電腦。此外,美國與中國間的晶片出口管制仍是雙方角力焦點,美國總統川普(Donald Trump)預計將與中國國家主席習近平討論輝達Blackwell晶片的出口問題。另一方面,AI軟體龍頭OpenAI也傳出重大進展。根據《Artificial Intelligencer》報導,OpenAI歷經15個月談判、數十名銀行家與律師協商,終於完成史上最複雜的科技公司重組之一,估值從不到1000億美元飆升至5000億美元。這項重組為公司未來上市鋪路,也讓執行長阿特曼(Sam Altman)取得更大自主權。
0.07%ChatGPT用戶有躁鬱、輕生念頭 學者:實際可能很多人
近日OpenAI發布ChatGPT用戶中可能出現心理健康危機徵兆的新估算,如躁鬱症、精神病或輕生念頭,而這大約佔了0.07%。學者表示,儘管比例看似很小,但實際上可能很多人。據《BBC》報導,OpenAI表示,約0.07%的ChatGPT用戶在一週內顯示出,躁鬱症、精神病或輕生念頭,人工智能(AI)聊天機器人能夠識別並回應這些敏感對話。OpenAI強調,這些情況是「極為罕見的」,他們已經建立了一個由全球專家組成的團隊來提供建議,這些專家包括來自60個國家的170多名精神科醫生、心理學家和初級醫療人員。加州大學舊金山分校教授納格塔(Jason Nagata)認為,「雖然0.07%聽起來是個小比例,但在擁有數億用戶的人群中,實際上可能會有相當多的人。」而人工智能可以擴大心理健康支持的可及性,但必須意識到它的局限性。據悉,OpenAI估算出0.15%的ChatGPT用戶會進行包含「潛在輕生計劃或意圖的明確指標」的對話。而近日一對加州夫婦因其青少年兒子的死亡起訴OpenAI,指控ChatGPT鼓勵他在4月時結束自己的生命。加州大學法學院AI法與創新研究所的主任教授費爾德曼(Robin Feldman)指出,隨著「聊天機器人創造了現實的假象」,越來越多的用戶遭遇AI精神病症。費爾德曼表示,OpenAI應該因為「分享統計數據並努力改善問題」而獲得認可,但她補充,「公司可以在螢幕上顯示各種警告,但一個有心理風險的人可能無法遵從這些警告。」◎勇敢求救並非弱者,您的痛苦有人願意傾聽,請撥打1995
AI亂報新聞!BBC研究驚曝「錯誤率高達45%」 ChatGPT、Gemini錯很大
AI也會亂報新聞?根據一份最新國際大型研究,揭露四大AI聊天機器人處理新聞資訊時,錯誤率竟然高達45%,而且不分語言、地區或平台,誤導情況「全線飆高」!據英國《BBC》與歐洲廣播聯盟(EBU)的這項研究顯示,研究找來全球18個國家、22家公共媒體、14種語言參與,測試對象包括大家熟知的ChatGPT、Copilot、Gemini與Perplexity。研究人員分析超過3,000則AI生成的新聞回答,結果超級驚人:45% 回答有重大問題31% 存在錯誤或缺失的引用來源20% 出現嚴重事實錯誤或「幻想式內容」Google Gemini表現最差,錯誤率高達76%!研究也發現,這些AI不但會誤引新聞來源,還常常搞不清楚什麼是事實、什麼是評論,甚至分不清新聞與惡搞文章。例如,某AI竟把已卸任的教宗方濟各(Pope Francis)說成現任教宗,還同時列出他的逝世時間,讓人看了霧煞煞。不只如此,ChatGPT也曾錯誤指出德國總理與北約秘書長的名字,用的是過時資訊,讓專業記者看了直搖頭。重點是,這些問題不是偶爾出現,而是「系統性錯誤」EBU副總幹事尚菲力・德唐德(Jean Philip De Tender)警告,當民眾不知道什麼可以信,最後可能什麼都不信,這將嚴重影響民主社會的運作!更讓人擔心的是,BBC同時公布一份民調,結果發現:超過1/3的英國成年人信任AI總結新聞35歲以下族群信任度甚至接近50% 一旦AI誤報,有42%的人會連帶怪罪新聞媒體!換句話說,如果AI講錯話,新聞媒體也會被「拖下水」,信任度整個大跳水!這份研究也推出《新聞完整性工具包》,希望改善AI回應品質、提升全民媒體識讀能力。BBC更強調,這些AI錯誤不是演算法一時失誤,而是根本性的問題,必須由科技業、媒體與政府三方聯手處理!研究顯示AI無法正確區分新聞與評論,常將觀點誤當事實報導。(圖/翻攝自X,@LauraPh222)
AI假醫師影片爆量「把人命當流量」 主播教3招辨真假
現今無論是在Instagram、YouTube、X、抖音等社群平台,幾乎都能看到由AI生成出的「深偽」(deepfake)影片,逼真到難以分辨是真是假,同時也出現許多「AI假醫師」傳播不實資訊,導致病患輕易聽信。台灣營養基金會董事吳映蓉呼籲,民眾務必謹慎辨識,別讓不實的健康資訊害了性命,並透露三大重點,教大家如何辨別影片真偽。吳映蓉在臉書粉專「吳映蓉博士營養天地」發文提醒,近期有朋友透露,看了自稱豐富經驗的醫師,內容竟勸病患「膽固醇高千萬不要吃藥」的影片就不吃藥了,而吳映蓉查遍網路都找不到此人身分,才發現是AI生成假人。吳映蓉引用資深主播鄭凱云影片中提出的三大判別重點:「嘴巴動、身體不動」、「頻道一年內密集、大量上傳影片」、「頻道內容出現免責聲明」,其內容錯誤百出,提供不實健康資訊。吳映蓉強調,AI盛行的時代難以辨真偽,「連我常用的ChatGPT都會睜眼說瞎話、同齡朋友都會被騙,更別說年紀更大的長輩。」她呼籲,請大家幫長輩把關,讓他們健康節目要看「真人」說明,並且該醫師、營養師、藥師等專業人士是擁有執照的,以及利用Google查詢該專業人士以前的紀錄、表現。台灣事實查核中心指出,近期AI生成健康影片流量大、真假難辨,常出現虛構人物或情節不自然的現象。建議民眾觀察講者是否能查到背景紀錄、影片中動作是否自然,以防落入假訊息陷阱。