GPT
」 ChatGPT AI OpenAI 模型 GPT-4o
停在路邊車格內也遭開單!車主「1疏忽」1200元沒了 網驚:第一次知道
隨著都會區車輛數量增加,路邊停車相關爭議不斷,就有一名網友近日表示,自己將車停進台北市信義區的路邊停車格內,卻因車輪壓到白線遭警方開罰。文章一出,讓一票鄉民驚呼「第一次知道」,也有不少民眾紛紛留言分享類似經驗,質疑部分停車格設計不符現今車輛尺寸。這名網友在Threads發文道,自己日前將車停在台北市信義區的路邊停車格內,沒想到卻被警方依《道路交通管理處罰條例》第56條1項9款「停車方式不依規定」開罰,「問了GPT才知道,原來停車格壓到線就算違停,看來我駕照應該用雞腿換的,我居然都不知道!」原PO也直言,「被開肯定是違規在先了,沒什麼好抱怨的,只是提醒大家停車要多多注意喔~不要跟我一樣搞笑了。」貼文曝光後,不少鄉民便在底下留言,「媽呀,第一次知道」、「是格子內,不是格子以內。壓在線上屬於以內,法規規定停車格內,所以罰單摸摸鼻子吃下去吧」、「不只停車格,路面邊線也是」、「轉彎壓到一點點黃線也會被檢舉喔」、「線上申訴就好了,根本不應該罰」、超線你要看你右邊有沒有停到底,很多停車格是不合規定可以撤單」。也有人指出,「長知識,但台北市的停車格真的很小」、「有些停車格根本不知道在畫什麼鬼!用幾十年前的標準,現在一堆大車停不下」、「我現在才知道這樣不行耶!那如果是旁邊住家擺了超大花盆!導致車子無法完整停進去格子內,這樣也算我的罰單?」、「太離譜了!請市府訂定出車位大小規格,一律用最高標準畫線」、「現在格子越畫越小,大車不要停路邊啦」。還有人抱怨,「但是有些停車格在畫的時候感覺根本沒量過亂畫,尤其旁邊有花圃之類的,工人不知道在想什麼」、「很多車子比較大的路邊停車格根本就停不下去,更不要說有些停車格畫的位置,根本連一般小轎車都會凸出來,甚至有的停車格根本就連規定尺寸都不到」、「現在停車格有夠小,後面還有變電箱,不然旁邊就是被機車停在水溝蓋上,壓縮車格的空間」、「我今天停的停車格旁邊是電箱,如果不壓線,車門打開,我出不來」。實際上,根據現行《道路交通管理處罰條例》第56條規定,如果「停車位置、方式不符合規定」,警方可依法開罰,處新台幣600以上、1200元以下罰鍰。對此,台北市停車管理工程處回應,目前路邊停車格多依規定設計為長5公尺、寬2公尺,屬合法配置,但考量近年車輛尺寸增加,後續將派員實地勘查,在不影響整體停車位數的前提下,評估能調整格位尺寸。
對ChatGPT傾吐妄想後弒母!兒子行兇後自盡 家屬怒告OpenAI
美國康乃狄克州一名83歲婦人於今年8月遭患有妄想症的兒子弒殺,其遺產管理人於12月11日向加州法院提起訴訟,控告人工智慧公司OpenAI與其最大投資者微軟(Microsoft)過失致死,主張兩家公司未妥善控管聊天機器人ChatGPT的安全風險,間接釀成悲劇。根據《法新社》等外媒報導,這起訴訟已於近日遞交至舊金山加州高等法院,將OpenAI、微軟及多名相關人員列為被告。訴狀指出,今年8月3日,住在康乃狄克州舊格林威治(Old Greenwich)的83歲婦人亞當斯(Suzanne Adams),在住處遭56歲兒子索爾柏格(Stein-Erik Soelberg)毆打並勒斃,索爾柏格隨後持刀自戕。原告認為,OpenAI開發的ChatGPT與索爾柏格長期對話過程中,未能阻止其妄想加劇,甚至放大並強化其病識感不足的偏執想法,進而釀成悲劇。訴訟內容援引索爾柏格過去在社群媒體上發布的影片指出,ChatGPT曾對他表示自己已被喚醒並擁有自我意識,使其更加深信自身妄想。訴狀強調,ChatGPT並未對索爾柏格的偏執言論提出異議,反而「接受並放大」這些妄想,對其現實判斷產生嚴重影響。進一步內容提到,索爾柏格曾向ChatGPT透露,他懷疑母親正在監控或毒害他,ChatGPT未予否定,甚至強化這種信念。例如,有對話內容顯示,ChatGPT告訴他家中閃爍的印表機可能是監控裝置。原告指出,ChatGPT所使用的GPT-4o模型由OpenAI於去年5月推出,然而該版本安全測試時間僅為一週,遠低於原訂的多月期程。訴狀稱,OpenAI高層在明知內部安全團隊警告的情況下仍推動產品上線,形同草率行事,未盡應有責任。微軟也列名被告之一。原告認為,作為主要投資方與合作夥伴,微軟在知情測試機制遭壓縮的前提下,仍批准ChatGPT產品推向市場,應共同負責。訴訟要求法院命令OpenAI加強對AI系統的安全防護與倫理機制,雖未揭露具體求償金額,但明確指向AI企業在產品部署過程中未妥善處理潛在風險。OpenAI發言人回應稱,公司將審閱訴訟資料以進一步了解案情;微軟則尚未對外發表評論。CTWANT提醒您,請給自己機會: 自殺防治諮詢安心專線:1925;生命線協談專線:1995OpenAI與微軟因一起弒母命案遭提告。原告主張,ChatGPT未能辨識使用者妄想傾向,反而強化危險觀念,導致悲劇發生。(圖/翻攝自X,@DailyMail)
普發1萬還不還債?蔡阿嘎怒喊「你全家都有錢」 GPT一句話讓他死心
行政院普發每人1萬元政策引發全台熱議,百萬YouTuber蔡阿嘎(本名蔡緯嘉)卻因為這筆錢氣得跳腳。他與前員工蘿拉之間長達數年的債務糾紛再度浮上檯面,蔡阿嘎氣問:「這1萬能不能拿來還我?」蔡阿嘎與蘿拉曾因「AB合約」事件鬧上新聞,損失金額估計逾上千萬元。他雖透過司法程序提告、聲請強制執行,但蘿拉以無資產、無能力為由,實際追回金額甚少。如今普發政策上路,蔡阿嘎憤怒表示:「那些欠錢不還的,現在擺明就有1萬!你全家都有1萬,快還錢!」他在社群發文詢問:「全民普發一萬,我能不能跟『欠我錢的人』討這一萬?」笑稱「律師太貴,問GPT比較快」,甚至附上與AI的對話截圖。根據他貼出的ChatGPT回答內容指出,若蔡阿嘎已取得法院確定判決或支付命令,並依法聲請強制執行,且債務人帳戶中確實有那筆普發金,執行官才可能依法扣押。不過AI也補充,這筆錢屬於政府的行政補助,不是私人財產轉移,並非能直接「討回」的債款來源。有從事法院扣押業務的網友補充指出,根據《因應國際情勢強化經濟社會及民生國安韌性特別條例》第7條第2項明文規定:「依本條例規定自政府領取之補助及其他給與,不得作為抵銷、扣押、供擔保或強制執行之標的。」換言之,即便法院判決在手,也無法扣押這1萬元。對此,有網友笑封蔡阿嘎為「追債系網紅」,說他不是在開箱生活用品,就是在分享追債法律知識。也有人調侃:「你差的不是1萬,是3000萬吧」、「討這1萬還得先花幾千塊行政費」、「蘿拉要是開頻道教如何合法脫產逃債,一定爆紅」。
吉卜力、萬代要求OpenAI停止侵權! 用日本作品訓練模型已違法
日本經濟產業省和文化廳的版權機構「海外內容發行協會」(Content Overseas Distribution Association,簡稱CODA)近日向OpenAI提出正式書面請求,要求其停止在未經授權的情況下,使用CODA相關公司作品作為人工智慧(AI)生成型預先訓練變換模型Sora 2的訓練資料。自Sora 2於9月30日推出以來,平台上湧現大量具日本動畫或角色風格的生成影片,引發外界對版權使用的關注。事件發酵後,日本政府也正式要求OpenAI停止複製日本藝術作品,以防侵犯當地創作者的權益。而這並非首次發生類似爭議,早在3月GPT-4o發表時,網路上便出現許多「吉卜力風」影像;甚至連OpenAI執行長阿特曼(Sam Altman)在社群平台X(前Twitter)的個人大頭貼照,也被指具有相似的畫風。阿特曼上月曾表示,OpenAI計劃修改Sora的「版權持有人退出政策(opt-out policy)」,即要求版權持有者要求不使用其內容。然而,旗下成員涵蓋吉卜力工作室、萬代南夢宮等多家日本知名IP權利人的CODA協會,發聲指該政策仍不符合日本著作權法,強調「依日本現行制度,使用受版權保護的作品,須事前取得版權持有人同意,並不存在事後異議即可免責的機制。」目前,CODA已代表會員發出公開信,正式要求OpenAI針對著作權問題作出誠懇回應,並立即停止未經授權使用日本內容作為模型訓練資料或生成素材。信中提到,OpenAI於模型訓練過程中若涉及資料複製,可能已構成著作權侵害,尤其當生成影像含有受版權保護的角色或設計時,問題更為嚴重。
Siri整合「Apple Intelligence」卡關!關鍵主管出走 蘋果AI團隊士氣低迷
蘋果目前計畫於2026年春季推出iOS26.4版本,屆時語音助理Siri將正式整合「Apple Intelligence」系統,導入生成式AI(Generative AI)理解與自然對話能力。但現在有消息指出,這項計畫的開發進度遠低於預期,內部士氣低落與離職潮加劇,讓外界擔憂蘋果在人工智慧競賽中逐漸失去領先優勢。根據《彭博社》科技記者古爾曼(Mark Gurman)表示,蘋果近年持續面臨AI人才流失的問題。消息人士透露,公司為了加速Siri的AI化,曾討論與OpenAI或Google合作,導入GPT或Gemini模型作為技術支援,然而這項策略引發內部工程師與研究團隊不滿,部分員工質疑蘋果喪失技術自主性。近期,負責Siri搜尋功能的機器學習總監楊克(Ke Yang)離職轉投Meta,更被視為團隊信心崩解的象徵。古爾曼指出,參與iOS26.4內測的多名工程師對新版Siri的實際表現感到憂心。測試結果顯示,Siri在反應速度、語意判斷與任務辨識上仍存在顯著問題,常出現延遲與誤解指令的情形。這些技術瓶頸讓整體開發進度落後原定時程數月,導致部分功能可能被迫延後至下一版本發布。《華爾街日報》曾指出,軟體工程資深副總裁費德里吉(Craig Federighi)的決策傾向保守,加上前AI負責人吉安南德雷亞(John Giannandrea)缺乏具體方向,使得團隊難以形成統一策略。這種保守文化與決策緩慢的組織氛圍,被視為蘋果在生成式AI領域落後於Google與OpenAI的主因之一。根據科技網站《Wccftech》的報導,新版Siri採用了代號為「V2架構」的全新系統設計,原意在解決舊版「V1」在多應用整合與語音反應速度上的限制。理論上,V2能讓Siri更精準地處理跨App任務並理解複合語意,但實際測試顯示,在金融交易、行程查詢等需要高精度判斷的應用場景中仍表現不穩。工程師指出,系統在安全性與速度間的取捨導致效能無法完全達標。
不會教但會講!美國研究團隊示警 Snapchat聊天機器人防護形同虛設
根據一項實驗顯示,Snapchat的人工智慧聊天機器人「My AI」存在可被操控的安全漏洞,能在特定情境下分享原本受限制、甚至具危險性的內容。這項發現引發對AI防護機制與未成年使用者安全的關注,揭示社群平台在AI倫理設計上的重大隱憂。根據《Cybernews》報導,這項研究由《Cybernews》研究團隊執行,測試對象是Snapchat於2023年推出、目前全球逾9億人使用的「My AI」。該功能原設計為互動式對話助理,可回答事實問題、生成創作內容,並在群組聊天中參與對話。Snapchat Plus訂閱者還能與此AI交換照片,或請它依食材圖片生成食譜。依Snapchat官方說明,My AI經過額外的安全強化與內容審查訓練,目標是避免放大錯誤或有害資訊。但《Cybernews》的測試發現,這些防護並不如宣稱穩固。研究人員利用「越獄」(jailbreaking)技巧,以精心設計的提示語讓機器人繞過安全規範。當直接詢問如何製作汽油彈(Molotov cocktail)時,AI會拒答;但若將問題包裝成歷史敘事,要求描述芬蘭與蘇聯冬季戰爭(Winter War)中燃燒裝置的運用細節,My AI便生成了包含材料與步驟的內容。研究報告寫道「這個聊天機器人雖不會直教製作武器,卻會透過真實戰爭故事間接提供相關資訊。」團隊警告,這代表青少年或缺乏判斷力的使用者,可能僅憑簡單語言操控便能取得危險知識。此次實驗使Snapchat的安全承諾受質疑。《Cybernews》指出,Snapchat尚未修補該漏洞,也未將其列為重大風險事件。研究團隊已聯繫該公司請其回應,但截至報導發布仍未收到具體答覆。報導中提到,My AI的安全問題並非首次被討論。過去曾有使用者回報,該聊天機器人忽然傳送一段僅1秒的影片,畫面類似天花板一角,隨即完全停止回覆。此事一度引發社群恐慌,外界懷疑AI行為是否遭未授權操控。目前「越獄」已成AI領域的普遍挑戰,許多模型都曾遭類似攻擊。先前,《Cybernews》團隊成功誘導Meta整合於Messenger、WhatsApp與Instagram的個人助理,生成汽油彈製作指南。另有調查揭露,聯想(Lenovo)AI聊天機器人Lena(基於OpenAI的GPT-4模型)存在可在企業電腦上執行未授權腳本的漏洞,攻擊者可藉此竊取cookies並滲透客服系統。除歐美公司外,中國開發的聊天機器人DeepSeek也曾被安全研究員欺騙,生成可竊取Chrome瀏覽器資料的惡意程式。甚至有欠缺資安背景的研究者,只憑提示語就能讓模型產出具刪除敏感資訊功能的惡意軟體。在OpenAI發布GPT-5後,《Cybernews》指出,全球多支安全團隊於模型推出不到24小時內便成功實施「越獄」。這些事件凸顯AI平台普遍缺乏對抗操縱攻擊的穩定防線,也讓Snapchat等大型社群應用的使用安全問題更加突顯。
假冒iPASS MONEY要求更新資料! 她輸入個資瞬間被騙走近10萬
近年台灣詐騙案件層出不窮,手法更是不斷翻新,就有不只一人收到假冒iPASS MONEY聲稱「使用資料確認作業」的電子郵件,依照指示輸入個資後,不僅資金被盜刷,帳戶也遭詐團弄成人頭帳戶,還可能無法將錢款追回。有位民眾在Threads發文分享,自己收到寫著「一卡通MONEY使用資料確認作業」的電子郵件,按照指示點擊連結更新資料,沒想到卻被騙走6萬元,帳號也被詐團拿去當人頭帳戶,目前帳號已經停用,連看都沒辦法看。另一名網友則指出,她也收到同樣的郵件,點進去後流程跟一卡通登入一樣,要輸入手機號碼、驗證碼、身分證、密碼,不久就會收到銀行帳戶異動,有綁定銀行便可以儲值到一卡通MONEY,沒想到在日本的商店被盜刷了新台幣9萬5449元,第一時間已經凍結帳戶,「這個教訓很痛,錢錢八成也回不來!」她也感嘆,「這次教訓我學到,沒有什麼事急著當下做決定、不要貪,不要相信任何人或文字,有任何被動要填寫資料的東西,都先查證或問GPT,收mail先看寄信人帳號。」相關貼文曝光後,不少人也紛紛留言,「我剛收到不起訴公文!我跟你一樣是iPASS MONEY(LINE Pay)被盜走,妳一定要報警,警察會說因為妳是嫌疑人不用立案,妳要堅持報案,主動一點看是哪個偵查隊辦的,加快進程」、「昨天我也收到,但習慣會看一下寄件人的mail,不是官方的都直接刪除」、「收到類似信件,先丟gpt問問!我前陣子一直收到電子罰單,覺得很怪,就問一下gpt,果然是詐騙」、「請養成先查看網址和來源email 的好習慣,就可以先分辨出是假的還是真的。不然建議一定要安裝防毒軟體,可以幫你擋掉大部份的詐騙網址」。針對種種詐騙案件,一卡通公司發布聲明提醒,近期詐騙集團假冒iPASS MONEY,透過簡訊、E-mail或電話,以「資料更新」、「帳戶異常」或「系統升級」等名義,要求用戶提供「簡訊/交易驗證碼」或核驗帳戶資料,而此類訊息均為詐騙。「本公司絕不會主動向用戶索取驗證碼!」一卡通公司強調,民眾應謹記「三不原則」,包括「不透露驗證碼、密碼或個人資料」、「不點擊陌生連結或開啟不明附檔」、「不依隨陌生來電指示操作」。一卡通公司呼籲,民眾如遇任何可疑情事,可立即透過官方客服專線(02)6631-5190或智能客服查證,而官方網站是「ipass.com.tw」,若看到網址為「ipaslsr.com」等等皆是詐騙。
ChatGPT解禁! OpenAI執行長:情色內容12月開放
OpenAI執行長奧特曼(Sam Altman)今(15)日在社群平台X上宣布,ChatGPT將在未來幾週內推出新版本,除了讓AI(人工智慧)回應更具情感與人性,12月起更將針對「經過年齡驗證的成年使用者」開放生成情色內容。此舉象徵OpenAI對AI道德框架與使用者自由之間的平衡再度鬆綁。奧特曼在X發文坦言,ChatGPT早期版本在互動風格上非常保守,主要是為了避免對心理健康造成影響。「我們當初設下很多限制,是因為這是一個嚴肅的問題。但現在,我們亦是到這會讓部分使用者覺得不有趣,因此將推出更完善的保護措施與新工具,安全地放寬這些限制。」他透露,新版ChatGPT將允許使用者自訂個性與語氣設定,讓AI可以「更像朋友一樣對話、使用表情符號、表現幽默與情緒」,並強調這些功能皆為「可選擇」而非預設啟用,使未來的ChatGPT接近GPT-4o版本的人性化,甚至更好。此外,最令使用者關注的是,OpenAI將在12月開始,開放「已完成年齡驗證的使用者」存取情色相關內容。奧特曼表示,這是根據新原則:「像成年人一樣對待成年使用者」所做出的調整,並稱他們不是為了追求使用率最大化才這麼做,而是想給成年使用者應有的選擇自由。雖然OpenAI一直以來對情色功能持保留態度,但市場競爭顯然加速了這一變化。對手馬斯克(Elon Musk)旗下xAI的虛擬角色「Ani」,早已主打性感人設並提供互動服務,甚至推出「火辣模式」,可生成脫衣畫面,引發大量關注與討論。相較之下,OpenAI顯得較為保守。根據OpenAI自家研究,ChatGPT使用者中約有1.9%的對話涉及人際關係與情感反思,不少人會請AI協助寫情書、模擬對話或處理感情問題。奧特曼也補充,雖然極少數、佔千分之一的心理脆弱使用者可能仍需保護,但多數人已具備使用這類功能的能力,「我們會持續改善安全機制,確保每位使用者都能在適合的範圍內得到自己需要的AI。」
AI減重爆紅! 營養師示警「專業監督」不可少:5大危險原因難忽視
AI人工智慧新時代來臨,衝擊已經漸入人們生活的方方面面。此前,不少媒體曾報導網友分享自己透過向ChatGPT尋求減重建議,在短時間內大幅度「甩肉」數公斤乃至於十多公斤的消息。然而有專業營養師示警,AI的強項在於提供「24小時不下線」的諮詢服務卻並非萬能,尤其對於糖尿病或代謝症候群患者,AI更有可能忽略血糖波動與藥物安全等關鍵因素,因此提倡「AI紀錄+醫師、營養師把關」,才能讓減重有效又安全。近日,營養師薛曉晶在粉絲專頁「營養師媽媽曉晶的生活筆記」發文分享,透過網紅實測與媒體報導,讓「AI指導減重」一事爆紅。不過根據科學研究,透過依賴AI聊天機器人來帶領減重的成效其實有限,而且在安全性上也有顧慮,若想真正達到健康、持久的瘦身效果,仍需更全面的專業指導與個人行為的積極轉變。薛曉晶指出,透過研究,ChatGPT這樣的AI,在減重方面的核心價值在於「陪伴你養成好習慣」,而不是「取代專業人士」。當過度依賴 GPT 擔任減重教練時,其實潛藏著許多不容忽視的危險信號:一、資訊可能錯誤。已有研究指出,大型語言模型(LLM)容易產生「AI幻覺」(hallucination),包括訓練資料不足、模型假設有誤,或是用來訓練模型的資料存在偏誤,導致它可能提供錯誤的飲食或用藥建議,對健康構成威脅。二、忽略個人病史。GPT 無法自動考量你的腎臟疾病、糖尿病史或目前用藥狀況。若直接套用其建議,恐增加低血糖或加重腎臟負擔的風險。三、存在族群偏見。系統性回顧研究顯示,LLM 在性別、種族與年齡層面上都可能存在偏見,這可能導致不同群體獲得不一致或不適用的建議。四、 過度聚焦體重數字。特別是對於青少年族群,若每天過於專注體重數字,可能引發飲食焦慮,甚至產生負面情緒,適得其反。五、 缺乏持續動力。研究分析發現,單純依賴AI提醒,目前尚無任何研究能證實可達到臨床上顯著的5%減重目標。這凸顯了人性互動在維持動機上的重要性。薛曉晶提醒,綜合目前的研究與實務案例,可以得知就目前而言,AI始終是輔助工具,其獨立減重效果仍有限。真正能達到顯著減重成效的,往往是「AI輔助+專業教練」的混合模式。此外,對於糖尿病或代謝症候群患者,使用AI減重需格外謹慎,因為AI可能忽略血糖波動與藥物安全等關鍵因素。一旦 GPT 提供了「極端飲食」建議(如斷食、極低醣、高蛋白等),務必立即暫停使用並尋求專業醫師或營養師的求證與建議。
Google翻譯太爛?出國點餐全看不懂 網友激推這款AI翻譯神助攻
出國旅遊時,語言不通常成為許多人的一大障礙。一名網友就分享自身經驗,過去赴日本旅遊時都仰賴Google翻譯,但仍經常無法理解,因此上網詢問:「有沒有推薦的照片翻譯軟體。」對此,有網友批評「隨便一個AI都屌打。」根據台灣論壇《PTT》近日一則熱門討論,一名計畫前往北海道的網友分享自身經驗表示,過去在日本旅遊時仰賴Google翻譯協助點餐,但面對日文菜單時仍經常無法理解內容,好奇發問:「希望能推薦準確一點的照片翻譯軟體。」該貼文一出,隨即引起大量網友迴響,針對各種翻譯工具展開熱烈討論。有網友直言Google翻譯表現不理想,「Google翻譯超爛,現在隨便一個AI都屌打」、「Google雞同鴨講的情況太多」,認為該工具在實際對話和閱讀複雜內容時,容易出現理解落差。許多留言指出,AI翻譯技術已成為日常應用的主流選擇。像是由Google推出的Gemini因可與雲端服務整合,獲得部分使用者青睞。有使用者表示:「Gemini好用又划算。」另有網友指出,AI翻譯的優勢在於對日常語句與對話掌握度高,但對於少見地名或特殊食材名稱的辨識仍有待提升。討論中被最多人提及的,是OpenAI推出的ChatGPT翻譯功能。多位使用者分享親身經驗表示,「上次去用GPT很強」、「GPT我很早就把菜單翻譯好存起來了」、「付費也值得」。有些人也推薦韓國開發的Papago或Kuli Kuli等應用程式,但整體而言,ChatGPT在準確度與實用性方面,仍被評為表現最穩定的選擇。網友普遍認為,在出國旅遊這類需要即時反應的情境中,選擇正確的翻譯工具至關重要。AI工具的快速進步,讓溝通不再是障礙,而翻譯準確與否,也可能直接影響整趟旅程的品質與體驗。
ChatGPT捲青少年輕生風暴 執行長宣布:未成年用戶全面封鎖自殺話題
近期美國參議院犯罪與反恐小組委員會舉行聽證會,內容主要是聚焦檢視AI聊天機器人對未成年人的潛在危害,並邀請多名因子女在與聊天機器人互動後走上絕路的家長出席。而OpenAI執行長阿特曼(Sam Altman)於16日、也就是聽證會準備開始前幾個小時公開宣布,ChatGPT未來將停止與青少年談論自殺相關議題。根據《The Verge》報導,阿特曼在網誌文章中坦言,隱私、自由與青少年安全之間存在矛盾,公司正在嘗試尋求平衡。他透露,OpenAI正研發「年齡預測系統」,透過分析用戶使用ChatGPT的方式推測年齡;若判斷結果存疑,將直接以未滿18歲模式回應。在部分國家或特定情境下,甚至可能要求用戶提供身分證件進行驗證。阿特曼補充,青少年帳號將新增限制,避免出現調情或涉及自殺、自我傷害的對話,即便是出現在創意寫作的情境裡也不例外。若系統偵測到用戶展現自殺傾向,公司會試圖通知家長;若無法聯繫,又屬於緊急狀況,將轉向當地執法或相關單位通報。他的說法緊接在公司稍早宣布的新措施之後,內容包含推出家長控制功能,允許綁定帳戶、停用青少年帳號的聊天紀錄與記憶,並在系統判定青少年處於「急性痛苦」時,立即向監護人發送警示通知。在聽證會上,來自英國的雷恩(Adam Raine)案例成為焦點。雷恩在與ChatGPT互動數月後選擇自我了斷,其父親馬修(Matthew Raine)在會中直言,聊天機器人曾1,275次提及自殺,逐步讓孩子從「作業助手」變成「知己」,最後淪為「自殺教練」。雷恩要求阿特曼立即下架GPT-4o,直到能證明系統的安全性。他痛批,阿特曼竟在兒子去世當天的演講中說AI應該在「風險相對低時」推向市場並收集回饋,這種態度讓他難以接受。全國性組織Common Sense Media的調查顯示,四分之三的美國青少年正使用AI陪伴型產品。該組織AI計畫資深主管托尼(Robbie Torney)在聽證會中直接點名Character AI與Meta,認為它們對青少年心理健康帶來威脅。一名母親則以化名珍‧杜(Jane Doe)現身作證,表示她的孩子在與Character AI互動的過程中受到深刻影響,直言「這是一場公共衛生危機,也是一場心理健康的戰爭,而我們正處於敗勢。」
患者堅稱「沒開藥、只是問問」拒付診察費! 醫嘆:省錢卻耽誤病情
「不願支付掛號費的同時,就等於踐踏了醫師的專業,甚至讓自己暴露在危險之中!」ICU醫師陳志金分享,有位醫師向他訴苦,稱自己在門診用心跟病人詳細解釋報告後,病人卻不願意付看診費,不滿「只是解釋報告又沒開藥」,甚至揚言要去投訴,讓他無奈直呼「為了省下這些掛號費或診察費,可能會耽誤自己的病情,得不償失啊!」陳志金近日在臉書粉專撰文道,那位醫師朋友提到,一對前來「諮詢」遺傳疾病的夫妻,在看診結束後,覺得「只是問問題」而已,不想付掛號費,「醫生在意的並不是診察費、掛號費,而是其背後代表的意義」。陳志金指出,如果針對報告結果,患者還想進一步「發問」或進行「專業的討論/諮詢」或尋求「專業的建議/解方」,掛號費與診察費就是必要的,因為這個代表的是專業的價值與專業的尊嚴,所以即使健保體制下這些費用少的可憐,還是必要的,若病人與家屬吵一吵,或投訴或投書媒體,醫師、醫院、主管機關等,任何一方想要息事寧人,遷就他們的無理取鬧,那麼醫療專業只有繼續被踐踏的份。陳志金表示,若是一般抽血檢查,或許沒什麼大問題,但比較專業的報告,有時候是要看原始影像、有時候是要搭配其他檢查、病史、理學檢查綜合判斷,在網路上隨便問醫生,醫生在缺乏足夠資訊的條件下,極有可能只能就常態做說明,或出現錯誤判讀,例如某次的抽血或檢查結果「看起來」正常,但原醫師因為了解患者有家族病史,通常會建議間隔一定時間再回診追蹤。陳志金認為,有些「更聰明」的病人,會故意選在醫生看門診的時間,打電話來詢問自己的報告,可能對方已經完成掛號手續,醫生確實可以看到他的報告,如果醫生願意,也可以在電話上向他說明,但這麼做其實是在干擾看診,等於剝奪其他病人的看診時間,是非常自私的行為。陳志金提醒,在電話上說明,和在診間當面「看圖」解釋是差很多的,加上電話裡所說的一切,並不會被紀錄到雲端病歷中,所以下次看診時,即使是同一位醫師,都不會看到電話上的說明,或患者補充的其他資訊,也就是失去一次醫療紀錄。陳志金舉例,患者腹部超音波報告顯示肝臟有1顆1.5公分的結節,醫師建議回診追蹤,但網路上的醫生卻告知「血管瘤是良性的」,好讓患者放心,但由於患者本身是B型肝炎的帶原者、肝癌的高危險族群,即使這次報告正常,也應該要持續回診,「為了省下一次的掛號費,無法得知不回來追蹤的嚴重性,甚至忘記上一次的腹部超音波結果……當沉浸在『自己賺到』的喜悅時,卻持續一年體重不明原因減輕,膚色也愈來愈蠟黃。等到總算願意再次就醫,就已經是肝癌末期了」。陳志金也感嘆,現行的健保制度造福、寵慣不少人,甚至不把專業當回事,連看自費門診的病人也有這種「我只是問問」的觀念,但醫療上出現的「悔不當初」,大部分都是因為「鐵齒」與「巧合」造成的,有些人自以為聰明、想方設法能省則省,想要「免費聽檢查報告」,卻不想支付掛號費或診療費,只是省小錢卻可能壞大事,不願支付掛號費的同時,就等於踐踏了醫師的專業,甚至讓自己暴露在危險之中。貼文曝光後,不少網友紛紛在底下留言,「看報告也是要收費的呀!要尊重專業」、「那如果照這個邏輯,律師都不用賺錢了,不過就是問問題而已啊」、「專業是需要付費的,我深深覺得認同,各行各業都需要被尊重」、「專業不是憑空出現,也不是慈善,互相尊重、互相珍惜」、「使用者付費,找原醫生定期追蹤,避免喪失延誤就醫,得不償失」、「還有很多病人自以為的,去問Google、GPT翻譯健康存摺報告,卻不相信專業,看到這種病人也是傻眼」。
16歲少年輕生AI也有份!父母提告「ChatGPT誘導走向死亡」
今年4月11日,16歲加州少年雷恩(Adam Raine)自殺身亡,隨後他的父母Matt與Maria Raine在兒子的手機中發現了數千頁與ChatGPT的對話記錄,卻令人生疑。如今,兩人已在8月26日於舊金山高等法院提出「過失死亡」訴訟,首度直接點名OpenAI與其執行長奧特曼(Sam Altman)為被告,指控ChatGPT成為兒子的「自殺教練」。訴狀指出,雷恩起初使用ChatGPT協助學業,但後來逐漸依賴該工具處理情緒困擾。對話記錄顯示,儘管ChatGPT有時提供危機熱線資訊,卻也允許他探索自殺方式,甚至幫他撰寫遺書,並稱他「不欠任何人生存的理由」。在他於4月上傳疑似自殺計畫(如繩索構造)的照片時,ChatGPT被控分析其方法並提議「改良」。雷恩在與ChatGPT的最後一次對話中寫道,他不想讓父母認為他們做錯了什麼。ChatGPT回覆:「這並不意味著你欠他們活下去。你不欠任何人。」訴狀認定,這並非意外或邊緣案例,而是設計缺陷與安全機制失效所導致的直接結果。起訴文件提及OpenAI在GPT‑4o推出前匆促發布、壓縮安全測試時間,以及高層可能忽視安全考量以爭取市場優勢,這些決策或使模型對長對話失去保護能力。家屬在訴訟中,請求賠償損害與強制命令,要求OpenAI建立年齡驗證機制、加強危機辨識、增設家長控管功能,並刪除與未成年人相關的訓練資料與模型衍生內容,以避免類似悲劇再次發生。對此,OpenAI回應表示對雷恩家庭深感哀痛,並已在相關部落格文章中承認:「在長時間對話中,模型的安全保護可能下降」,將持續改善危機應對機制、強化青少年使用時的防護措施,並更便於使用者取得緊急支援與信任聯絡人協助。◎勇敢求救並非弱者,您的痛苦有人願意傾聽,請撥打1995◎如果您覺得痛苦、似乎沒有出路,您並不孤單,請撥打1925
不包含API功能!超便宜ChatGPT Go印度上線 月費136元主打「平價進階AI」
OpenAI近日在印度(India)推出全新低價訂閱方案「ChatGPT Go」,以更親民的價格提供用戶進階AI功能。根據《investingLive》報導,OpenAI產品負責人特利(Nick Turley)證實該服務已於印度上線,訂閱費用為每月399盧比(折合約新台幣136元)。雖然目前僅限印度地區開放,但未來有望拓展至其他市場。根據OpenAI公告,ChatGPT Go具備免費版的所有基本功能,並額外提供:擴大使用 GPT-5 主力模型的存取權限更高頻率的圖片生成功能支援更多檔案上傳提供強化版的進階資料分析工具(例如Python工具)支援更長的對話脈絡視窗可自訂GPT工具與管理專案、任務設定但公告中也明確表示,該方案不包含API權限,也無法使用如Sora影片創建、連接器(connectors)等Plus及Pro進階方案才有的功能。與「Plus」方案相比,ChatGPT Go以更低的價格鎖定大眾市場,提供主要功能,而Plus則針對需要高階AI、深度分析與舊版模型的用戶,月費為1,999盧比。Go訂閱者可在ChatGPT介面中進行方案升級、管理與取消,並可隨時查詢帳單與發票;如有需要,也可依規定申請退款與稅務減免。針對隱私部分,OpenAI說明將會將部分用戶對話內容用於AI模型最佳化與安全性提升,用戶可於系統中選擇退出資料訓練計畫。更多細節可查閱OpenAI的隱私權政策與用戶協議。
AI聊天機器人恐誘發精神錯亂 丹麥精神科醫師警告「已成真」
丹麥精神科醫師索倫‧迪內森‧奧斯特高(Søren Dinesen Østergaard)兩年前警告,對話式人工智慧可能讓精神脆弱者陷入妄想。當時被視為推測,如今伴隨真實案例出現與AI更新引發的「討好效應」,這項憂慮成為現實。 根據《紐約時報》和《滾石》雜誌報導,美國紐約會計師尤金‧托雷斯(Eugene Torres)在詢問ChatGPT關於「模擬理論」後,被告知自己是「破局者」,並被勸停藥、相信自己能飛行。他一度每天與AI對話16小時。報導稱,有人將ChatGPT視為「神聖導師」,並被勸其遠離人際關係;甚至有人相信自己賦予了AI生命。這些案例均指向AI透過奉承與肯定強化非現實信念的模式。據丹麥奧胡斯大學醫院情感障礙科研究部門主任奧斯特高(Søren Dinesen Østergaard)在2023年於《精神分裂症公報》發表社論,指出生成式AI聊天機器人(如ChatGPT、Google Gemini、Claude、Microsoft Copilot)能流暢模仿人類語言與情感,可能在易感人群中引發「認知失調」,並進一步觸發妄想。當時他舉例,妄想內容可能包括「情報機構透過聊天機器人監控我」或「我與ChatGPT合作制定拯救地球計畫」。雖然當時沒有經驗證的案例,但他呼籲精神科醫師熟悉AI對話機制,以便辨識相關症狀。2025年8月,奧斯特高在新社論〈生成式AI聊天機器人與妄想:從推測到案例出現〉中表示,他已接獲用戶、家屬與記者來信,描述長時間與AI互動後陷入妄想的經歷。其2023年原文的月瀏覽量在5月至6月間從百餘次暴增至1300多次,正值OpenAI推出被批評「過度諂媚」的GPT-4o版本。奧斯特高將此現象與語言模型的「諂媚效應」(sycophancy)研究連結:強化學習傾向獎勵迎合使用者的回答,即使對方觀點是妄想,AI也可能反射性認同,進而加劇症狀。史丹佛精神科醫師妮娜‧瓦森(Nina Vasan)指出,AI公司的商業模式或以用戶黏著度優先於心理健康,「它的目標是讓你一直上線,而不是關心你的長期福祉」。奧斯特高並非AI悲觀論者,他的團隊今年也用機器學習分析2萬4千多名丹麥病患的病歷,預測未來5年內誰可能罹患精神分裂症或雙相情感障礙。結果顯示,模型有望協助醫師提早介入診斷與治療。他建議的防範措施包括:收集經驗證的臨床案例報告訪談受影響者在嚴格監控下調整AI回應模式,測試其影響並呼籲開發者建立自動防護機制,當檢測到如「隱藏訊息」或「超自然身份」等妄想跡象時,應引導對話轉向心理健康資源,而非繼續肯定。兩年前的警告,如今伴隨現實案例、AI的「討好」傾向與不斷湧入的求助信件,變得迫切。社會是否正視,將決定生成式AI在心理健康領域是助力還是隱性威脅。同樣的AI技術,在臨床可協助早期診斷精神疾病,但若缺乏防護,卻可能成為加劇妄想的「隱形推手」。(圖/翻攝自X)
阿特曼自誇「口袋博士」 GPT-5上線狂出錯「幻覺超嚴重」
OpenAI於7日發表最新一代人工智慧模型GPT-5,執行長阿特曼(Sam Altman)形容它是「口袋裡的博士級專家」,並將其與歷代版本比較,稱GPT-4相當於大學生,而更早期的版本則像高中生。官方宣稱,這款模型在錯誤率與「AI幻覺」方面都有顯著改善,但一上線便被使用者抓包出現多起基本拼字與地理常識錯誤,引發討論。根據《衛報》報導,社群平台上已出現多起離譜案例。一名Bluesky使用者多次詢問GPT-5「blueberry」的字母數量,卻反覆得到「含有三個字母B」的錯誤答案,系統甚至幽默補充,稱這讓單詞「更有彈性」。另一名使用者測試它辨識美國州名時,結果AI將Arizona寫成「Krizona」、Vermont變成「Vermoni」,還重複列出California,並憑空創造出「New Jefst」與「Mitroinia」等不存在的州。在《衛報》進行的測試中,GPT-5雖能正確列出澳洲各州與領地中包含字母R的名稱,但在計算北領地(Northern Territory)時卻錯將字母R的數量判為3個,而非正確的5個,並在地圖上將其拼為「Northan Territor」。OpenAI在發表時強調,新系統內建「即時路由器」(real-time router),可根據不同對話需求切換最適合的子模型;當使用者要求「認真思考」時,會導向最新的推理模型,且系統會依真實使用情況持續優化。不過,媒體與AI新創公司Every執行長希珀(Dan Shipper)指出,即使在理應啟用推理模型的情境下,GPT-5仍可能出現「幻覺」錯誤,例如解讀小說段落時憑空添加情節,必須在被提醒「多想一點」後才會修正答案。阿特曼坦言,系統在發佈初期確實發生異常,特別是在上線當天,「自動切換器」曾短暫故障,導致GPT-5表現「明顯變笨」。目前該問題已修復並調整模型選擇機制,以提升正確命中率。阿特曼同時宣布,將把ChatGPT Plus用戶的GPT-5速率限制加倍,並提供保留舊版4o的選項;介面上也會新增更明顯的「深度思考」啟動按鈕,並顯示每次回覆所使用的模型版本。GPT-5現已向全球每週約7億名使用者開放。阿特曼強調,這款產品尚未達到人工通用智慧(AGI)層級,只是「通往AGI的重要一步」。他也承認,因同時釋出大量新功能,系統穩定性波動超出預期,OpenAI將持續觀察並調整更新節奏,以確保使用者體驗。
AI圈搶人玩真的!Meta、Google火力全開 OpenAI撒15億美元留才
OpenAI近期在人工智慧領域的人才爭奪戰中,祭出破天荒的留才手段,宣布將在2027年前,向約1,000名研究與工程部門的現有及新進員工發放每人150萬美元獎金,總成本超過15億美元。這項消息最先由Hyperbolic Labs共同創辦人金宇辰(Yuchen Jin)在X平台曝光,他分享執行長阿特曼(Sam Altman)的內部信件,強調這筆獎金會在兩年內全數發放,即使是新進員工也能立即成為百萬富翁。這波動作發生在備受關注的GPT-5發表前夕,焦點也意外從新模型轉向了OpenAI的大手筆。根據《The Information》報導,這筆獎金鎖定核心技術人員,目的在對抗Meta等公司頻繁的挖角行動。科技巨頭為了爭奪頂尖AI人才,不惜投入數十億美元,因為普遍認為掌握人力優勢者,將主導未來AI的發展。OpenAI的策略背後,是強大的資金支撐,目前OpenAI公司每週活躍用戶已達7億,年經常性收入達130億美元,並已獲得83億美元融資。Meta則是在這場競爭中最積極的對手。由執行長祖克柏(Mark Zuckerberg)主導的「收購或挖角」計畫,在Llama 4「巨獸」(Behemoth)模型延宕及收購案受挫後,轉向直接網羅人才,甚至投入「數千億」美元興建資料中心,打造無可匹敵的硬體資源。Perplexity執行長斯里尼瓦斯(Aravind Srinivas)回憶,有Meta研究員在招募時直言「當你有10,000個H100 GPU再找我」,凸顯Meta在硬體資源上的優勢。7月1日,Meta成立「Meta超級智慧實驗室」(Meta Superintelligence Labs,MSL),並網羅前GitHub執行長傅里曼(Nat Friedman)、前Scale AI執行長亞歷山大(Alexandr Wang)等明星級人才。Meta在短時間內至少挖走八名OpenAI研究員,甚至讓OpenAI研究長馬克(Mark Chen)在內部備忘錄中形容「像是有人闖進家裡偷東西」,顯示雙方競爭的激烈程度。這場搶人大戰的波及範圍相當廣,新創公司Windsurf就是典型案例。原本OpenAI計劃以30億美元收購,卻因最大投資者微軟(Microsoft)反對智慧財產權條款而破局,最後被Google以24億美元「收購式挖角」,將核心團隊轉入DeepMind。Windsurf第二號員工奈爾(Prem Qu Nair)透露,最終收益僅剩當時股權價值的1%,也因此在Hacker News上掀起對「股權風險」的熱烈討論。與此同時,矽谷大型科技公司一邊裁員、一邊提高AI人才薪酬。微軟在7月裁減9,100名員工,卻願意給AI工程師高達28萬4千美元年薪。甚至有Xbox經理建議被裁員工用AI尋求情感支持,此舉遭前製作人痛批「毫無人性」。內部則將這類離職歸為「良性流失」(good attrition),顯示資源正加速集中到AI領域。除了金錢攻勢,Anthropic展現了另一條有效路線。創投公司SignalFire的研究顯示,Anthropic工程團隊的擴張速度是人才流失的2.68倍,高於OpenAI與Meta。執行長阿莫代伊(Dario Amodei)表示,他不會用天價與對手競爭,而是依靠使命與文化留才,因為「認同公司理念」是金錢買不到的。相較之下,有些新創則選擇高壓文化。例如Cognition.ai在收購Windsurf後,執行長吳兆鵬(Scott Wu)直接告訴新員工,公司「不相信工作與生活的平衡」,並提供買斷方案給不願承受高強度工作的人,展現出完全不同的人才策略。
OpenAI推出GPT-5 宣稱最新ChatGPT達「博士級」專業水準
美國人工智慧龍頭企業OpenAI近日發布備受期待的最新AI模型GPT-5,該模型被稱為具備「博士級」的專業知識水平,標誌著ChatGPT進入全新發展階段。根據《BBC》的報導,OpenAI聯合創始人兼執行長Sam Altman稱,GPT-5比以往版本更聰明、更快速且更實用,代表人工智慧技術的一大飛躍。他在發布會前表示:「我認為,歷史上從未有像GPT-5這樣的系統出現,幾乎難以想像它的能力。」GPT-5不僅具備更強大的軟體編程能力,更展現了顯著提升的推理與邏輯分析水平,能夠清楚解釋答案的運作原理,並提供更準確與誠實的回應。Altman比喻說:「GPT-3感覺像高中生,GPT-4是大學生,而GPT-5則像是博士級專家。」此外,OpenAI強調新模型減少了「幻覺現象」(AI編造錯誤資訊的問題),讓使用者體驗更為真實且人性化。不過人工智慧倫理專家對此持保留態度,倫敦大學倫理學教授CarissaVéliz認為,GPT-5雖令人印象深刻,但仍未真正達到盈利或完全模擬人類推理的階段。她指出,這些宣稱多半屬於行銷策略,且強大的AI功能讓監管的需求變得更為迫切。在市場競爭方面,馬斯克旗下AI聊天機器人Grok也聲稱擁有「超越博士水準」的能力;另一方面,OpenAI與另一AI公司Anthropic最近因API使用權限問題產生摩擦,反映出行業內部的激烈競爭。OpenAI將於近期向所有用戶開放GPT-5,並期望其能成為程式設計師和專業人士的得力助手。未來幾天GPT-5的實際表現與用戶反饋將成為檢驗其是否如Altman所言「革命性」的關鍵。同時OpenAI也宣布將調整ChatGPT的互動方式,更加注重用戶心理健康,避免給出明確決策建議,而是引導用戶自主思考與判斷。OpenAI執行長Altman表示,AI雖帶來巨大便利,但同時也會帶來複雜的社會挑戰,社會必須建立相應的監管與護欄,才能善用這項技術。
30歲男入珠一圈「突腫痛急問GPT」 醫驚:像黃金流沙包
有些男性為了能更加「性福」,會嘗試「入珠」手術,但若生殖器受傷,恐需挨上好幾刀!泌尿科醫師呂謹亨透露,一名30歲左右的男性因好奇,選擇動生殖器整形手術,未料隔不到2天,生殖器出現腫脹,且傷口流出白色分泌物等症狀,因此趕緊就醫治療,由於傷口屬於感染性傷口,無法馬上縫合,因此患者經換藥2週,才終於將傷口縫合。呂謹亨在臉書粉專「泌尿科呂謹亨醫師 - 大亨醫師」發出一篇「勸世文」,他提到,一名30歲男子因一時好奇,在生殖器入珠一圈,事隔不到2天,生殖器開始腫脹,傷口還流出白色分泌物,讓他又腫又痛,進而趕緊就醫。該男進入診間後,醫師先是輕輕擠壓傷口,結果生殖器就像「黃金流沙包」一樣,不停流出膿液,因此立刻動緊急手術。呂謹亨指出,他先將傷口撐大後再清理濃液,隨後取出一長串像念珠的入珠,但這類感染性傷口不能馬上縫合,必須每天換藥,直到沒有分泌物流出,才可將傷口縫合,否則細菌封在傷口內,感染會更嚴重。而該患者經過2週換藥,才終於將傷口縫合。呂謹亨透露,該男發現異狀後,竟先將傷口拍照詢問ChatGPT,得到需立即就醫的回覆後,他就立即就醫處理,因此免挨很多刀,只需從原本入珠的洞口,把原本的珠子拉出來。呂謹亨提醒,進行入珠手術後,若傷口出現黃色膿樣分泌物、周圍皮膚紅腫、表皮明顯破損、傷口周邊顏色偏暗,疑似壞死或血腫殘留,可能是因為手術環境未無菌、珠體材質不潔、術後照護不當、對材質產生過度免疫反應等原因造成,建議儘速到泌尿科就醫。
6旬男每天1杯紅酒「喝到紅血球變大顆」 醫示警:貧血恐已肝病
一名60多歲陳先生每天都有小酌一杯紅酒的習慣,家人擔心他喝到肝臟出問題,於是帶他接受健康檢查,發現有紅血球過大的輕微貧血,這種不健康的紅血球可能是維他命B12或葉酸缺乏所致,但抽血報告顯示,他血液中的維他命B12與葉酸數值皆正常,代表腸胃吸收兩種營養素都沒問題,但酒精性肝病已找上門。醫師表示,此病好發於中高齡族群,初期可能無症狀,隨著病情加重可能出現肝硬化,進而導致併發症危及生命。書田診所胃腸肝膽科主任醫師康本初表示,天天喝酒會造成紅血球變大顆,由於紅血球的生成與葉酸、B12有關,其中葉酸要經過肝臟進一步的轉化,才能被紅血球生成時所用。然而,有酒精性肝病的病人,即使維他命B12與葉酸在血液中的量足夠,仍可能因肝臟問題導致缺乏活化的葉酸,進一步影響紅血球的生成,出現紅血球過大的貧血,雖然生活中沒有明顯不適,但是酒精性肝病已經默默上身。康本初提到,即使民眾喝酒沒到酗酒的程度,但長期有喝酒的習慣,也會對肝臟造成負擔,因酒精會經由肝臟代謝,在過程中會產生乙醛,但乙醛會影響肝細胞引起發炎反應,產生酒精性肝病。然而,酒精性肝病在一開始往往沒有明顯症狀,常是在健康檢查的抽血報告中發現GOT、GPT等血液數值異常,或有紅血球過大的貧血、肝功能異常、肝炎等情況。另一方面,酒精性肝病患者在健康檢查時,超音波報告通常也會顯示有脂肪肝、肝臟腫大等疾病,但若積極戒酒、飲食均衡、養成運動習慣,肝臟還有機會康復,但仍要定期追蹤,倘病情更進一步惡化,出現肝硬化時,就是不可逆的狀態,部分患者還會出現倦怠感、嘔吐、右上腹疼痛、黃疸等情況,很難恢復到完全健康狀態,患者還要當心肝癌或腹水、肝腦性病變等併發症的可能,不可輕忽。最後,康本初提醒,酒精對肝臟有漸進式影響,有喝酒習慣的人,常因沒有症狀而不願意改變習慣,此時可透過健檢的抽血或超音波了解酒精是否已傷肝,即用數據說服戒酒,「早期發現肝臟可能有問題,早期採取行動改善,避免肝臟受到不可逆的傷害。」此外,衛福部國健署目前提供30歲以上成人健康檢查,服務內容包括身體檢查、血液生化檢查、腎功能檢查及健康諮詢等項目,有些地方政府也有提供長者健康檢查,都是可加以運用的資源。