AI新聞
」
AI草稿未刪直接上線?民視新聞遭爆「照貼提示語」 網:這也能上稿
AI技術為新聞製作帶來便捷與效率,但若缺乏審慎使用與人工校對,恐怕只會損害媒體公信力,甚至成為社會嘲諷的對象。根據社群粉專「不禮貌鄉民團」的貼文指出,有網友發現民視新聞網在報導內容中出現疑似AI生成後未經校稿的錯誤畫面,引發網友熱烈討論與譏諷,其中有人酸道「不校稿就上線,媒體素質令人堪憂」。從曝光的截圖顯示,該篇來自《民視財經網》的即時新聞,表面上為企業新聞稿報導,但內文後段卻出現可疑語句:「如果你願意,我可以再幫你做一個更簡短的媒體快訊版本,適合直接發佈在財經新聞或社群媒體上。這會讓重點更醒目,讀者一眼就抓到營收成長和AI市場策略。」這類措辭常見於AI內容生成工具的內部建議提示,不應出現在正式新聞中。此情況經「不禮貌鄉民團」曝光後,隨即吸引大量網友留言熱議。不少網友認為這是記者直接複製AI草稿內容,卻未經編輯刪除,導致錯誤曝光。有網友揶揄:「這根本是把ChatGPT的提示一起貼上去了」、「連內部建議都一併放上,民視真的太猛了」。更有人留言稱「記者的底線又被刷新」、「不校稿就上線,媒體素質令人堪憂」。還有網友直言「記者直接用AI生成新聞,太懶了」、「原來是ChatGPT新聞台」,甚至有人嘲諷「從用SNS抄新聞進化到用AI了,果然小時不讀書,長大當妓者」,顯示大眾對新聞專業標準的憂慮。此外,也有留言指出這類疏失恐損害新聞信任度與媒體形象,尤其在AI新聞生成日益普及的當下,媒體更應謹慎處理相關內容。網友留言表示:「若不加強編輯把關,新聞業會成為AI的展示平台」、「媒體應該對內容品質負責,而不是任由工具自動生成」。民視財經網新聞內文疑似出現AI生成提示語句,引發社群熱議。(圖/翻攝自FB,不禮貌鄉民團)
編輯們集體反對「上線不到24小時就喊卡」 維基百科宣布暫停導入AI摘要
在社群編輯們強烈的反彈下,維基百科(Wikipedia)近期宣布取消原訂推行的AI摘要測試計畫。這項計畫原定在6月初於約10%的行動網站用戶中進行測試,內容包括在部分條目最上方加入由AI生成的「簡易摘要」,讀者需點擊啟用才能檢視。摘要內容是由Cohere開放權重的Aya模型產出,目的是讓維基百科在面對結構複雜的條目時,對不同閱讀能力的使用者提供更友善的入口。綜合外媒報導指出,維基媒體基金會(Wikimedia Foundation,WMF)在宣布此事後,引發維基社群的強烈反彈。許多編輯認為此舉會破壞維基百科作為可信嚴肅資料來源的聲譽。其中一位資深編輯直接表示「這將立即且不可逆地傷害我們的讀者。」另一位批評指出「維基百科在某些方面已是沉穩無趣的代名詞,這很好。別跟風推出那些花俏又沒驗證的AI摘要。」不滿的聲音也開始針對基金會作業流程。多位編輯表示,他們並未參與這項計畫的規劃或討論,甚至指出所謂的「社群討論」只是一則由WMF員工自行發起、回應的貼文。根據《404 Media》報導指出,測試在2日正式啟動後,不到24小時就被喊停,顯示社群壓力之大。維基媒體基金會後續發表聲明,強調AI摘要計畫是為了讓維基條目更易為全球讀者所理解,特別是那些難以消化原始段落的族群。聲明中表示「我們的流程一向包括與志願者編輯進行討論,此次亦不例外。但這次我們顯然可以做得更好。」基金會並強調,目前已無計畫恢復這項試驗,但會繼續分析所收到的社群回饋。本次AI摘要功能所引發的爭議,也讓人回想起其他科技平台因AI錯誤資訊引發風波的例子。先前蘋果的AI新聞摘要功能,就因錯誤傳遞假新聞而被迫下架;《彭博社》也曾在類似情況下更正超過30篇文章。有批評者表示「一旦AI摘要無法由編輯修正,那就是對信任機制的破壞。」除了質疑AI生成內容的可信度,還有編輯提到維基百科原本就有清楚的段落式引言結構,無須額外加上由模型輸出的簡化摘要。部分回應也對於如何處理涉及爭議的條目表達疑慮,例如「加薩種族滅絕(Gaza genocide)」這類詞條,若僅以AI簡化描述,恐將引發更大的政治與立場爭議。維基媒體基金會並未完全排除未來再次導入AI的可能,但強調未來若要實施類似功能,將以更公開、透明並包含志願者參與的方式進行。基金會發言人表示「我們不打算在沒有編輯參與的情況下將摘要功能推展至維基百科,這是一項嚴肅且具影響力的決策,必須慎重對待。」