演算法涉助長未成年性剝削風險 Meta遭判罰近200億元
編輯:陳頡 | 2026-03-25 20:03
美國法院認定科技巨頭Meta未能有效保護未成年用戶免受性掠奪者侵害,判罰近200億元。(示意圖/Pixabay)
美國新墨西哥州一宗備受矚目的案件近日作出裁決。陪審團認定科技巨頭Meta未能有效保護未成年用戶免受性掠奪者侵害,且對平台安全性存在誤導行為,違反州法律,最終判處需支付3.75億美元(約新台幣119.7億元)民事罰款。
《紐約郵報》(New York Post)報導,該案歷經長達6週審理,期間傳喚多名證人,包括前Meta高層、教育人員與網路安全專家。檢方指出,Meta旗下Facebook與Instagram長期存在兒童安全隱患,公司不僅未落實13歲最低使用年齡限制,其演算法機制還可能讓不法人士更容易鎖定未成年對象進行騷擾,甚至涉及性剝削與人口販運。
新墨西哥州檢方代表辛格(Linda Singer)在結案陳詞中直言,相關問題並非單純疏失,而是企業選擇將用戶成長與互動置於兒童安全之上的結果,並強調「年輕人為此付出代價」。
對此,Meta表示不同意判決結果,將提出上訴。公司聲明指出,長期以來已投入大量資源強化平台安全,但坦言在識別與移除有害內容方面確實面臨挑戰。其辯護律師也強調,Meta擁有約4萬名員工專責安全工作,並開發多項自動化工具防範風險。
本案由新墨西哥州檢察長托雷茲(Raúl Torrez)提起,原先求償金額高達20億美元(約新台幣638億元)。此案亦被視為全美多起針對大型科技平台責任的指標性訴訟之一,可能影響未來對社群媒體監管與法律責任的界定。
庭審中,前Meta安全研究員兼吹哨者貝哈爾(ArturoBéjar)的證詞備受關注。他指出,自己14歲的女兒在註冊Instagram不久後,即收到包含不雅影像在內的騷擾訊息,並質疑平台演算法會將特定興趣用戶相互連結,可能被不法人士利用來接近未成年人。
此外,解封的內部文件顯示,Meta研究人員曾警告公司高層,Facebook與Instagram每日可能出現多達50萬起線上性剝削相關事件,引發外界對平台管理能力的質疑。
值得注意的是,Meta目前亦在加州面臨另一宗審理中的案件,與Google旗下YouTube一同被控明知社群媒體成癮問題可能引發公共健康危機,卻仍推動相關機制。兩家公司均否認相關指控。