社會
時事

台灣知名女星淪謎片主角!3段影片瘋傳 業者「黑科技」賺錢

Deepfake 黑技術 女藝人 南韓AV 色情網站

女藝人的臉被移花接木。示意圖與本案無關。(圖/中時資料照)

近日網上瘋傳「台灣知名女藝人下海拍A片」的真槍實彈影片,不少人看完都直呼「太像了」,但其實影片中並非女藝人本人,而是南韓不肖業者利用黑科技「Deepfake」,把女藝人的臉移花接木到色情女演員臉上。

南韓AV色情網站今年7、8月間流出3段影片,每段約4分鐘,而女主角樣貌神似近年屢被選為全球百大美女、從台灣到韓國發展的女藝人。由於變臉特效太過真實,大家都誤以為是本人,在網上引起騷動。

根據《自由時報》報導,南韓AV色情網站已大量合成偽製女藝人作為他們的AV片的女主角,賺取鉅額暴利和點擊率,並在影片下方解釋影片是利用人工智能技術創造的「深度偽造」,僅供娛樂、教育目的,禁止未成年觀賞,意圖規避法律責任。

據了解,Deepfake是「deep learning」(深度學習)和「fake」(偽造)的混成詞,專指用基於人工智慧的人體圖像合成技術;帶色情成份的Deepfake作品於2017年間在網際網路上流出,已被Reddit、Twitter等網站禁止發布。

Deepfake 黑技術 女藝人 南韓AV 色情網站