聲音合成
」
AI詐騙手法再進化!冒孫子聲音行騙 老人兩萬積蓄被騙光
AI技術迅速演進,為日常生活帶來便利的同時,也成為詐騙集團的新利器。中國湖北黃石近日發生多起詐騙案件,犯罪集團利用AI合成技術冒充孫子聲音行騙,造成至少兩名年長者上當受騙。警方調查顯示,詐騙者透過頻繁撥打電話收集聲音樣本,再進行仿聲詐騙,使人真假難辨。劉姓婦人誤信孫子求救電話,痛失辛苦積蓄2萬元人民幣(約新台幣8.4萬元)。(圖/翻攝自央視)根據大陸《央視》報導,受害者劉女士回憶,今年4月28日,她接到自稱是孫子的電話,聲稱在超市與人衝突導致對方頭部受傷,正被警方扣留,急需2萬元人民幣(約新台幣8.4萬元)進行和解。為了湊足金額,劉女士與丈夫四處籌錢,並依照「孫子」指示,在指定地點交付現金予一名自稱同學家長的人士。由於對方聲音與孫子相似,讓她毫不猶豫地交出款項,直到孫子返家後才驚覺受騙。劉姓婦人誤信孫子求救電話,痛失辛苦積蓄2萬元人民幣(約新台幣8.4萬元)。(圖/翻攝自央視)警方進一步查證發現,詐騙者以座機為主要聯絡方式,利用長者對通訊技術的不熟悉與對親人的信任,加上合成語音,成功誤導受害者。此外,詐騙者也以高薪兼職名義在網路徵才,吸引不知情者負責上門收錢,形成犯罪鏈。AI合成技術可高仿聲線,警方呼籲長者提高警覺。(圖/翻攝自央視)除了語音詐騙,AI「換臉」技術也被犯罪分子用於違法激活電話卡。湖北襄陽警方查獲一個詐騙團夥,成員利用非法取得的個資與照片,合成動態人臉影片,突破電信業者人臉識別防線,成功激活超過200張電話卡。這些卡片進一步流入詐騙團體手中,涉案金額超過500萬元。AI合成技術可高仿聲線,警方呼籲長者提高警覺。(圖/翻攝自央視)專家指出,現行線上認證機制若僅仰賴「身分證+人臉識別」恐不足以防堵高階AI攻擊,呼籲業者需加強技術防線。包括運用AI技術反制AI偽造,並導入熱力圖辨識與深度學習演算法等新式驗證機制,目前已有技術可將辨識準確率提升至95%以上。此外,《人臉識別技術應用安全管理辦法》已於今年6月實施,要求企業在應用人臉識別時應落實合法、正當、必要原則,並採取分離儲存、資訊加密等安全保護措施,以避免個資外洩風險。法學專家指出,根據《中華人民共和國反電信網絡詐騙法》,電信業者若未妥善落實實名制與資安保護,最高恐面臨500萬元人民幣罰鍰,甚至須承擔暫停營業等責任。面對AI詐騙風險,「以技制技」與嚴格監管將是遏止詐騙的關鍵。
詐團創投資群組到處騙 金研院、國際洗防單位也遭冒名
詐騙集團無所不在、假冒投資群組到處騙人,金融智庫台灣金融研訓院也中彈,詐團還冒用金研院長黃崇哲的口氣說,「做了深入的產業分析報告...」,是要為股市投資人定錨個股的價值!台灣金融研訓院粉專被詐騙集團入侵,院方緊急公布提醒民眾。(圖/金研院臉書)台灣金融研訓院對此烏龍事性,除了緊急在官方臉書打上防詐提醒的警訊,提醒粉絲不要隨便點擊投資社團連結,也透過科技業追蹤IP,要求詐團下架。警政署165防騙網已公布「千萬別加好友」的詐騙LINE ID,包含各種詐騙手法所使用的帳號,也接收民眾申報所發現的詐騙LINE ID,165反詐騙諮詢專線會立即公告。另一部份,來自刑事警察局的呼籲,近期出現許多深度偽造(#Deepfake)技術的詐騙,不肖分子把人們的臉孔和聲音合成到完全捏造的場景中,特別是政治人物的虛假影像和音訊如假似真,已近乎妨礙社會視聽,製造出混亂治安的假訊息。部份有提供中文資訊的國際洗錢防制單位,也出現被詐騙AI軟體入侵,每每趁著深晚民眾休息後,以AI程度一一跳入網頁或開放社群,設定的誘人騙術內容竟是「本社群已到人數上限,請在社群關閉前,更改加入並點擊新群組XXXX 」,原版主起先只是將該貼文帳號踢除,但不久後或隔日必然再出現,近乎已成為病毒木馬程式!