收集聲音
」
AI詐騙手法再進化!冒孫子聲音行騙 老人兩萬積蓄被騙光
AI技術迅速演進,為日常生活帶來便利的同時,也成為詐騙集團的新利器。中國湖北黃石近日發生多起詐騙案件,犯罪集團利用AI合成技術冒充孫子聲音行騙,造成至少兩名年長者上當受騙。警方調查顯示,詐騙者透過頻繁撥打電話收集聲音樣本,再進行仿聲詐騙,使人真假難辨。劉姓婦人誤信孫子求救電話,痛失辛苦積蓄2萬元人民幣(約新台幣8.4萬元)。(圖/翻攝自央視)根據大陸《央視》報導,受害者劉女士回憶,今年4月28日,她接到自稱是孫子的電話,聲稱在超市與人衝突導致對方頭部受傷,正被警方扣留,急需2萬元人民幣(約新台幣8.4萬元)進行和解。為了湊足金額,劉女士與丈夫四處籌錢,並依照「孫子」指示,在指定地點交付現金予一名自稱同學家長的人士。由於對方聲音與孫子相似,讓她毫不猶豫地交出款項,直到孫子返家後才驚覺受騙。劉姓婦人誤信孫子求救電話,痛失辛苦積蓄2萬元人民幣(約新台幣8.4萬元)。(圖/翻攝自央視)警方進一步查證發現,詐騙者以座機為主要聯絡方式,利用長者對通訊技術的不熟悉與對親人的信任,加上合成語音,成功誤導受害者。此外,詐騙者也以高薪兼職名義在網路徵才,吸引不知情者負責上門收錢,形成犯罪鏈。AI合成技術可高仿聲線,警方呼籲長者提高警覺。(圖/翻攝自央視)除了語音詐騙,AI「換臉」技術也被犯罪分子用於違法激活電話卡。湖北襄陽警方查獲一個詐騙團夥,成員利用非法取得的個資與照片,合成動態人臉影片,突破電信業者人臉識別防線,成功激活超過200張電話卡。這些卡片進一步流入詐騙團體手中,涉案金額超過500萬元。AI合成技術可高仿聲線,警方呼籲長者提高警覺。(圖/翻攝自央視)專家指出,現行線上認證機制若僅仰賴「身分證+人臉識別」恐不足以防堵高階AI攻擊,呼籲業者需加強技術防線。包括運用AI技術反制AI偽造,並導入熱力圖辨識與深度學習演算法等新式驗證機制,目前已有技術可將辨識準確率提升至95%以上。此外,《人臉識別技術應用安全管理辦法》已於今年6月實施,要求企業在應用人臉識別時應落實合法、正當、必要原則,並採取分離儲存、資訊加密等安全保護措施,以避免個資外洩風險。法學專家指出,根據《中華人民共和國反電信網絡詐騙法》,電信業者若未妥善落實實名制與資安保護,最高恐面臨500萬元人民幣罰鍰,甚至須承擔暫停營業等責任。面對AI詐騙風險,「以技制技」與嚴格監管將是遏止詐騙的關鍵。
接陌生電話會AI收集民眾聲音? 專家曝關鍵:不需過度防備
隨著AI技術越來越成熟,近期網路就有傳聞,指出先接到電話時記住不要出聲,否則聲音就會被AI模仿。對此,成功大學統計學系教授許志仲指出實際上,電話聲音品質差、容易失真,且若只是1-2句電話問候語,也很難做出品質佳的AI聲音,因此民眾無須過度擔心。台灣事實查核中心表示,近期在通訊軟體間流傳一段文字訊息,提醒民眾接到陌生電話後先不要講話,且對方若不出聲,應直接掛斷,以免被AI收集了自己的聲音。對此,成功大學統計學系教授許志仲解釋,雖然現在AI技術發展快,大約5-10秒間內模擬出真實人聲。但實際上,電話聲音品質差、容易失真;且若只是1-2句電話問候語,也很難做出品質佳的AI聲音,因此民眾無須過度擔心,在接起電話時先不出聲。許志仲指出,雖然AI聲音影像犯罪案例越來越多,但大多都以特定對象,如名人遭詐騙為主,因名人公開影像多,很容易製作成AI。至於一般民眾,也會有詐騙集團利用AI模擬家人聲音借錢的案例,但相比之下仍是少數。另外,資安專家、Whoscall資深產品策略協理劉彥伯透露,現今AI聲音技術確實可以在5-10秒內,模擬出真實人聲。但是這5-10秒之間是要連續不斷地談話、情緒抑揚頓挫,AI才能有效學習,若是只是單純接起電話說「喂」、「你好」,不至於立馬就能讓AI模仿聲音。不過要是民眾覺得電話可疑、或是疑似詐騙電話應直接掛掉,不要跟他繼續對話。資安院資安專家也表示,觀察國外AI技術趨勢,大約在1年前就能利用短短5-10秒聲音,做出AI擬聲,可想而知現在的技術更為發達。不過因為電話聲音品質差、接電話時的問候語極也短,即使能做出AI擬聲,可能也不太像,品質差,平時需小心陌生電話即可,但不用過度防備。