電話那頭的聲音聽來跟真的沒兩樣,美國一名母親聽到「女兒」啜泣求救,之後一名男子接過電話,要求支付贖金。
但其實女孩的聲音來自人工智慧(AI)合成,綁架當然也是假的。
法新社報導,專家表示,AI最大的危險是模糊了真實和虛幻的界線,讓網路罪犯能有廉價又有效的技術來散播假訊息。
新型詐騙震撼美國當局,歹徒使用網路上垂手可得、幾可亂真的AI語音複製工具,假冒家庭成員來詐騙親人。
住在亞利桑那州的迪斯特法諾(Jennifer DeStefano)聽到電話那頭傳來:「救我,媽,救我。」迪斯特法諾「100%」確定那是她15歲的女兒在滑雪時陷入麻煩。迪斯特法諾4月告訴當地電視台:「問題不是那是誰,那就是她的聲音…她哭起來就是那樣。」
在美國等9個國家針對7000人的民調中,1/4表示自己遇過AI語音詐騙,或聽過別人有類似經驗。
這份由美國資安公司邁克菲實驗室(McAfee Labs)上月發布的民調顯示,70%受訪者表示,沒有信心能「分辨真假語音」。
加州大學柏克萊分校資訊學院教授法瑞德(Hany Farid)告訴法新社:「因為現在製作高仿真的語音非常容易…網路上幾乎無人能倖免。這些詐騙正廣為流行。」
今年初AI新創公司ElevenLabs坦承自家語音合成工具可被用於「惡意用途」,先前就有用戶發布透過「深偽技術」(Deepfake)合成的語音,假冒英國女星艾瑪華森(Emma Watson)讀希特勒自傳「我的奮鬥」(Mein Kampf)。
歹徒使用網路上垂手可得、幾可亂真的AI語音複製工具,假冒家庭成員來詐騙親人。
|