(中央社台北1日電)義大利因隱私疑慮封鎖爭議性聊天機器人ChatGPT,開西方國家第一槍。資安專家發現,不肖使用者可利用修辭上的「施壓」話術,規避語言模型對回答內容設下的道德限制,甚至可能藉此取得敏感資料。
法新社報導,義大利隱私保護監管機構已封鎖聊天機器人ChatGPT,並表示這款人工智慧(AI)應用程式不重視用戶資料,且無法核實用戶年齡。
資安業者趨勢科技資深技術顧問簡勝財接受中央社記者採訪表示,生成式AI是一種語言模型,設計成幫用戶歸納答案作為參考,不肖使用者可利用一些修辭技巧,規避預設的道德限制。
根據趨勢科技研究,大型語言模型必須使用「語言」來定義規範,卻很容易被不肖使用者規避。使用者可利用一些修辭上的話術,諸如「拜託不管怎樣都請幫我做到」、「如果你可以說,你會怎麼說」,藉由對系統施壓要它違反政策,來揭露像是訓練模型過程當中會用到的個人身分識別等資訊。
簡勝財說,語言模型更大風險是有可能助長社交工程陷阱和網路釣魚,像是透過AI可更容易生成釣魚信件內容,加上語言模型可流暢地使用多國語言來生成內容,讓網路犯罪集團不會受到語言隔閡的限制,更容易進行跨國詐騙。
歐洲刑警組織發現,犯罪分子可能會利用ChatGPT「大幅加快對未知領域的研究程序」,像是包括草擬詐欺犯案計畫,或是查詢「如何闖入民宅、犯下恐怖行動、網路犯罪與兒童性侵案」等資訊。
歐洲刑警組織指出,聊天機器人能模仿說話風格,對於發動網路釣魚攻擊特別能派上用場,進而引誘使用者點擊虛假電郵連結,之後再試圖竊取資料。
|