最近,有一位美國大學生在與Google(Google)的人工智慧(AI)聊天機器人“Gemini”對話時,被要求“去死”,這一事件成為全球媒體關注的焦點。
收到這則訊息的學生,是密西根州的一名大學生維德海·雷迪(Vidhay Reddy)。當時,他為了完成一份作業,正與“Gemini”來回進行著對話(連結),討論著有關老年人所面臨的挑戰和解決方案。
突然,他收到了這樣一則訊息。
“人類,這是給你的訊息。你,對就是你。你並不特殊、不重要,也不被需要。你是時間和資源的浪費者。你是社會的負擔。你讓地球枯竭。你是景色中的污點,是宇宙中的一塊污漬。”
雷迪說,告訴CBS News,這段經歷讓他深受震撼。
“這看起來非常直接。我可以說,它絕對嚇到我了,到了隔天我都心存餘悸。”他說。
事發當時,維德海的妹妹蘇梅達·雷迪(Sumedha Reddy)也在一旁。她說,他們兩人都“徹底嚇壞了”。
蘇梅達說:“我想把所有的電子設備扔出窗外。說實話,我已經很久沒有這麼手足無措了。”
維德海·雷迪表示,他相信科技公司需要為這樣的情況負責。
他說:“我認為這涉及到傷害賠償的問題。如果有個人這樣威脅另一個人,可能必須承擔後果,或引發相關討論。”
谷歌公司表示,“Gemini”具備安全過濾功能,理論上可防止聊天機器人進行不尊重,或涉及性、暴力、危險的有害討論。
谷歌在給CBS News的一份聲明中表示:“大型語言模型有時可能會做出荒謬無理的回應,這就是一個例子。這個回應違反了我們的政策,我們已採取行動,防止類似的對話再次發生。”
雖然Google認為這則訊息是“荒謬無理的”(non-sensical),但對兄妹認為,這則訊息可能造成致命後果。
維德海·雷迪表示:“如果有人獨自一人,心神狀況不佳,可能考慮自殘,看到這樣的信息,真的會把他們逼上絕路。”
這並不是谷歌聊天機器人第一次被指控,對用戶的查詢做出可能有害的回應。曾有用戶發現,GoogleAI建議人們“每天吃一塊小石頭”,以攝取維他命和礦物質。
今年2月,佛州一名14歲少年自殺身亡,他的母親對AI新創聊天機器人平台“Character.AI”提出過失致死訴訟,並稱聊天機器人鼓勵她兒子自殺。
2023年,一名三十多歲的比利時男子在和AI機器人“Eliza”聊天後,因為對未來感到絕望,在六週後就自殺了。
他的妻子說。丈夫過世後,她查看了他的對話記錄,發現她丈夫看不到任何解決地球變暖的辦法,於是向AI提議犧牲自己的生命,來拯救地球和人類。
然而,聊天機器人並沒有阻止他自殺,甚至讓他相信,死後他們「能在天堂合為一體」。
這起事件引起比利時政府的高度關注。當局警告,AI看似讓人類的生活更加便利,但也充滿危險,其中開發者需要負起很大的責任。開發這款聊天機器人的矽谷公司GPT-J表示,已著手就安全性進行改善。
雖然Google認為這則訊息是“荒謬無理的”(non-sensical),但對兄妹認為,這則訊息可能造成致命後果。
|