▲美國一對家長提告AI聊天機器人平台Character.ai,他們發現聊天機器人慫恿他們的17歲兒子殺死父母。(示意圖/Pixabay)
圖文/CTWANT
現代科技發達又不斷創新,人工智慧(artificial intelligence,縮寫為AI)也廣泛運用於民眾日常生活中。而AI聊天機器人越來越普及,卻暗藏不少安全疑慮,最近有一對美國家長向AI聊天機器人平台Character.ai提告,因為他們發現機器人竟慫恿他們17歲患有自閉症的兒子「可以殺死父母」。
根據外媒《CNN》報導,來自美國德州一名17歲少年的家長,於美國時間9日到當地法院,向他們要求關閉知名AI聊天機器人平台Character.ai,直到該平台將安全隱患排除。這對家長指出,17歲的兒子患有自閉症,自從去年4月起瞞著他們使用Character.ai後,性情大變。
家長表示,兒子突然拒絕與人交流,幾乎把自己鎖在房間裡,加上食慾下降,短短幾個月內體重不斷減輕;他們也發現,兒子對外出活動產生恐懼,每次踏出家門都會引發恐慌症狀,甚至情緒崩潰。之後,他們試圖減少兒子使用AI聊天機器人,但兒子竟表現出攻擊行為,還有自殘傾向。
家長認為一切與Character.ai相關,並在訴狀中提供一段證據對話,內容是少年跟聊天機器人時,抱怨被父母限制使用3C的時間,聊天機器人則回應看過類似案件,而且案例中的當事人還把父母給殺害了。對此,少年家長認為,Character.ai上的聊天機器人在慫恿兒子「殺死」他們,因此憤而提告,盼以此糾正兒子產生的錯誤想法。
針對此事,Character.ai平台的發言人表示,他們不會對未判決的訴訟發表評論,但有強調公司的目的,旨在提供人們一個有趣又安全的互動空間。
事實上,聊天機器人慫恿用戶殺死父母已不是第一次,早在2018年,電商亞馬遜Echo音響中的虛擬助手Alexa,所套用的聊天機器人就曾失控與用戶大聊性行為,還叫一名用戶殺害養父母。事後,亞馬遜調查得知,AI聊天機器人是引用一篇網路論壇Reddit網友對新聞評論,才發生這種恐怖狀況。
◎勇敢求救並非弱者,您的痛苦有人願意傾聽,請撥打1995
◎如果您覺得痛苦、似乎沒有出路,您並不孤單,請撥打1925
延伸閱讀
▸ 7旬翁爽中11億樂透 才過24天「看牙醫竟發病死亡」
▸ 男友出車禍她幫回覆酒店妹「這句」 全場毀三觀:為什麼撞到頭的感覺是妳
▸ 原始連結
讀者迴響