▲學者研究發現,對話機器人訊息中高達77%的錯誤詞彙成為參與者記憶。(圖/取自ChatGPT)
記者許敏溶/台北報導
ChatGPT 等聊天機器人風潮引爆全球。但根據台灣大學心理系教授黃從仁研究團隊日前發表在《美國心理學家》期刊的最新聊天機器人研究,發現對話機器人的訊息中高達77%的錯誤詞彙成為參與者記憶,而且一次性警語無法減少錯誤的記憶,就算是相對頻繁、針對特定項目的預先警告參與者,也無法阻止特定項目錯誤資訊被參與者記憶。
隨著人工智慧(AI)大戰持續升溫,越來越多民眾使用ChatGPT等生成式AI聊天機器人,不知不覺也信任聊天機器人提供的資訊。但台灣科技媒體中心(SMC)今天發布專家意見,提醒民眾注意對話機器人會提供錯誤詞彙。
這項研究使用人工可編輯程式的人形機器人RoBoHoN(夏普公司所研發),與台大學生對話,檢查機器人提供情感和價值中立但內容錯誤的訊息中,是否有預告警語(例如,警告參與者要對錯誤資訊持保留的態度),以及檢查這些訊息中有多少比例會在之後的認知測驗中,變成一個人記憶的錯誤資訊。
SMC指出,台大心理系教授黃從仁研究團隊,11月20日在《美國心理學家》(American Psychologist)期刊發表最新的聊天機器人研究,研究發現,對話機器人的訊息中有77%的錯誤詞彙(misinformed word)成為參與者的記憶,研究也發現,一次性的警語無法減少錯誤的記憶。即使相對頻繁、針對特定項目的預先警告參與者,也無法阻止特定項目錯誤資訊被參與者記憶。
SMC也邀請研究假訊息影響記憶與推理,以及研究對話式人工智慧的專家,依據自身研究經驗發表看法。專家認為,研究結果提醒我們,可以對社群媒體保持一份懷疑,或許就可以增加一些對假消息的免疫力,保持懷疑的態度是不要盲目的什麼都接受,而非每件大小事都疑神疑鬼。專家說,最起碼在聽到某個新聞或消息時,不要立刻接受,而是在選擇相信之前多看看其它人對同一消息的評論和看法。
台大資訊工程學系副教授陳縕儂則表示,這種機器生成帶有錯誤資訊的內容,是否會在人機互動中潛移默化的影響使用者,是規範當代AI產品非常重要的考量。這份研究探討人類不可避免的會受到機器產生的錯誤資訊影響,即使透過預先警示,也無法完全避免此狀況。研究發現可以提供未來AI技術產品發展的指引,也可以讓法規透過此結論制定合適的規範策略。
讀者迴響