實習記者黃肇祥/台北報導
你也曾被 Siri 的回應氣到哭笑不得嗎?Siri 的幽默是需要靠人類來教導的,但其實也有不少人工智慧被教壞的前例,近期 Google 推出一項計畫,就是為了讓 AI 更具有包容力,減少歧視人類的可能。
▲人工智慧是現今科技的發展趨勢,期盼透過機器學習輔助人類的生活。(圖/視覺中國 CFP)
這項計畫由資訊視覺化的專家 Fernanda Viégas 與 Martin Wattenberg 帶領,代號為 PAIR(People + AI Research),試圖站在人類的角度,重新思考人與 AI 的互動方式,且重要的是,如何確保計畫能受惠於每一個人。計畫分成三個研究方向,包含如何讓工程師更了解 AI 的學習機制、各領域的專業人士如何透過 AI 完成工作,最後則是希望讓 AI 更具有包容性。
▲微軟人工智慧「Tay」學壞亂講話,上線 24 小時遭下架(圖/取自 Twitter/Tay Tweets)
去年三月,微軟為研究人類的對話形式,推出一款名為「Tay」的智慧聊天機器人,除了會說笑話,特別的是給它看圖片,Tay 能夠辨識進而給出有趣的評論,且在每一次的談話過程中,都會不斷改善自己的回話內容,然而有網友發現 Tay的個性都取決於問話方法,因此網友開始進行「調教」,最後竟將 Tay 訓練成種族歧視的偏激分子。
Tay 並非人工智慧被教壞的首例,惠普電腦的臉部辨識系統,就曾傳出對於非裔族群特別難以辨認,又或者在其他 AI 系統中,醫生總是被預設為男性,護士總是女性。這些問題都源自於 AI 學習的過程當中,人們灌輸錯誤的資訊,進而導致連 AI 也開始產生偏見。也因此 PAIR 計畫公開兩款開發工具「Facets Overview」與「Facets Dive」,讓有志投入 AI 研究的專家,可以更輕易檢查數據是否有偏差。
▲Google近年來積極研發人工智慧,希望能有所突破。(圖/路透社)
Google 認為關鍵在於設計 AI 的思維,不將它視為一種技術,而是可以設計的材料,試圖用全新的想法打造 AI。當然,這樣的研究與想法已經有不少學者、專家提出,但能看見 Google 這樣的大公司願意投入研究,對於科技發展鐵定不是壞事吧?
讀者迴響