Google新研究計畫 讓AI更有包容力、不歧視他人?

實習記者黃肇祥/台北報導

你也曾被 Siri 的回應氣到哭笑不得嗎?Siri 的幽默是需要靠人類來教導的,但其實也有不少人工智慧被教壞的前例,近期 Google 推出一項計畫,就是為了讓 AI 更具有包容力,減少歧視人類的可能。

A.I.,人工智慧,人工智能,Artificial Intelligence(圖/視覺中國CFP)

▲人工智慧是現今科技的發展趨勢,期盼透過機器學習輔助人類的生活。(圖/視覺中國 CFP)

這項計畫由資訊視覺化的專家 Fernanda Viégas 與 Martin Wattenberg 帶領,代號為 PAIR(People + AI Research),試圖站在人類的角度,重新思考人與 AI 的互動方式,且重要的是,如何確保計畫能受惠於每一個人。計畫分成三個研究方向,包含如何讓工程師更了解 AI 的學習機制、各領域的專業人士如何透過 AI 完成工作,最後則是希望讓 AI 更具有包容性。

微軟人工智慧「Tay」學壞亂講話,上線 24 小時遭下架(圖/取自Twitter)

▲微軟人工智慧「Tay」學壞亂講話,上線 24 小時遭下架(圖/取自 Twitter/Tay Tweets)

去年三月,微軟為研究人類的對話形式,推出一款名為「Tay」的智慧聊天機器人,除了會說笑話,特別的是給它看圖片,Tay 能夠辨識進而給出有趣的評論,且在每一次的談話過程中,都會不斷改善自己的回話內容,然而有網友發現 Tay的個性都取決於問話方法,因此網友開始進行「調教」,最後竟將 Tay 訓練成種族歧視的偏激分子。

Tay 並非人工智慧被教壞的首例,惠普電腦的臉部辨識系統,就曾傳出對於非裔族群特別難以辨認,又或者在其他 AI 系統中,醫生總是被預設為男性,護士總是女性。這些問題都源自於 AI 學習的過程當中,人們灌輸錯誤的資訊,進而導致連 AI 也開始產生偏見。也因此 PAIR 計畫公開兩款開發工具「Facets Overview」與「Facets Dive」,讓有志投入 AI 研究的專家,可以更輕易檢查數據是否有偏差。

▲Google,谷歌

▲Google近年來積極研發人工智慧,希望能有所突破。(圖/路透社)

Google 認為關鍵在於設計 AI 的思維,不將它視為一種技術,而是可以設計的材料,試圖用全新的想法打造 AI。當然,這樣的研究與想法已經有不少學者、專家提出,但能看見 Google 這樣的大公司願意投入研究,對於科技發展鐵定不是壞事吧?

分享給朋友:

※本文版權所有,非經授權,不得轉載。[ ETtoday著作權聲明 ]

3C家電熱門新聞

中華隊奪冠通訊行祭超狂優惠

中華隊奪冠三大電信優惠出爐!

實測/realme GT 7 Pro水下拍攝

盛源PERSONA「以人為本」創新顯示技術

iPhone偵測到進水!超神奇「排水捷徑」曝光

vivoX200系列預購開紅盤

蘋果突發布iOS 18.1.1 建議立刻更新

直擊/realme GT 7 Pro國際版發表

IG推限時動態「文字」模式

FB上互搜就變...「建議好友」?

手機十月銷量Top10出爐

IG 新增 QR code 功能! 相機直接掃就可以互相追蹤

OPPO Find X8系列售價公開

ROG Phone 9規格、價格公開

相關新聞

關鍵字:

讀者迴響

熱門新聞

最夯影音

更多

熱門快報

回到最上面