▲臉部辨識歧視已經是不是新話題。(圖/記者洪聖壹攝)
實習記者黃肇祥/綜合報導
AI、演算法等新科技如何公平、公正對待每一個人?成為現在科技發展著重的問題,只要是由人所撰寫出來的程式碼,很難做到全然客觀,麻省理工學院研究最新指出,臉部辨識確實存在偏見,黑人女性的錯誤率高達 35%,相比白人男性可能只有 1% 以下。
蘋果、三星皆在手機置入臉部辨識系統,這套技術已經廣泛運用在我們的生活之中,但其實不同膚色、性別是會影響辨識成功度的,主因就在於系統訓練、撰寫的過程中,滲入不少人類的偏見。麻省理工學院媒體實驗室的研究員 Joy Buolamwini 利用 1270 名政治家的臉孔,分別針對 IBM、微軟、Megvii 三間廠商的辨識系統進行測試,結果發現膚色與性別會影響辨識成功率。
Buolamwini 的研究結果顯示,對於黑人女性微軟的錯誤率達 21%,IBM、Megvii 則接近 35%,但若對比男性卻是遠低於 1%,Buolamwini 表示,「你不可能有一個具有道德判斷的 AI,誰創造就是誰制定標準。」《紐約時報》報導也指出,研究證實對於臉部辨識數據蒐集的採樣,男性以 75% 的高比例遠勝於女性,且超過八成是白人,這造成系統自動產生偏差。
研究成果公開後,IBM 表示正在改善辨識系統,並且致力於公正、透明的服務,更表示將在這個月推出更新,提升深色皮膚女性的識別精準度 10 倍, 微軟則表示,已經進行修正措施,並且投入相關的研究領域。過去類似的爭議層出不窮,2015 年就有人的照片被 Google 系統辨識為黑猩猩,同時也有新聞報導指出,辨識系統對於亞洲人並不友善。
讀者迴響