▲Clearview AI在網路上蒐集達30億張人臉,進行臉部數據分析。(圖/翻攝自Clearview AI官網)
記者羅翊宬/綜合報導
前陣子臉書等社群網站上,風靡著各種關於「人臉」的小遊戲,使用者將自己的照片上傳,可以獲得預測自己變老以後的照片,不過有資安專家警告,此舉恐怕造成隱私與個資外洩。美國一間科技公司Clearview AI就有著一座蒐集30億張人臉的龐大資料庫,雖政府執法單位常倚賴其技術偵破案件,但卻也已引發外界質疑。
根據外媒報導,加拿大政府於2月宣布,要針對Clearview AI展開偵查,因為其透過人臉辨識技術,在各大社群網站上蒐集30億張人臉,並提供給48個執法單位使用,有好幾間科技公司知情後,要求Clearview AI刪除從社交媒體中蒐集而來的所有臉部數據。
而加州更有4個公民團體指控,表示Clearview AI未經使用者同意便透過自動掃描等技術蒐集30億張人臉,之後利用眼睛、鼻子大小等五官臉部特徵,建立起龐大的「臉紋」資料庫。
►Clearview AI與美國移民海關局簽下658萬訂單 但仍面臨觸犯隱私指控
▲不少執法單位與私人機構皆倚賴Clearview AI提供的技術與資料庫。(圖/翻攝自Clearview AI官網)
其實,美國政府有許多執法單位非常倚賴Clearview AI的人臉辨識技術!根據美媒《華盛頓郵報》,美國移民與海關執法局(ICE)曾於2020年8月與該公司簽署一份任務技術、價值達22萬4千美元的合約,而Clearview AI的執行長也曾在聲明表示,已與ICE的轄下機關國土安全調查局(HSI)達成協議,將技術用於兒童剝削的部門並進行刑事調查,避免兒童受到性虐待、性剝削。
另外,《紐約時報》也曾一連串發表專題,探討Clearview AI如何利用自身技術協助警方或政府破案!在最新一期的專題「你的臉不是你自己的」(Your Face Is Not Your Own),就記載著一名兒童性侵犯遭警方辨識、成功逮捕的過程。
報導指出,美國國土安全部(DHS)的調查人員於2019年5月,無意間從Yahoo來自敘利亞的用戶收到女童慘遭性侵的相片,其中相片內的性侵犯為一名蓄著山羊鬍的白人男子,雖眼睛直視鏡頭,不過相片畫素實在太低,不但看起來模糊、且拍攝角度傾斜,使得調查人員在辨識該名男子的身分時陷入困境。
於是,美國國土安全部將照片發布給全國調查兒童性犯罪的探員,一名來自紐約的女探員使用Clearview AI的App搜尋,意外找到一張來自Instagram的相片,該張相片顯示場景為健身博覽會,一對身材壯碩的男女模特兒秀出肌肉,不過身後站在攤位後方的男子,卻意外與美國國土安全部發佈照片的男子意外相似。
▲美國情蒐機構探員利用App,竟意外找到性侵犯的身分與下落。(圖/翻攝自Clearview AI官網)
探員在找到該間健身營養品公司後,得知站在攤位後方的該名男子為住在拉斯維加斯的36歲阿根廷裔男子維奧拉(Andres Rafael Viola),在找到他在臉書上的公開帳號後,竟然在相簿內發現性侵相片內出現的房間,其中甚至有被害女童的相片。
警方在短短1個月內找到維奧拉位於拉斯維加斯的住處,並在住處內的電子設備發現350個性侵兒童的影像,最後維奧拉被判處35年有期徒刑。
美國國土安全部得意表示,沒有Clearview AI龐大臉部資料庫的分析與協助,根本無法在短時間內破獲這起高達數百名兒童受害的性侵案。
不過,Google、Youtube、臉書、推特、Venmo等社群網站與平台知情後,反而指控Clearview AI違反使用條款,要求其不得再使用其所提供的數據當做臉部分析的資料,但卻屢次宣告失敗。
讀者迴響