記者黃肇祥/綜合報導
根據先前的報導,Google 因為與美軍的合作引來內部的離職潮,有員工擔憂 AI 技術被運用在生產武器與監控。Google 執行長 Sundar Pichai 今天就公開詳細的 AI 技術使用原則,明確指出不會將技術運用在對人造成傷害的武器與技術上。
[廣告] 請繼續往下閱讀.
在文章開頭 Pichai 提到 AI 人工智慧於各領域的應用,幫助人們解決難題,但強大的技術也面臨風險,如何使用與開發將會對社會造成重大影響。Google 承諾該領域不斷發展,會保持謙卑的態度面對開發工作,並且隨著時間調整 AI 研發的工作內容。
Pichai 提出七大原則,包含:
1. AI 技術應該對社會是有益的
2. 避免加強、製造偏見與不平等
3. 注重技術安全、確保安全性
4. 對人類負責,保證受人類控制與監控
5. 設計需注重隱私原則
6. 捍衛科學的最高標準
7. 提供符合上述原則的用途
[廣告] 請繼續往下閱讀..
除了七大原則,還有四項禁止項目,包含不違反國際的技術公約、國際法與人權原則等,若可能製造巨大傷害,將在可以進行安全限制下進行,最後則是關於近期爭議武器的條款,則是寫道,AI 不會用在「直接導致人類被傷害的武器與技術」。Pichai 澄清,Google 沒有開發專用於武器的 AI 技術,仍會繼續與美軍保持合作,但會將技術運用在網路安全、人才培訓、醫療保險與搜救。
根據《彭博社》報導,一名參與 Google 內部抗議聯署的員工表示,文章用語非常謹慎,但至少公司開始解決問題。英國牛津大學的 AI 研究員 Miles Brundage 則表示,對於人類造成傷害這點相當模糊,因為 Google AI 仍可以針對建築物與非人類項目進行網路攻擊。