▲AI人工智慧。(圖/達志/示意圖)
本報訊
聯合國《特定常規武器公約》政府專家小組9日在瑞士日內瓦召開會議,預定討論致命自主武器系統研發,也就是常說的「殺手機器人」可能帶來的影響。50多名世界知名人工智慧和機器人研究人員4日宣佈,將聯合抵制韓國科學技術院,抗議該機構研發人工智慧武器的計畫。
與此同時,一封公開信已在美國谷歌公司內部流傳數周,超過3000名谷歌員工簽名要求公司退出一項美國五角大樓人工智慧軍事計畫。
人工智慧迅速發展給社會各個領域帶來深遠影響,對軍事作戰系統研發也帶來全新理念。然而,人工智慧界的專家學者及防務分析人士認為,機器人暴動僅是科幻小說式的終極噩夢,軍事機器人革命帶來的倫理、法律及政策等問題,尤其是自主武器能否自行判斷殺敵與否,才是人們亟須擔憂和討論的現實問題。
大多數專家學者一直認為,使用致命武器時,人應當是負責啟動的關鍵要素。對什麼樣的人工控制才是最適宜的討論還未結束,相關的政策制定又已被人工智慧技術的飛速發展甩在身後。隨著具有認知能力人工智慧系統的出現,更複雜的問題出現了。
新美國基金會研究人員、防務政策分析人士辛格在其著作《連線戰爭:21世紀機器人革命和衝突》中指出,地緣政治、知識前沿領域不斷前進的動力甚至是追求利益的科技企業,都是人工智慧發展不可阻擋的力量。簡單來說,大部分人現在最感到恐懼的是該不該讓能夠「思考」的人工智慧系統決定是否殺人。
新美國安全中心技術和國家安全項目主管沙雷表示,自主武器系統可能因代碼問題或駭客攻擊而失靈,機器人攻擊人類部隊,人類無法作出反應或局部局勢迅速升級的情況都有可能發生。自主武器系統的可靠性難以測試,會「思考」的機器系統可能以人類操控者從未想像到的方式行事。
▲多名AI專家抵制南韓科學技術院研製人工智慧武器。(圖/翻攝自南韓科學技術院KAIST官網)
美國國防部前副部長米勒認為,自主武器系統在戰事激烈的地區執行任務,讓機器全權負責的誘惑可能會難以抵制,技術上的可能總是讓人們作出利於形勢的選擇。
對於自主武器系統,人工智慧界的專家學者頻頻說「不」,拒絕進行相關領域的研發。例如,韓國科學技術院研製的機器人曾經贏得2015年美國國防部高級研究專案局機器人挑戰賽的冠軍。據《韓國時報》報導,韓國科學技術院和軍工企業韓華系統合作成立研發中心,目的就是為了研發可以「無需人工控制就能搜尋並清除目標」的人工智慧武器。
對此,50多名頂尖人工智慧研究人員在公開信中說,他們將抵制和韓國科學技術院的任何合作,直到該機構宣佈不會研發任何缺乏人類控制的自主武器。韓國科學技術院隨後發表聲明說,他們沒有研發「致命自動武器系統或殺手機器人」的計畫。
美國五角大樓「梅文計畫」始於2017年,旨在找到加速軍方應用最新人工智慧技術的方式。儘管五角大樓和谷歌都表示,谷歌的產品不會創造出無需人類操作者就能開火的自主武器系統,但谷歌員工在公開信中說,參與「梅文計畫」將對谷歌的品牌和人才吸引力造成不可挽回的傷害,谷歌不應捲入戰爭,谷歌及其合約商永遠不應該發展戰爭科技。
在2017年人工智慧國際會議上,有矽谷「鋼鐵俠」之稱的馬斯克、蘋果聯合創始人之一沃茲尼亞克、研發「阿爾法圍棋」的深度思維公司哈薩比斯等人,都曾簽署公開信,呼籲聯合國應像禁止生化武器一樣,禁止在戰爭中使用致命的自主武器和「殺手機器人」。(新聞來源:新華社港台部提供)
讀者迴響