▲若自駕車發生車禍致人傷亡,刑事究責要針對駕駛座的自然人或程式設計者?(圖/視覺中國)
2018年3月18日晚上,美國亞利桑那州一輛Uber所屬的自動駕駛實驗車,撞到一位牽著腳踏車穿越馬路的行人,成為世界首起自駕車致人於死的案件。美國交通安全部經過一年半的調查後認為,是因自駕車將行人判定為未知物體,才造成如此的結果。如此的結論,除了顯示自駕車必須要有更精準的技術,才能正式上路,以及人工智能的倫理問題外(參考筆者著:吳景欽/怪製造商或程式設計者?無人車肇事誰該負責),於法律政策上,也是該思考人工智慧的究責問題。
以這個事件來說,若要進行刑事究責,在法人尚無法成為犯罪主體下,檢察官也無法對車輛擁有者,即Uber公司起訴,致使歸責對象轉向自駕車裡的安全人員。只是在自駕車的場合,位於駕駛座的自然人能介入操縱的可能性,因技術等級的差別而有所不同。尤其是目前處於實驗階段的自動車,如一般所稱的「等級四」,基本上全由電腦操控,人力介入被限縮至極小的空間。甚至到了所謂「等級五」,所謂駕駛座已無方向盤,人力介入的可能就降為零。也因此,若全針對位於駕駛座的自然人究責,也有違行為責任原則。若果如此,究責對象就必然指向程式設計者。
只是就程式設計者來說,面對千變萬化與不可預測的路況,能否將所有交通規則全數納入程式裡,這本身就是個很大的問題。尤其對於道德、倫理規範能否數位化成簡單的程式,恐讓人心生疑問。如以上述Uber肇事事件來說,自動駕駛車雖已偵測到前方有物體在移動,甚至已判定疑似為行人,但不管是行人或者物品,此等穿越皆違反交通規則,若突然轉向,也會造成他人的傷害,致陷入極大的矛盾。
事實上,在自然人駕駛的場合,對於如此情況的選擇,並不可能有這麼仔細的思考,往往是直覺反應。但奇特的是,當人工智慧逐漸取代人類大腦時,由於是最純粹的理性思考,就得把這些複雜且可能相互矛盾的倫理規則灌輸到電腦裡。除非在可見的未來,人類能製造出擁有感性、直覺與價值判斷的人工智慧,否則,要將倫理規範數位化,將一直是個棘手的問題。
好文推薦
●吳景欽,真理大學法律系所副教授兼刑事法研究中心主任、法稅改革聯盟發起人及超徵還財於民公投提案領銜人。以上言論不代表本報立場。
讀者迴響