定義
自主武器在國際上並沒有一個明確而廣泛接受的定義。
紅十字國際委員會將其定義為“可以根據自身所部署的環境中不斷變化的情況,隨時學習或調整運轉的武器。 真正的自主武器能夠在無人干預或操控的情況下搜尋、識別並使用致命武力攻擊包括人類在內的目標(敵軍戰鬥員)。”也有人將自主武器稱作“
殺手機器人”,其“是具有某種形式
人工智慧的移動系統,能夠在無人控制的情況下在動態環境中運行。”
區別內容
自動武器不同與自主武器,其雖以自足完備和獨立的方式運行,但最初目標由操作人員設定並控制,並在可控環境下嚴格執行預編程行動或序列。此類系統的實例包括自動崗哨炮和末敏彈(包括某些反車輛地雷)。在紅十字國際委員會有關2011年挑戰的報告中,該組織表示“最近科技的發展逐漸加強了此類系統區分某類軍事目標與民用物體的能力。儘管如此,仍無法預測這類系統將來在多大程度上能夠進行區分,此類系統的主要挑戰仍將是如何確保在使用這些武器時能按國際人道法規定區分軍事目標與民用物體。”
值得注意的是,
無人機屬於遙控武器之列,其必須由操作人員選定目標並激活、瞄準和發射相關武器。因此,無人機不屬於自主武器。
現狀
全自主武器尙不存在,世界各強權國家,包括美國在內,也都尙未決定是否部署這類武器。但某些武器裝置已具有部分自主系統,特別是在識別和攻擊目標方面。但值得注意的是該類武器均固定在某特定位置,短期內在少平民和民用設施的限定環境下自主運轉,攻擊目標主要針對彈藥或軍用車輛。
不過,有些高科技軍事單位正著手發展,或已經部署某些自主性更強,能夠自動調整的試驗型的裝備。
美國是這個科技發展領域的先驅者。其他幾個國家,包括
中國、
德國、
以色列、南韓、
俄羅斯和
英國,都已跟著投入。許多專家預測,全自主武器可在二十到三十年內被研製成功,部分專家甚至認為更快。2013年5月17日俄羅斯負責國防工業的副總理羅戈津透露,俄羅斯科研人員正在研發一種機器人,該機器人被稱之為“
殺手機器人”,可不藉助人類干預就能自行選擇並攻擊目標,還可以在
恐怖分子襲擊的環境中幫助疏散撤離受傷士兵和平民。
爭議
美國陸軍訓練及戰略思想司令部長肯尼斯·羅斯列舉了自主武器的優勢:“機器不會勞累,他們不會閉眼,他們不需要在下雨時躲在樹下或和朋友交談…人類在30分鐘後注意力就會急劇下降,但機器從來不會感到害怕。” 從技術角度來說,有朝一日有可能設計出一種自主武器系統,完全能夠遵守攻擊中的區分、比例和預防原則。由於機器人不會受到情緒或個人利益的影響,自主武器在戰場上也許能夠比人類更道德和更審慎地行事。
但自主武器的研髮帶給人們更多的擔憂。主要在攻擊目標方面,人們擔心自主武器無法區分軍事目標和平民,從而造成對人道法的違反。此外,由於自主武器的操作者不明,誰應為武器的過錯承擔責任變得撲朔迷離。
人權觀察組織認為,“各國政府應當預先禁止全自主武器(fully autonomous weapons),以免當它被部署於武裝衝突時危及平民”。人權觀察表示,由於全自主武器不會對被害者感到同情,因此,獨裁者可能利用它們來對付自己的人民。雖然用機器來取代士兵可以減少軍人的傷亡,但也可能因此導致戰爭更易發生,其生命代價卻由軍人轉移到平民來負擔。在《當心間隙:殺手機器人缺乏問責機制》報告中,人權觀察明確闡述全自動武器的難以追責性。此外,2013年4月,人權觀察還聯合50多個
非政府組織組成“阻止殺手機器人組織”,呼籲預先禁止全自主武器的發展、生產和使用。
挑戰
紅十字國際委員會尚未參與對於禁止全自主武器的呼籲,但該組織呼籲各國遵守
日內瓦公約第一附加議定書第36條,在使用或發展該類武器時預先對其後果和對國際人道法的影響作出判斷。此外,該組織還評估了全自主武器可能對國際人道法形成的挑戰:
首先,國際人道法要求戰鬥中需要明確區分戰鬥員和平民,保證平民免受攻擊和傷害。但自主武器是否具有區分能力受到懷疑。
其次,國際人道法的比例性原則“規定平民生命與財產的損失或對平民造成的傷害與預期的具體和直接軍事利益相比不得是過分的”。此類評估需要人類獨特的判斷力,而編程技術可能無法使人工智慧達到該種能力。
第三,預防原則要求儘量減少平民傷亡。而在戰爭瞬息萬變環境中自主武器似乎很難根據情況進行判斷。