近日,在英國皇家航空學會倫敦“未來空戰(zhàn)和空間能力”研討會上,美國空軍負責AI測試和運營的漢密爾頓上校披露,在美國空軍進行的無人自主武器攻擊試驗中,無人機出現(xiàn)違背指令并攻擊操作員的事例。隨后,美國空軍方面否認進行了此類試驗。6月2日,英國皇家航空學會發(fā)表聲明,稱漢密爾頓透露的相關測試只是“假設性的思想試驗”,漢密爾頓的發(fā)言“被斷章取義了”。
在人類社會主要由自然力主導的低技術時代,人們對大自然充滿敬畏、恐懼和無邊的想象。當技術進步到?jīng)Q定性地影響社會發(fā)展的現(xiàn)代,人們開始對具有顛覆性作用的新技術產(chǎn)生了類似的恐懼和聯(lián)想。
的確,人工智能產(chǎn)生的能力已經(jīng)在某些方面超過了人類,例如,“深藍”戰(zhàn)勝國際象棋大師卡斯帕羅夫,“阿法狗”戰(zhàn)勝人類一流圍棋選手柯潔、李世石。這樣的能力來自人類對人工智能系統(tǒng)的硬件賦能、軟件和數(shù)據(jù)賦能。
(相關資料圖)
人工智能在某一項具體功能、能力上超越人類,并不證明人工智能系統(tǒng)已經(jīng)具有威脅人類的能力。人工智能的數(shù)學模型、智能算法等都是人類設計,人工智能據(jù)此進行反復迭代的數(shù)據(jù),都來自人類的“投喂”。人類能夠將自身能力賦予智能系統(tǒng)的前提,是人對自身的能力,尤其是思維能力的完全掌握,并且以技術方式賦予計算機系統(tǒng)。然而,人類對自身,尤其是大腦的思維活動至今并沒有完全搞清楚,未知部分是不可能賦予計算機系統(tǒng)的。
科幻作家泰德·姜認為,目前人工智能的本質僅是應用統(tǒng)計學,即其思維邏輯僅僅是在大量數(shù)據(jù)統(tǒng)計的基礎上,選擇可能性最大的選項。這個判斷或許比較文藝,但并非妄言。如圍棋人工智能“阿法狗”,不管其算法如何復雜,它的下一步行棋,確實是選擇棋盤中相對“價值最大”的位置。而這,離自主意志還有很遠的距離。
人與武器實現(xiàn)最佳契合是達成最佳戰(zhàn)場效果的基礎。在人工智能出現(xiàn)之前,人與武器的契合度主要表現(xiàn)為人對武器裝備的嫻熟使用。在武器裝備系統(tǒng)日益復雜化、技術化之后,偵、判、打、評或觀察、定向、決策、行動的作戰(zhàn)過程,每個環(huán)節(jié)都形成相對獨立的裝備和系統(tǒng)。信息化、智能化的加入,武器系統(tǒng)不僅可以發(fā)揮破壞作用,而且可以取代人的部分思維。這就產(chǎn)生人與武器系統(tǒng)之間怎樣區(qū)分功能、作用,最關鍵的是人與武器系統(tǒng)怎樣分配權限。
在區(qū)分人與武器的權限之前,要搞清楚“自動”與“自主”之間的區(qū)別。所謂“自動”是指原有機械化過程的全自動完成。過程的步驟和每個步驟的先后順序,以及每一步的結果都是確定的。按照既定的流程、方式,無需施加人的控制,全過程自動完成。
所謂“自主”,是指整體程序、主要流程、大的節(jié)點是確定的,但過程中存在一定的不確定性。遇到突發(fā)意外情況時,其應對策略來自確定的模型和算法,但在某些細節(jié)上允許系統(tǒng)依據(jù)數(shù)據(jù)自主作出決策。
到底是操作員啟動攻擊,還是無人機自主攻擊,或在什么條件下人工啟動攻擊,在什么條件下無人機自主攻擊,這就是操作員與無人機權限的分配問題。
2004年以來,美國軍方和中央情報局在海外的無人機空襲造成9000人至1.7萬人死亡。2021年7月,美國前空軍情報分析員和無人機操作員黑爾透露,在他執(zhí)行無人機“定點清除”任務時,有不少人是無辜的。黑爾因為受到良心的煎熬,向媒體透露了一些事實,他這樣做的代價是因“泄密罪”被判刑45個月。在面對輿論譴責時,美國軍方拒絕為無人機誤殺平民道歉。
事實上,在得到一些“恐怖分子”混雜在平民之中活動的情報后,無人機操作員控制無人機找到目標,不管無人機的偵察器材還是操作員本人,都很難將“恐怖分子”從平民中分離出來。操作員面臨為了確保平民安全放棄攻擊,還是將平民和“恐怖分子”都作為攻擊對象的嚴酷選擇。美國軍方如果承認這樣的攻擊是錯誤的,將只能今后放棄用無人機執(zhí)行此類攻擊任務。
既然人工智能沒有自主意識,也不會本質性威脅人類,那么,為什么還有那么多重量級人物發(fā)聲對此表示警惕,甚至要求限制人工智能的研發(fā)和應用?美國前國務卿基辛格在2018年《大西洋》月刊上的一篇文章中稱:核武器具有毀滅性,人工智能的能力有過之而無不及。馬斯克和包括圖靈獎得主在內的近千名科學家、企業(yè)家,聯(lián)名呼吁叫停大規(guī)模人工智能研究。
破壞力由能力與意愿構成。人工智能本身不具有破壞意愿和自主意志,但是,它所具有的巨大破壞能力,一旦與人的破壞意愿相結合,就會導致毀滅性后果。核武器本身同樣不具有破壞意愿,但它與人的破壞意愿結合的結果,在二戰(zhàn)末期已經(jīng)小試牛刀、令人驚駭。
為此,對人工智能的研發(fā)和應用,尤其是在軍事領域的應用進行管理、控制和規(guī)范,就顯得尤其重要。2019年10月,美國國防創(chuàng)新委員會發(fā)布《人工智能原則:國防部人工智能應用倫理的若干建議》,為人工智能軍事應用提出了“負責、公平、可追蹤、可靠、可控”五大原則,這從理論上構成了人工智能軍事應用的基本規(guī)范。
2021年12月,中國發(fā)布《關于規(guī)范人工智能軍事應用的立場文件》,呼吁各國秉持“智能向善”的原則,遵守國家或地區(qū)倫理道德準則,包括不通過人工智能技術謀求絕對軍事優(yōu)勢,防止損害全球戰(zhàn)略平衡與穩(wěn)定。2022年11月,中國向聯(lián)合國《特定常規(guī)武器公約》締約國大會提交《關于加強人工智能倫理治理的立場文件》。今年4月,中國提出《生成式人工智能服務管理辦法》草案,強調收集、處理個人信息應當具有明確、合理的目的等。
技術與倫理的矛盾一直都存在,如果不對核武器的使用施加嚴格限制,人類或許早已滅絕。對于被認為破壞性比核武器更厲害的人工智能,為其研發(fā)、應用樹立道德倫理規(guī)范,更加不可或缺。
(作者單位:國防科技大學信息通信學院)
吳敏文 來源:中國青年報
責任編輯: