物理學家霍金(Stephen Hawking)、Tesla執行長Elon Musk以及蘋果(Apple)共同創辦人Steve Wozniak等幾百位在學術界與產業界頗負盛名的專家學者們日前簽署了一份反對攻擊性自動武器的公開信。
這封公開信是生命未來研究所(Future of Life Institute;FLI)在2015年人工智慧國際聯合會(IJCAI)開幕時所發表的,用意在于警告開發軍事人工智慧(Artificial Intelligence;AI)系統的軍備競賽將會傷害人類。
“如果有任何重大的軍事力量推動AI武器的發展,不可避免地將會造成一波全球性的軍備競賽,而這項技術軌跡的終點是顯而易見的:自動武器將會變成明日的Kalashnikovs沖鋒槍。”
信中強調,這樣的系統利用其強大的可承受能力,無可避免地將會變得無所不在,并且被用于暗殺、動蕩國家、進行種族屠殺與恐怖主義。
FLI是由美國麻省理工學院(MIT)宇宙學家Max Tegmark和Skype共同創辦人Jaan Tallinn聯手成立的,Hawking與Musk擔任該研究所顧問,期望教導人們看清伴隨人類發展AI而來的風險。他們先前已經公開指出超先進AI的 潛在危險,Musk還曾經強調先進的AI最終“可能成為我們最大的生存威脅”。
由AI帶來的潛在危險已成為技術專家和決策者之間討論的共同話題。就在一個月前,位于美國華府的資訊技術與創新基金會(Information Technology and Innovation Foundation)邀請多位知名的電腦科學家共同針對超級智慧電腦是否真的對人類造成威脅的問題展開廣泛討論。
加州大學柏克萊分校AI教授Stuart Russell參與了這場辯論會,同時也簽署了這封公開信。根據他的觀察,“AI是否會對人類造成威脅,取決于我們是否使其成為人類的威脅。”他強調,我們還必須更加努力,才能確保不會使AI成為人類的威脅。
美國軍方目前堅稱,自動系統必須服從人類的指揮。根據2012年美國國防部(DoD)的政策指令規定,“自動與半自動武器系統的設計必須能讓指揮官和營運商行使適當的人為判斷,凌駕于武力的使用之上。”
然而,人類控制超越這些系統的實踐仍然不完善。2014年,人權組織Reprieve聲稱,美國無人機在每一次預定目標的攻擊行動中意外導致28名不明個人死亡。
美國國防部對于自動武器的政策必須在發布后的五年內重新認證,否則將在2022年到期。然而,如果其他國家不斷追逐自動系統的開發,那么政治或軍事領袖是否會持持這項策略就不得而知了。
在2014年的報告中,華府的一個防御政策小組——新美國安全中心(CNAS)聲稱,全球至少有75個國家仍不斷投資于自動軍事系統的研發,而美國將“出于運作的必要性而被迫投入些系統,同時也因為人員的成本以及傳統載人作戰平臺的發展越來越無以為繼。”
如果CNAS是正確的,那么自動系統的經濟將會十分吸引人,攻擊性武器的禁令可能無法實現。
經濟吸引力
經濟將在武器系統的訴求下展現明顯作用。Kalashnikov步槍在很大程度上取決于其普及度、可負擔性以及簡單性。或者,以地雷為例,這種表面上的攻擊性自動武器并不包括在公開信提出“禁用攻擊性自動武器”的涵蓋范圍內。
根據聯合國的資料,地雷的制造費用介于3美元至75美元之間。從1960年代以來,已經有多達1.1億個地雷被部署在全世界70多個國家中。此外,在戰時尚未被發現的地雷仍可能引爆。
禁止地雷的確有其效果:在1999年分頒布禁雷條約(Mine Ban Treaty)后,因地雷死傷的人數已經從每天25人降低到9人了。但對于地雷的限制至今尚未取得世界各地或每個人的重視。
的確,更好的AI實際上也有許多好處。例如,基本的地雷演算法是:如果觸發,隨即爆炸。它能做得更有識別能力嗎?——何時爆炸、該礦區的機制是機械或電 子的?例如在地雷中加一個逾期計時器,就能避免許多意外致死,特別是當作戰結束后。更先進的系統對于有效目標應該具有更高的識別能力。
攻擊性的向動武器目前已經存在了。除了地雷,還有自動網路武器。例如,Stuxnet一直被歸類于AI。事實上,相較于消極地禁止自動武器系統以外,更實際也更有效的作法在于追尋一個積極管理的制度。