menu-icon
anue logo
熱門時事鉅亨號鉅亨買幣
search icon

科技

FT社評:殺手機器人將是人類噩夢

鉅亨網新聞中心 2015-08-05 15:22


人類是一個嗜血的物種。根據學者史蒂文?平克(Steven Pinker)的法,在歷史的大部分時間裏,被同類所殺是人類的頭號死因。文明基本上是人的暴力本能被逐漸束縛住的故事。其中一個部分是有血有肉的人持續從戰場撤出,前線逐漸被遠程武器和空中軍事力量拉遠,公對於傷亡的容忍程度也下降了。

可以,美國的主要進攻武器是無人機,操縱者安坐於千里之外對目標進行打擊。考慮到技術進步之快,無需腦洞大開,我們就能預見到機器將可完全代替人類進行殺戮。在迄今仍被視為人類專屬的活動領域裏,人工大腦已有良好表現。電腦將被交托駕駛汽車或者診斷疾病的任務。因此,在做出殺戮的決策上,算法智能或許也將超越人類智能。


這種可能性,促使1000多名人工智能專家在一封公開信中呼籲立即停止發展“致命自動武器系統”。他們敦促稱,現在就行動,否則被他們不可避免地稱為“殺手機器人”的武器將和卡拉什尼科夫步槍(Kalashnikov,即AK-47)一樣廣為流傳並造成同樣致命的危害。

軍方對機器人戰爭的熱衷很容易理解。士兵是寶貴的、成本高昂的,也是會犯錯誤的。本可避免的人為失誤在每一場戰鬥中都造成了嚴重傷亡。相較之下,機器既不知疲倦,也不會失去耐心。它們可以被送往不安全甚至普通士兵無法到達的地方。計算能力的迅速提升正賦予機器“更柔軟”的技能,比如識別一個有血有肉的單獨目標。最終,事實可能將證明機器人會比最有經驗的士兵更安全,比如能夠從一群孩子中挑出槍手——然后射殺他。

反對機器人戰爭的理由與反對所有武器進步的理由相同——避免大量無辜受到傷害這種不可預知的后果。無論採取了什麼預防措施,都沒有萬無一失的方法來阻止武器落入不法之徒的手中。要想一窺那種情況下會有什麼后果,可以回憶一下美國汽車製造商克萊斯勒(Chrysler)在發現汽車可以被遠程入侵后,需要檢測和排除140萬輛汽車隱患的事情。現在,想象一下這些車裝備了槍支。

技術未來主義者也擔憂人工智能異常快速的發展。科學家斯蒂芬?霍金(Stephen Hawking)最近提醒人們警惕人工智能遠超人類智能后可能發生的“科技大災難”。這到底是對無法避免的事情,還是只是幻想,科學本身無法確定:但考慮到其中的風險,給超級智能裝備武器能有多明智呢?

道德方面的理由更為直接。在減少殺人方面,對殺戮的厭惡是個重要因素,其作用不亞於任何技術突破。將人工智能插入這條因果鏈,將弄混殺人決定背后的責任。沒有明確的責任,不僅發動戰爭的手段得到加強,發動戰爭的意願也可能上升。

讓武器消失是不可能的:想一想殺傷性地雷——一種自動運行的武器——現在依然每年造成1.5萬到2萬人喪生。人工智能的性質使人們無法預見自動武器發展的終點在哪裏。不管進行多少精密的編程,也無法限制其后果。最好不要踏上這樣的旅程。(FT中文網 譯者/許雯佳)

文章標籤


Empty