menu-icon
anue logo
澳洲房產鉅亨號鉅亨買幣
search icon
時事

美英等國研發殺人機器人 聯合國討論封殺

鉅亨網新聞中心 2013-05-28 08:11

“由於機器人沒有人類的感情,它們不會理解和辨別人類的情感,諸如復仇、驚慌、憤怒、困惑、偏見或者恐懼。由於沒有足夠的法律問責制度,加上機器人不應該擁有決定人類生死的權力,因此部署此類武器系統可能令人無法接受。”

——聯合國人權理事會特別調查員克里斯多夫·海因斯

聯合國人權理事會定於27日在瑞士日內瓦開會,聯合國人權理事會特別調查員克里斯多夫·海因斯建議立即凍結“殺人機器人”的研發和應用,聯合國成員國將就此議題成立專門委員會展開討論。

“殺人機器人”不斷升級

1944年,著名科幻大師阿西莫夫在機器人短篇集《我,機器人》中,首先提出了《機器人三大定律》,其中第一條就是:“機器人必須保護人類的整體利益不受傷害。”

然而在好萊塢電影中,這一定律從未實現,從《終結者》到《變形金剛》,各種高科技機器人相互廝殺甚至殺人的場面屢見不鮮。

聯合國人權理事會特別調查員克里斯多夫·海因斯宣稱,這種行為正在變成現實,各國在沒有相對道德和法律約束的情況下,正在加快研製智能“殺人機器人”的步伐,這一切應被禁止。

海因斯表示,自己作這個報告是受前段時間美國無人機在打擊“基地”恐怖分子時誤傷了周圍貧民的事件的發。

海因斯在報告中指出,這種“殺人機器人”將從由人遠程遙控,發展至由計算機軟件和感測器裝置控制,進而全自動執行識別敵人、判斷敵情和殺死敵人等任務。然而,這一技術突破是非常令人擔心的,因為這種機器人可能誤傷已經喪失戰鬥力的傷員和准備投降的士兵。海因斯還表示,由於“殺人機器人”缺乏人類的情感,所以會對人類的生命造成潛在的傷害。

操縱者對軍事打擊感到麻木

海因斯警告,殺人機器人可自行作出攻擊目標決定,如果將它們補充到武器庫,可能會“打開更大的潘多拉魔盒”。因此,海因斯希望由聯合國出面,要求各國凍結“殺人機器人”的研發實驗和實際應用。

雖然目前的武器系統背后都有人員在操控,但海因斯認為這種操作形式不可取。海因斯說:“戰場上的局勢瞬息萬變,由於距離限制,很多情報並不會即刻反饋給后方的操控者,造成前方的武器系統判斷失誤。”[NT:PAGE=$]

同時,海因斯認為,由於無人機駕駛員並不在現場,所以對軍事打擊更為“麻木”。

根據海因斯的報告,目前美國、英國、以色列、韓國和日本都在積極研發各種類型的智能或半智能“殺人機器人”。

(韓旭陽)

■ 反應

無人機顛覆現代戰爭

關於“殺人機器人”,因發起國際禁止地雷運動而於1997年獲得諾貝爾和平的美國人喬迪·威廉姆斯認為,“關於科技會完全改變戰爭的討論一直在進行,當有人說這是不流血的戰爭時,我很憤怒。”

國際機器人武裝控制委員會主席、人工智能與機器人技術教授諾爾·夏基認為,無人機參戰意味人類邁出了顛覆現代戰爭的最后一步。他說,目前所有的無人機行動仍處於人類操控階段,“現在最大的問題是,誰在制定目標,誰在下令開火。這些殺人行為是否是自動化的一部分。”

夏基警告說,“機器人大戰”給人們帶來的遠非科技進步的喜悅,而是憂慮。他認為,讓機器人自己決定是否殺人難以保證它們不會濫殺無辜。真人士兵可以用常識判斷眼前的女子是懷孕還是藏有炸彈,而機器人恐怕難以擁有這種思考能力。此外,“殺人機器人”雖有自主意識,但無法為自己的行為負責。

夏基認為如果恐怖分子利用“殺人機器人”取代自殺式襲擊,后果將不堪設想,而這也許只是時間問題。(韓旭陽)

■ 觀察

談機器人大戰為時尚早

知遠防務研究院研究員周晨鳴表示,關於“殺人機器人”的討論早在2005年就已經出現,但擁有人工智能的自主機器人一段時間內還不能用於實戰。周晨鳴認為,目前討論凍結研發“殺人機器人”只是倫理層面的考慮,現實技術尚且達不到自主機器人的程度。[NT:PAGE=$]

周晨鳴表示,戰場環境之複雜遠非實驗室模擬能比,所以自主機器人仍不能大規模在戰場上佈局。他說:“同樣是可以用履帶上樓的機器人,在實驗室中可以安然無恙,但是實際戰場上的地勢複雜,還有各種爆炸,都會影響機器人的自主操作。目前在自主機器人研發上還有很多重大的技術難題,20年內不太可能實現。”

據周晨鳴介紹,美軍目前正在試驗一些自主意識的無人戰車,但是以美國交通部的名義在做測試。“美國自2010年就開始測試這些無人戰車,主要測試的是識別號牌、遇見紅綠燈自動停車再啟動等,”周晨鳴說,“美國曾在阿富汗戰場中試用過,但最終只能根據設定好的路線完成簡單的點對點運輸。無人戰車神經網絡的自學習周期相當的漫長,但依然不能正常準確地識別紅綠燈。基本的紅綠燈都無法識別,在戰場上更無法判斷自己的動作。”(韓旭陽)

文章標籤

鉅亨號貼文

看更多

Empty