霍金警告稱人工智能和外星人都將威脅人類生存
鉅亨網新聞中心 2015-10-11 10:43
新浪科技訊 北京時間10月11日消息,著名物理學家史蒂芬·霍金教授此前曾經過,在未來100年內,人工智能的機器人將反過來控制我們人類。而現在,在最新的一次講話中,霍金教授表示如果人工智能未有征服人類,那麼先進的外星文明將會這樣做。在一次採訪中,霍金錶示:“如果外星人造訪地球,那麼其后果將非常類似當年哥倫布抵達美洲,那對於當時的美洲土著居民而言可並不是什麼好事。”他:“這樣的先進外星文明可能會是‘流浪民族’,在到處尋找可以征服和殖民的星球。”
霍金目前正在領導一項宏大的計劃,利用全世界兩台最強大的望遠鏡開展對外星生命的搜尋。利用這些望遠鏡,項目將對距離地球最近的超過100萬顆恆星周圍進行搜尋,尋找任何智慧文明發出信號的跡象。參與這一耗資將達1億美元項目的科學家們還將對銀河系的中心區域,以及距離銀河系距離最近的100個星系進行低功率無線電信號的搜尋。
而隨時間推移,人類針對地外生命的搜尋更是迎來新的熱潮——美國宇航局宣佈在火星上發現了液態水存在的證據,這一發現大大增加了人們認為火星上可能存在生命的預期。霍金錶示:“對於我的數學頭腦而言,純粹的數學只會讓我變得更加理性。現在真正的挑戰則是應當弄清楚地外生命究竟可能是什麼形式。”
不過,霍金同時也表示,假如外星人沒有把我們趕盡殺絕,那麼最終人工智能或是全球氣候變化一樣會完成這件事。他:“我認為人類生存下去的希望在於從宇宙中找到新的家園,因為地球被摧毀的風險正變得越來越高。在未來100年內的某個時間,計算機人工智能將逐漸取代人類。當這樣的事真實發生時,我們必須確保計算機和我們人類擁有共同的目標。”
在今年7月份,霍金教授和特斯拉汽車公司創始人伊隆·馬斯克(Elon Musk)聯合1000名機器人專家在一封公開信中警告稱“自動化武器系統將成為未來的卡拉什尼科夫”(注:卡拉什尼科夫為蘇俄武器設計專家,代表作為AK-47步槍)。
這封措辭強硬的公開信呼籲“徹底禁止脫離有效人工控制的進攻性自動化武器系統”,以防止發生全球智能武器方面的軍備競賽。專家們指出,與核武器不同,人工智能武器系統並不需要耗費巨資或者獲得難以獲得的特殊原材料。這就意味它們可以變得非常普遍存在,價格低廉,因而可以被各國軍事力量所利用併進行大規模生。而如果全球有某個軍事強國在人工智能武器研製方面出現明顯的領先優勢,那麼一場全球性的只能武器軍備競賽將不可避免。
公開信的作者們預計,智能型武器在黑市上出現或落入恐怖分子,獨裁者以及戰爭販子的手中都將只會是一個時間問題。專家們警告稱,人工智能技術的發展已經到達一個臨界點,從而使智能武器的研製在未來幾年內,而非幾十年內就將成為現實。公開信中指出:“自動化武器特別適用於暗殺、擾亂社會秩序、鎮壓人群或選擇性消滅某一少數民族人群這類任務。因此我們相信一場人工智能領域的軍備競賽不符合全人類的利益。”(晨風)
- 掌握全球財經資訊點我下載APP
文章標籤
上一篇
下一篇