menu-icon
anue logo
澳洲房產鉅亨號鉅亨買幣
search icon

公告

霍金等簽發公開信:警惕人工智能潛在風險

鉅亨網新聞中心 2015-01-14 10:18


新浪科技訊 北京時間14日消息,據國外媒體報導,在一些人眼裏,人工智能對人類構成的威脅甚至超過核武器。日前,包括物理學巨匠斯蒂芬-霍金和PayPal創始人伊隆-馬斯克在內的一群科學家和企業家簽發了一封公開信,承諾確保人工智能研究造福人類。這封由未來生活研究所草擬的公開信警告稱,如果智能機器缺乏監管,人類將迎來一個黑暗的未來。


未來生活研究所的公開信指出科學家需要採取措施,避免人工智能研究出現可能導致人類毀滅的風險。公開信作者表示人們普遍認為人工智能研究正快速取得進步,將對整個社會生越來越大的影響。信中稱語言識別、圖像分析、無人駕駛汽車、翻譯和機器人運動都成為人工智能研究的受益者。

作者們表示:“潛在的效益是巨大的。文明的每一個物都是人類智慧的結晶。我們無法預測在人工智能技術大幅提高機器智商時我們的文明將達到怎樣的程度,但根除疾病和貧困是一個難以預測的過程。”他們同時也警告稱在進行人工智能研究的同時必須相應地採取防範措施,避免人工智能給人類社會造成潛在傷害。在短期內,人工智能技術將讓數百萬人失業。在長期內,人工智能可能潛在地讓社會走向反烏托邦,機器的智商遠遠超過人類,做出違背編程的舉動。

公開信:“我們研發的人工智能系統必須做我們希望它們做的事情。很多經濟學家和計算機學家認為非常有必要進行研究,確定如何在讓人工智能所能帶來的經濟效益實現最大化的同時減少負面影響,例如加劇不公平和失業。”除了霍金和馬斯克外,在公開信上簽名的人還包括機器智能研究所的執行理事盧克-穆豪瑟爾,麻省理工學院物理學教授和諾貝爾獎得主弗朗克-韋爾切克。

在這封公開信發表前幾周,霍金教授曾警告稱人工智能將在未來的某一天取代人類。他在倫敦接受英國廣播公司採訪時表示:“人工智能技術的研發將敲響人類滅的警鐘。這項技術能夠按照自己的意願行事並且以越來越快的速度自行進行重新設計。人類受限於緩慢的生物學進化速度,無法與之競爭和對抗,最終將被人工智能取代。”

霍金曾在2014年初指出成功研發人工智能將成為人類歷史上犯的最大錯誤。不幸的是,這也可能是最后一個錯誤。2014年11月,特斯拉汽車公司和SpaceX公司掌門人馬斯克警告稱由於機器採用人工智能,“一些極為危險的事情即將發生”,最快將在5年內。此前,他還曾將研製自治可思考機器的做法描述為“召喚惡魔”。

10月,馬斯克在麻省理工學院AeroAstro百年學術研討會上發表講話將人工智能稱之為“我們面臨的最大威脅”。他:“我認為我們必須對人工智能抱非常謹慎的態度。在我看來,人工智能可能是我們面臨的最大威脅。因此,我們必須非常謹慎地進行人工智能研究。我越發堅信我們需要對人工智能的研究進行適當監管,可能是在國家層面和國際層面,確保我們不會做出一些非常愚蠢的事情。隨人工智能的發展,我們將召喚出惡魔。也許你會認為我們可以用類似五芒星和聖水的東西控制惡魔,但事實根本不是這樣。”(孝文)

文章標籤


Empty