將AI的「滅絕風險」與核戰類比 OpenAI創辦人領銜簽署聯名信呼籲監管
鉅亨網新聞中心 2023-05-31 14:00
一些人工智慧專家周二 (30 日) 發出可怕警告,認為人工智慧模型可能很快就會比人類更聰明、更強大,現在是施加限制以確保它們不會控制人類或毀滅世界的時候了。
一群科學家和科技行業領袖,在 AI 安全中心網站 (Center for AI Safety) 發表公開信,強調「減輕 AI 滅絕的風險,應該與疫情和核子戰爭等其他社會規模的風險,共同成為全球優先事項。」
超過 350 人簽署了這一聲明,簽署者表示,他們希望就 AI 最嚴重的風險展開討論。值得注意的是,開發 ChatGPT 的 OpenAI 執行長 Sam Altman 和其技術長 Mira Murati 都簽署了這份聲明。
其他簽署者包括微軟 (MSFT-US) 技術長 Kevin Scott,Google(GOOGL-US)AI 高管 Lila Ibrahim 和 Marian Rogers,以及前聯合國裁軍事務高級代表 Angela Kane 等人。
自 OpenAI 去年發布 ChatGPT 以來,批評人士加大了對 AI 進行監管的呼籲,認為這一技術對人類構成了無法估計的威脅。
在 3 月發表的一份獨立聲明中,技術高管和研究人員呼籲暫停訓練更強大的 AI 系統至少 6 個月,這一聲明現已有 3 萬多人簽署。
近幾個月來,隨著投資者押注他們認為的新計算時代,人工智慧概念股大幅上漲。特別是,開發 AI 技術的半導體公司 Nvidia (NVDA-US) 成為首家估值達到 1 兆美元的晶片製造商。
拜登政府近幾個月表示,人工智慧對公共安全、隱私和民主構成威脅,但政府對其監管的權力有限。
- 全球交易實體免費論壇 再送精美周邊好禮!
- 掌握全球財經資訊點我下載APP
延伸閱讀
上一篇
下一篇