menu-icon
anue logo
馬來西亞房產鉅亨號鉅亨買幣
search icon


科技

根本沒有「智能體元年」!AI大神Karpathy:AGI還需要十年 強化學習其實很糟

鉅亨網編譯陳韋廷


當 AI 圈沉浸在「智能體元年」「AGI 倒數計時」熱潮中,OpenAI 創始元老、特斯拉 AI 團隊前負責人 Andrej Karpathy 在最新訪談中卻潑冷水拆解了 AI 的現狀、痛點,以及對未來的理性預判。

cover image of news article
根本沒有「智能體元年」!AI大神Karpathy:AGI還需要十年 強化學習其實很糟(圖:Shutterstock)

這位深度學習領域的「實戰派大佬」在訪談中不喊任何口號,只有對「慢變量」的敬畏稱 AI 的未來是一場解決基礎問題的「持久戰」,而不是突然降臨的「奇點」。


訪談中從最火的「智能體」切入。面對業界「智能體爆發」的呼聲,Karpathy 直言:「這不是『元年』,而是『智能體的十年』。」他每天都在用 Claude、Codex 這類智能體,但評價依然冷靜:「它們還是初期產品,智能不足、多模態能力弱,連自主操作電腦都做不到。」

Karpathy 認為,智能體核心問題在於認知缺陷,沒有真正的「理解」,也沒有持續學習的能力。例如,他去年建構個人程式碼庫「nanochat」時,曾嘗試用 Claude Code/Codex 這類「編碼智能體」幫忙,結果發現這些工具根本處理不了「智力密集型」任務,最後只能回到「手寫程式碼 + 自動補全」的模式。「智能體可以寫樣板程式碼,但碰到複雜邏輯,還是得人來做架構師。」

因此,Karpathy 稱真正的「可用智能體」還需要十年研發。 「我們可能還缺乏技術棧的某些部分——就像蓋房子,地基還沒打牢,就想蓋摩天大樓。」

至於大眾關心的 AGI,Karpathy 給出的時間線同樣是「十年」。「這不是拍腦袋的決定,是我 15 年行業經驗裡的規律:人們總想一步到位做『完整智能體』,卻忽略了基礎工作的積累。」

聊到大模型,Karpathy 的批評更直接:「它們還存在根本性的認知局限,比如大模型本質上是預測下一個詞的工具』,缺乏人類那樣的思考過程,更不會像人一樣從錯誤中學習。」

他用「人類與程式碼的互動」舉例,把使用場景分成三類:全手寫、手寫 + 自動補全(人做架構,模型補細節)、完全讓智能體做(交給模型輸出)。他的選擇是第二種,因智能體可幫人補全代碼,但代碼的邏輯還是我定的。

更關鍵的是,大模型的「學習方式」有問題。如果讓模型自我生成合成資料訓練,很容易陷入「崩塌」,就像一個人只聽自己說話,永遠不會進步。而人類的「噪音」(如反思、討論、犯錯)恰恰能防止這種情況。 

Karpathy 說:「人類不擅長記憶其實是優勢,因為我們被迫學習,『泛化模式』,而不是死記硬背。」

當被問到如何讓 AI 進一步學習,Karpathy 的回答很實在:「強化學習很糟糕,但比過去的方法好。」

傳統監督學習是「任務完成後給獎勵」,例如答對題才加分,但強化學習是「嘗試幾百次,從錯誤中找答案」,就像人學騎自行車,摔了很多次才學會。問題在於,過程監督太難,因為沒辦法給每一步嘗試打分,而用大模型當「評審」評估中間輸出,又會遇到「對抗樣本欺騙」,模型能生成無意義的內容,卻騙過大模型拿到高分。

Karpathy 說,「未來可能需要元學習或合成數據來解決,但現在沒有實驗室能在大規模通用環境下實現」,但他認為,強化學習的局限不是終點,而是下一代學習模式的起點,必須要更聰明的方法,讓 AI 從「試錯」變成「理解」。

當聊到 “AI 取代工作”,Karpathy 舉了 Geoff Hinton 的「翻車案例」,Hinton 曾預測放射科醫生會失業,但現實是,放射科醫生的需求還在增長,因為醫療工作不只是「讀片」,還要和病人溝通、處理複雜場景。

Karpathy 說,「很多工作比呼叫中心複雜,理想狀態是 AI 做 80% 的重複性工作,人類監督 20% 的關鍵環節。AI 不是『替代者』,是『工具』——我們要學會和它分工。」

在訪談結束時,Karpathy 說:「AI 不是魔法,是電腦的延伸。它的進步需要解決一個個小問題,比如讓智能體更聰明,讓大模型會思考,讓強化學習更可靠。



對大眾來說,Karpathy 的提醒很重要:不要被「AI 統治世界」的噱頭嚇到,也不要盲目相信「奇點即將到來」。AI 的未來,是一場「慢功夫」的較量,解決基礎缺陷,平衡人類與機器的互補,才能真正讓 AI 服務於人。

section icon

鉅亨講座

看更多
  • 講座
  • 公告


    Empty
    Empty