menu-icon
anue logo
鉅亨傳承學院鉅亨號鉅亨買幣
search icon

區塊鏈

Stratechery推翻AI泡沫論,我們該用AI做什麼?

BlockBeats 律動財經

編者按:在 AI 投資與產業敘事持續升溫的背景下,「是否存在泡沫」已成為市場反覆討論的核心問題。一方面,極端風險敘事不斷強化人們對技術失控的擔憂;另一方面,快速擴張的資本支出與估值水平,也讓「泡沫論」始終揮之不去。在這種分歧之下,市場判斷呈現出明顯的不確定性。

本文作者 Ben Thompson 是科技分析平台 Stratechery 的創始人,長期關注科技產業結構與商業模式演進。在英偉達 GTC 2026 召開之際,他修正了此前對「AI 是否處於泡沫之中」的判斷:不再將當前視為泡沫,而是將其理解為一輪由技術範式變化驅動的結構性增長。

這一判斷,建立在對 LLM 三次關鍵躍遷的觀察之上。自 2022 年 ChatGPT 首次向市場展示大語言模型能力以來,LLM 已從「可用但不可靠」,發展到「具備推理能力」,再到「能夠獨立執行任務」。尤其在 2025 年底,隨著 Anthropic Opus 4.5 與 OpenAI GPT-5.2-Codex 的發佈,agentic 工作負載開始從概念走向現實。

其中,關鍵不在模型本身,而在「agent harness」的出現。Agent 將用戶與模型解耦,負責調度模型、調用工具並驗證結果,使 AI 從需要人為持續干預的工具,轉變為可以託付任務的執行系統。這一變化不僅提升了可靠性,也拓展了 AI 的應用邊界。


基於這一範式轉變,作者進一步指出,AI 需求的擴張不再取決於用戶規模,而更多取決於單位用戶的調度能力;同時,agentic 工作負載具備「贏家通吃」的特徵,將持續推高對高性能算力的需求,並為晶片廠商與雲服務提供商帶來結構性機會。

在這一框架下,當前的大規模資本支出不再只是對未來的投機性押注,而更可能是對真實需求的前置反映。隨著 AI 從「輔助工具」走向「執行基礎設施」,其經濟影響,或許才剛剛開始顯現。

以下為原文:

過去,我更傾向於後者,甚至認為,泡沫在某些階段未必是壞事。

但此刻,站在 2026 年 3 月、英偉達 GTC 開幕之際,我的判斷發生了變化:這未必是泡沫。(而具有諷刺意味的是,這一判斷本身,可能恰恰正是泡沫的信號。)

LLM 的三次範式躍遷

過去幾周,我在討論英偉達和甲骨文財報時,多次提到 LLM 已經歷三次關鍵躍遷。

第一階段:ChatGPT

第一個拐點是 2022 年 11 月 ChatGPT 的發布,這幾乎無需贅述。儘管基於 Transformer 的大語言模型早在 2017 年就已出現,能力也在持續提升,但長期被低估。甚至在 2022 年 10 月,我在 Stratechery 的訪談中还认為,這項技術雖驚人,卻缺乏產品化與創業動能。

但幾周之後,一切徹底反轉。ChatGPT 讓世界第一次真正意識到 LLM 的能力。

不過,早期版本也留下了兩個深刻印象,尤其被「泡沫論者」反覆提及:

第一,模型經常出錯,甚至在不知道答案時會「幻覺式」編造。這讓它更像一種「炫技工具」,驚豔但不可靠。

第二,即便如此它仍然非常有用,但前提是你必須知道如何使用,並且需要不斷校驗輸出、糾正錯誤。

第二階段:o1

第二個拐點是 2024 年 9 月 OpenAI 發布的 o1 模型。當時,LLM 已因更強的基礎模型與後訓練技術而顯著進步,輸出更準確、幻覺更少。

但 o1 的關鍵突破在於:它會先「思考」,再回答。

傳統 LLM 是路徑依賴的,一旦在推理過程中走錯,就會一路錯到底。這是「自回歸模型」的根本弱點。而推理模型會對答案進行自我評估,它會先生成答案,再判斷是否正確,必要時嘗試其他路徑。

這意味著,模型開始主動管理錯誤,減少用戶干預負擔。結果也非常顯著。如果說 ChatGPT 的突破在於「讓 LLM 可用」,那麼 o1 的突破在於「讓 LLM 可靠」。

第三階段:代理人(Opus 4.5 / Codex)

2025 年底,第三次跳躍出現。

2025 年 11 月,Anthropic 發布 Opus 4.5,起初反響平平。但到了 12 月,搭載該模型的 Claude Code 突然展現出前所未有的能力;幾乎同時,OpenAI 發布 GPT-5.2-Codex,也表現出類似水平。

人們此前一直在談「代理人」,但在這一刻,它們終於開始真正完成任務,甚至是需要數小時的複雜任務,而且是正確完成。

關鍵不在模型本身,而在控制層(harness),也就是調度模型、調用工具、執行流程的軟體層。換句話說,用戶不再直接操作模型,而是下達目標,由代理人調度模型、調用工具、執行流程並驗證結果。

以編程為例:

·第一階段:模型生成程式碼

·第二階段:模型在生成過程中進行推理

·第三階段:代理人生成程式碼 → 執行測試 → 自動運行測試 → 錯了就重來,用戶無需持續介入。

這意味著,ChatGPT 時代的核心缺陷正在被系統性解決,更高的正確率、更強的推理能力、自動驗證機制。

唯一剩下的問題是:到底該用它做什麼?

「主動性」的門檻在下降

我之所以反覆強調這三個轉折點,是為了說明為什麼整個行業正在嚴重缺算力,以及為什麼超大規模資本開支是合理的。

三種範式,對算力需求完全不同:

·第一階段:訓練耗算力,但推理成本較低

·第二階段:推理成本暴漲(更多 token + 更高使用頻率)

·第三階段(代理人):多次調用推理模型、代理人本身也消耗算力(甚至偏向 CPU)、使用頻率進一步爆炸

但更重要的是第三點:需求結構的變化被嚴重低估。

目前,使用聊天機器人的人遠多於使用代理人的人,而且很多人其實並沒有充分使用 AI。原因在於使用 AI 需要「主動性」。LLM 是工具,它沒有目標、沒有意志,只能被主動調用。

但 Agent 改變了這一點,它降低了對人類主動性的要求。未來,一個人可以同時指揮多個 Agent。

這意味著,即使只有少數人具備「主動性」,也足以帶動巨大算力需求與經濟產出。

AI 仍然需要「人來驅動」,但不再需要「很多人」。

企業的付費驅動力

消費端對 AI 的付費意願有限,這一點已經逐漸清晰。真正願意為生產力買單的,是企業。

企業最興奮的,不只是 AI 提升效率,而是 AI 可以替代人力,並且更高效。

目前的現實情況是,大公司裡真正推動業務向前的,往往是少數人;但組織卻很龐大,帶來大量協調成本。Agent 的作用,是將「推動價值的人」的影響力放大,同時減少組織摩擦。

結果就是「更少的人 → 更高的產出 → 更低的成本」。這也是為什麼,未來的裁員,很可能不只是「周期調整」,而是結構變化。

公司會重新思考,不僅思考是否「疫情時期招多了人」,還會思考在 AI 時代,我們是否本就不需要這麼多人?

這為什麼不是泡沫?

從這個角度看,「不是泡沫」的邏輯就比較清楚了:

1.LLM 的核心缺陷正在被算力與架構持續解決

2. 驅動需求的人數門檻正在下降

3.Agent 帶來的收益,不只是降本,更是增收

因此,不難理解為什麼所有雲廠商都在說,算力供不應求,並持續大幅增加資本支出。

Agent 與價值鏈重構

另一個關鍵問題是,如果模型最終商品化,OpenAI 和 Anthropic 還能賺錢嗎?

傳統觀點認為不會,但 Agent 改變了這一點。關鍵在於,真正的價值不在模型本身,而在「模型 + 控制系統」的整合。

利潤往往流向「整合層」,而非可替代的模塊。就像蘋果,它的硬件之所以不被商品化,是因為與軟件深度整合。同理,Agent 需要模型與 harness 的深度協同,這使得 OpenAI 和 Anthropic 成為價值鏈中的關鍵整合者,而非可替代的一環。

微軟的轉變就是一個信號,它原本強調「模型可替換」,但在推出真正的 Agent 產品後,不得不放棄這一點。

這意味著模型未必會徹底商品化,因為 Agent 需要一體化能力。

最後的悖論

我必須回到開頭的那個悖論。

我一直認為,只要大家還在擔心泡沫,那就還不是泡沫;真正的泡沫,是沒人再質疑它的時候。

而現在,我的結論是:這不是泡沫。

但如果「我說這不是泡沫」本身,反而證明它是泡沫,那也只能如此了。

[]

原文連結

發佈者對本文章的內容承擔全部責任
在投資加密貨幣前,請務必深入研究,理解相關風險,並謹慎評估自己的風險承受能力。不要因為短期高回報的誘惑而忽視潛在的重大損失。

暢行幣圈交易全攻略,專家駐群實戰交流

▌立即加入鉅亨買幣實戰交流 LINE 社群(點此入群
不管是新手發問,還是老手交流,只要你想參與加密貨幣現貨交易、合約跟單、合約網格、量化交易、理財產品的投資,都歡迎入群討論學習!

前往鉅亨買幣找交易所優惠


section icon

鉅亨講座

看更多
  • 講座
  • 公告

    Empty
    Empty