Litecoin

斯特拉理工推翻了AI泡沫. AI怎麼辦

2026/03/17 14:51
🌐zh-Hant

LLM 3 范式的跳跃使 Agent 從工具到實施系統, 目前的 AI 輸入比泡沫更接近需求

斯特拉理工推翻了AI泡沫. AI怎麼辦
原名: Bubbles特工
本·湯普森的原作
照片來自Peggy Block Beats

在AI投資與業務敘述持續暖化的背景下, 極大風險的敘述使科技失去控制, 在這種分歧下,市場判斷顯示了明显的不确定性。

Ben Thompson是科技分析平台Stratechry的創始人, 在GTC 2026會面上, 他修改了先前的判斷, 「AI在泡泡中」:。

根據LLM的觀察, 自2022年ChatGPT首次證明有能力將大型語言建模到市場後, LLM從「可用但不可靠」演化成「可強制」, 尤其是2025年底,随着Anthropic Opus 4.5和OpenAI GPT-5.2-Codex的发布,代理工作量開始從概念走向現實。

關鍵不是模型本身 而是"entharness"的出現 Agent用模型裝飾使用者, 負責模型的移動, 呼叫工具並驗證結果, 此變更不仅增加了可靠性, 也延伸了 AI 應用程式的邊界 。

基于這個范式的變化,作者进一步指出,AI需求的擴張不再依赖于使用者的大小,而更多地依赖于單位使用者的移動能力;同時,在凝聚荷载上存在"贏者全能"的負载,會繼續推动高性能演算法的需求,并为芯片制造商和云服務提供商提供结构性的機會。

在這個框架之下, 目前的大规模資本支出不再只是未來的投机賭注, AI從「援助工具」到「實施基礎」。

原文如下:

過去我更喜歡后者。

但當我於2026年3月在因弗達舉行GTC時, (諷刺的是,判斷本身可能正是泡沫的訊號)

LLM 3 范式跳跃

在過去的幾周裡, 當我談到因弗達和甲骨文的時候。

第1阶段:查特GPT

第一點是2022年11月ChatGPT的发布, 雖然早在2017年就出現了一個基于變形金剛的大語模型,并继续提升其能力,但是它被长期低估. 這項科技雖然令人驚訝, 卻缺乏產品化與企業動機。

但幾周後,一切都變了 ChatGPT讓世界第一次真正了解LLM的能力。

然而,早期的版本也為兩種觀點留下了深刻的印象,尤其是"泡沫理論家":

首先,模特兒常常出錯 即使他們不知道答案 這讓它更像一個令人驚訝但又不可靠 的"騷擾工具"。

第二,它仍然非常有用,即使如此,只要你知道如何使用它,而且你不停地驗證輸出並校正錯誤。

阶段2: o1

第二个轉折點是OpenAI于2024年9月公布的O1型號. 當時,LLM以更強的基本模型和訓練後技術取得了显著的進步,产出更精確,幻覺也更少。

但關鍵的突破是它"思考" 然后回答。

傳統LLM依賴路徑, 這是自我歸還模式的根本缺陷。 而推理模型,另一方面,自估答案,它提供了答案,判断它是否正确,如果必要,尝试另一條路。

這表示模型開始主动管理錯誤, 成果也是重大的。 如果ChatGPT的突破是「讓LLM工作」。

第3階段:代理( Opus 4. 5 / Codex)

2025年底实现第三次跳跃。

2025年11月,Anthropic发布了Opus 4.5,最初共振平面. 但12月,携带模型的Claude Code突然出現了前所未有的能力;幾乎同時,OpenAI发布了GBT-5.2-Codex,顯示了相似的關卡。

但此刻他們終於開始真正地完成任務, 哪怕是一项需要數小時的複雜任務。

金鑰不在模型本身,而是在控制層(harness),即移動模型的軟體層,呼叫工具,執行程序. 也就是說,使用者不再直接操作模型而是交付目標,使用Agent排程模型,呼叫工具,執行流程和驗證結果。

以編程為例:

第1阶段:模型生成代碼

第二期:模型在生成过程中合理

第三階段:代理產生代碼 → 執行測試 → 自動執行測試 → 如果錯誤, 重新播放, 不由使用者繼續介入 。

這意味著ChatGPT時代的核心缺陷正在被系统性地解決。

唯一剩下的問題是:我們該怎麼辦

倡议的门槛正在下降

我一再强调這三點。

計算需求完全不同

第一阶段:计算器密集化的訓練,推理成本降低

第二期:推理成本暴增(更多符號+更多使用频率)

Phase 3 (Agent): 多次呼叫推理模型, Agent 本身消耗微积分( 或甚至偏好 CPU) , 使用頻率進行进一步的爆炸

第三點是需求结构的變化被嚴重低估。

目前使用聊天機器的人比使用Agent的人多得多, 因為使用人工智能需要「活性」。 LLM是一個沒有目的、沒有意志的工具。

但Agent改變了這一點 也減少了對人類創意的需求 未來,一個人可以指揮多個特工。

這意味著即使是少數人也足以產生巨大的計算需求和經濟輸出。

AI仍然需要"人驱动",但不再"人與人"。

企業的薪酬

消費者支付人工智能的意愿有限, 實際上。

企業最令人激動的是。

實際上, 在大公司裡, 常常有少數人真正推進企業, 探員的角色是放大"价值驱动的人"的影響力,同时减少組織摩擦。

結果是「人數少, 未來裁員可能不只是「周期性調整」。

公司會重新思考疫情中是否有許多人

為什麼這不是泡沫

從這個角度看

1. LLM的核心缺陷正在由算法和架构持续解决

2. 需求下降

探員的利潤不僅僅是一滴錢 而是一滴錢

因此,不難理解為什麼所有云母都說計算能力不足。

代理重建數值鏈

又一個關鍵問題是,如果模型最终被商品化,OpenAI和Anthropic能否賺錢

傳統觀點不是 但特工改變了 重點是,真正的值不在于模型本身,而在于模型+控制系統的集成。

產品往往流到「整合層」, 和蘋果一樣,它的硬件也不被商品化,因为它與軟體集成. 同樣, Agent 需要模型和 Harness 的深度合力。

微軟的轉換表明它強調「模型可以取代」。

這表示模型不一定完全商品化 因為Agent需要整合能力。

最后的悖論

我得回到那個悖論。

我總是認為只要大家都擔心泡沫。

現在我的結論是 這不是泡泡。

但如果"我說不是泡泡"本身 證明是泡沫 僅此而已。

[ 笑 ]原始链接]

QQlink

无加密后门,无妥协。基于区块链技术的去中心化社交和金融平台,让隐私与自由回归用户手中。

© 2024 QQlink 研发团队. 保留所有权利.