Litecoin

ストラテジーはAIバブルを覆います。 人工知能とは

2026/03/17 14:47
🌐ja

LLM 3 パラダイム leaps ドライブ ツールから実装システムまで、現在の AI の入力はフォームよりも要求に近い

ストラテジーはAIバブルを覆います。 人工知能とは
元のタイトル:泡上の代理店
Ben Thompson、Stratecheryによるオリジナル
ペギーブロックビートによる写真

編集:AI投資と産業の物語の継続的な暖かさのバックドロップに対して、バブルの存在は市場の議論の中央問題になりました。 一方、極端なリスクの物語は、制御を失う技術の恐怖を強化しました。一方、急速に増加する資本支出と評価レベルは、バブル理論を生き残してきました。 この意味では、市場の判断は明らかな不確実性を示しています。

科学技術分析プラットフォームのストラテジーの創始者であるベン・トンプソンは、テクノロジー産業構造とビジネスモデルの進化に長年焦点を合わせています。 GTC 2026会議の機会に、彼は「AIはバブルにある」という以前の判断を改訂しました:バブルとしてそれを見て、彼は技術的なパラダイム変化によって駆動構造的成長のラウンドとしてそれを理解しました。

この判断は、LLM 3 のキー leaps の観察に基づいています。 2022年以降、チャットGPTが市場へ大きな言語をモデル化する能力を実証したところ、LMLLMは「対応可能」から「対応可能」へと進化しました。 特に、2025年の終わりに、Anthropic Opus 4.5とOpenAI GPT-5.2-Codexのリリースで、有能なワークロードはコンセプトから現実へと移行し始めました。

鍵はモデルそのものではなく、「エンシャルネス」の出現です。 エージェントはモデルでユーザーをデコレーションし、モデルの動きに責任を負い、ツールを呼び出して結果を検証し、タスクを割り当てることができる実装システムに連続した人間の介入を必要とするツールからAIを変換します。 信頼性を高めるだけでなく、AIアプリケーションの境界線を拡張する。

このパラダイムシフトに基づいて、著者は、もはやユーザーの規模に依存しないAIの需要の拡大が、移動するユニットユーザの能力の多くに依存しないことに注意を払います。同時に、凝集負荷上の「内部-オール」負荷の存在は、高性能アルゴリズムの需要を後押しし、チップメーカーやクラウドサービスプロバイダのための構造的な機会を提供します。

この枠組みでは、現在の大規模資本支出は、将来の単なる投影的な賭けではありませんが、実際のニーズに対する前駆者が増えています。 AIが「入札ツール」から「導入インフラ」に移行するにつれて、経済への影響は始まったばかりです。

以下は元のテキストです

過去には後者を好み、泡が一定の段階で必ずしも悪くないと考えた。

しかし、この瞬間に、私は3月にGTCの開口部にあったので、2026、インバーダで、私の判断は変更されました:それは必ずしも気泡ではありませんでした。 (アイロンは、判断自体が気泡の信号を正確にすることができることです

LLM 3 パラダイム LEAPS

最後の数週間で、インバーダとオラクルについて話していたとき、私は繰り返しLLMが3つの主要な飛躍を受けていたと述べました。

フェーズ1:チャットGPT

2022年11月、ChatGPTの発売をスタートしました。 トランスをベースにした大型の言語モデルが2017年初頭に出現し、その能力を向上し続けてきましたが、長い間は過小評価されました。 2022年10月も、ストラテジーのインタビューで、この技術は驚くべきものではなく、製品化や起業家のモチベーションが欠けていると論じました。

しかし、数週間後には、すべてが上りすぎました。 ChatGPT は、LM の能力を初めて知った世界を真に認識させます。

しかし、以前のバージョンも2つの観察によって感銘を受けました。特に「フォーム理論者」です

まず、答えがわからない場合でも、モデルが間違っています。 驚くべきものではなく、信頼できない「眩い道具」のようなものになります。

第二に、それはまだ非常に有用であり、あなたがそれを使用する方法を知っていることを提供し、あなたは常に出力を検証し、エラーを修正します。

フェーズ2:o1

第2回は、OpenAIが2024年9月に公開したo1モデルです。 LLMは、より正確な出力とより少ない幻覚で、より強力な基本モデルとポストトレインテクニックで重要な進歩を遂げました。

しかし、キーブレークスルーは「考える」と答えている。

従来のLMLはパスに依存し、推論で間違っていたら、間違って行く。 自己還元モデルの根本的な弱点です。 推論モデルは、一方、自己評価は答えを主張し、それが正しいかどうかを判断し、必要に応じて別のパスを試して、答えを提供します。

つまり、モデルがエラーを積極的に管理し、ユーザーの介入の負担を軽減し始めることを意味します。 結果も重要である。 ChatGPT のブレークスルーが「LM ワークの削除」の場合、O1 のブレークスルーは「LM を信頼できるものにする」。

フェーズ3:エージェント(Opus 4.5 / Codex)

2025年の終わりに、3番目の飛躍が作られました。

2025年11月、AnthropicがOpus 4.5をリリースし、当初はフラットに響く。 しかし、12月に、モデルを運んだClaudeコードは、突然前例のない機能を示しました。ほぼ同時に、OpenAIはGPT-5.2-Codexをリリースし、同様のレベルを示しています。

人々は以前、「エージェント」について話してきましたが、この瞬間に、彼らは最終的に自分のタスクを本当に達成し始めています。時間がかかります複雑なタスクでさえ、正しく行われます。

鍵はモデル自体ではなく、動作モデルのソフトウェアレイヤーである制御レイヤー(ハーネス)では、コールツール、実行プロセスです。 言い換えれば、ユーザーはモデルを直接動作させず、ターゲットを、エージェントのスケジュールモデル、コールツール、実行プロセス、結果の検証を使用して配信しません。

例としてプログラミングを取る:

フェーズ1:モデル生成コード

フェーズII: 生成時にモデルが推理される

フェーズ3:エージェント生成コード→テストを実行→自動実行テスト→ユーザーが継続的に介入することなく、誤った場合に再生する。

つまり、ChatGPT 時代のコアの欠陥は、より高い正しさ、より大きな推論と自動検証メカニズムで体系的に対処されているということです。

残っている質問は、次のことです

取り組みのしきい値が落ちる

業界全体が能力の重大な欠損に苦しんでいる理由と過度の資本支出が正当化する理由を説明するために、私はこれらの3つのポイントを繰り返し強調しました。

コンピューティングの必要性が完全に異なる3つのパラダイムがあります

•フェーズI:低推論コストで電卓集中トレーニング、

フェーズii:推論のコストを抑える(より多くのトークン+より多くの使用頻度)

フェーズ3(エージェント):モデルを推論する複数の呼び出し、エージェント自体はカルカルロス(またはCPUを好む)を消費し、さらなる爆発のための周波数を使用する

しかし、より重要なのは、3番目の点は、需要の構成の変化が真剣に過小評価されていることです。

現在、エージェントを利用している人よりも、チャットロボットを使っている人が増えてきていますが、AIを利用している人も多くいます。 つまり、AIの使用が「アクティブネス」を必要とするからです。 LLMは、目的のない、意志がないが、独自の取り組みで呼び出されるツールです。

しかし、エージェントはそれを変更し、人間の取り組みに対する要求を減らしました。 将来的には、複数のエージェントをコマンドすることができます。

つまり、膨大な計算ニーズと経済出力を生成するのに十分な数の人が「アクティブ」であるということです。

AIは「人」ではなく、「人」ではなく「人」である必要があります。

企業向け有料ドライバー

消費者側がAIを支払った限られた意思は明らかになりました。 生産性のために本当に支払いたいビジネスです。

企業にとって最もエキサイティングなことは、AIが効率性を向上させるだけでなく、AIが人力を交換し、より効率的なものにすることです。

現実は、ビジネスをうまく進める大企業では、多くの場合、数少ないことですが、組織は大きく、かなりの調整コストです。 エージェントの役割は、組織的な摩擦を削減しながら「価値主導の人々」の影響を顕在化することです。

結果は「より小さい人数、より高い出力、低コスト」です。 だからこそ、未来のレイオフは「サイクル調整」よりも、構造的な変化である可能性があります。

同社は、流行に多くの人がいるだけでなく、AI時代の多くを必要としないというだけでなく、再考します

なぜこの泡ではありませんか

この観点から、「泡ではない」のロジックはより明確です

1。 LLMのコアの弱点は、アルゴリズムとアーキテクチャによって継続的に対処されています

2. 需要を運転する人々の数が落ちる

エージェントの利益は、単に低下ではなく、利益です

したがって、すべてのクラウドメーカーが計算する能力が不足していると述べている理由を理解することは困難ではなく、資本支出が大幅に増加し続けています。

バリューチェーンを再構築するエージェント

別の重要な質問は、モデルが最終的に商品化されている場合、OpenAIとAnthropicはお金を稼ぐことができますか

従来のビューではなく、そのエージェントが変更されます。 この点は、モデルそのものではなく、モデル+制御システムの統合において、実際の値が存在しないことです。

利益は、代替モジュールではなく「統合層」に流れる傾向があります。 アップルと同様に、ソフトウェアと統合されているため、そのハードウェアはコモディファイドされていません。 同様に、エージェントはモデルとハーネスの間の相乗の深さを必要とします。これは、代替手段ではなく、バリューチェーンのOpenAIとAnthropicキーインテグレータになります。

マイクロソフトのシフトは「モデルを交換できる」と強調したサインでしたが、実際のエージェント製品が起動したときに諦めていた。

これは、エージェントが統合機能を必要とするため、モデルが必ずしも完全に更新されていないことを意味します。

最後のパラドックス

そのパラドックスに戻る必要があります。

誰もが気泡を心配していた限り、気泡ではなく、誰も疑問に答えなかったとき、本当の泡はありました。

そして今、私の結論はこれがバブルではないことです。

しかし、「気泡がなかった」と言ったら、それは泡であることを証明しました。

[ チャック ]オリジナルリンク]

QQlink

Không có cửa hậu mã hóa, không thỏa hiệp. Một nền tảng xã hội và tài chính phi tập trung dựa trên công nghệ blockchain, trả lại quyền riêng tư và tự do cho người dùng.

© 2024 Đội ngũ R&D QQlink. Đã đăng ký Bản quyền.