Litecoin

完全な GTC スピーチ: 市場需要は 2027 ドルの兆を超えます; 誰もが OpenClaw 戦略を開発する必要があります

2026/03/17 14:29
🌐ja

今後の成長を牽引するボトムビジネスロジックは「トークンファクトリー経済」となります。

完全な GTC スピーチ: 市場需要は 2027 ドルの兆を超えます; 誰もが OpenClaw 戦略を開発する必要があります
原題:「光のIN-HOON GTCフルスピーチ:推論の年齢、2027少なくとも兆ドル、ロブスターは新しいオペレーティングシステムです」
原作:ウォールストリート

2026年3月16日、本会議は創設者およびCEOのホアン・イン・ホオンが正式に基調講演を行いました。

「AI産業年鑑」と見なされるこの会議では、違いを生むための方法を見つけてきましたWONG IN-HOONは、チップ会社からAIインフラおよび工場会社へのヤング・ワイ・ダの闘争について説明しました。 アクセスお問い合わせ パフォーマンスの持続可能性と成長のためのスペースの最大の懸念に直面していますHuang In-hoonは、将来の成長を牽引する基礎的なビジネスロジックを詳細に - 「Token Factory Economics」。

パフォーマンスガイダンスは非常に楽観的です, 「少なくとも $1 兆で 2027.」

過去2年間、世界規模のAI計算の需要は指数関数的に爆発しています。 「感度」から「世代」から「議論」や「アクション」(タスク)まで、大幅なモデルが進化する。 HWANG IN-HOONは、高い市場の利益注文と天井コレクションに非常に強い期待を寄せました。

ホン・ホァン(In-hoon Huang)は、彼の発言で発言した

昨年、私は言いました, 我々は、高価な需要で500億ドルを見ました, ブラックウェルとルビンをカバー 2026。今, ここ, 私は少なくともを参照してください。 $1 要求の兆 2027。

Wong In-hoonのドルの兆しは、1セントあたり4.3でイギリスの株価を上回る見込みです。

また、この番号に追加します

意味は? それは私が話しているものです。 実際、私達は供給から出ます。実際の計算ニーズがはるかに高まると確信しています。

WONG IN-HOONは、今日のシステムが世界最少のコストインフラであることが証明されていることを指摘しています。 これにより、クライアントは、ほぼすべてのAIモデルに投資された1兆ドルの長寿命サイクルを十分に活用し、維持することができます。

現在、Ingweida のビジネスの 60 パーセントはトップ 5 の超巨大クラウド サービス プロバイダーから来ていますが、別の 40 パーセントは sovereignty クラウド、企業、業界、ロボティクス、エッジ コンピューティングの分野で広く分布しています。

トークン工場の経済。 パフォーマンスのあらゆるワットがビジネスライフラインを決定します

この1兆億の要求の正当性を説明するために、HUANG IN-HOONは、グローバル企業のCEOに全く新しいビジネス思考のセットを提示しました。将来のデータセンターはもはや文書のリポジトリではなく、トークン(AIによって作成された基本ユニット)を生成した「ワークショップ」だと指摘した。

ウォンインホオン強調:

各データセンターは、各プラントは、電力制限による定義です。 1GWプラントは、物理と原子の法則が2GWになることはありません。固定力で、トークンのワット当たりの最高のボリュームを持っている人は、最低生産コストを持っています。

HUANG IN-HOONは、将来のAIサービスを4つのビジネスレベルに分割します

• 無料フロア高、低、低)

:: 中級レベル(百万ドル)

• 高度なレベル($6/百万円)

:: 高速レイヤー(百万トークンあたり45ドル)

• Hypervelocityの層(100万トークンあたり150ドル)

AIがモデルやコンテクストの増えた数でよりスマートになると指摘したが、トークンの生産率は下がるだろう。 Huangインホオンは述べました:

このトークン工場では、あなたのスループットとトークン生成の速度は、翌年のあなたの正確な収入に直接翻訳されます。

Wong In-hoonは、Young Wei Daのアーキテクチャは、クライアントがフリーレベルで非常に高いレベルのスループットを達成することを可能にすることを強調しました。

Vera Rubin は 2 年で 350 回速く達成します。, Groq はhyperdrive の推論で満たします

この物理的な限界の制約の下、Yvestaは、これまで最も複雑なAIコンピューティングシステム、Vera Rubinを説明しています。 Huangインホオンは述べました:

希望について話していたのですが、チップを持ち上げてかわいいです。 しかし、Vera Rubinでは、システムについて考えています。 従来のケーブルを完全に除去するこの100パーセントの液体の冷却装置では、それはハンガーを取付け、今2時間だけ取られた2日。

チャン・イン・ホオン氏は、Vera Rubinが、非常にエンドツーエンドのハードウェア共同設計を通じて、同じ1 GWデータセンターで驚くべきデータリープを作成したことを発表しました

わずか2年で、トークンの生産率は22億から700万に増加し、350倍の増大を達成しました。 ムーアの法則は、平均時間に約1.5倍の割合しか持ち込めません。

帯域幅のボトルネックを高速度推論条件(1000トークン/秒など)で解決するために、Inverdaは、取得した会社を連結するための最終的なソリューションをいただきました。

ウォン・イン・ホオンが説明する:

2つのプロセッサの特徴は明確です。 Groqの破片に500MB SRAMおよびルビンの破片に288GB記憶があります。

Wong In-hoonは、Dynamoソフトウェアシステムを通じて、Wong Weidaは、Vera Rubinの量産コンピューティングと可視プレフィリングフェーズ、およびGrqの遅延に対する非常に敏感なデコーデメントフェーズが必要だと指摘しました。Huang In-hoonは企業の構成の助言を提供します:

あなたの仕事が主に High-swallow の場合、100% は Vera Rubin を使用します。高値なプログラミングレベルのトークン生成ニーズが多い場合は、データセンターのサイズの 25% を Groq に取ります。

3つ星のエージェントによって生成されたGrq LP30チップは、ボリュームで生成され、3番目の四半期に出荷されると予想され、最初のVera RubinハンガーはMicrosoft Azureクラウド上で動作していた。

また、光の相互接続技術に関して、Huang In-hoonは、ココンテーナー光交換、スペクトラムXのグローバルプライマリ生産を実証し、「コッパーリトリート」の経路で市場の戦いを落ち着かせました

私達はより多くの銅ケーブル、より多くの軽い破片、より多くのCPOSを必要としますお問い合わせ。

エージェントは、伝統、SaaS、“Annual pay plus Token”をシリコンバレーサインで終わらせます。 マッチング

ハードウェアの障壁に加えて、Hwang In-hoonは、AIソフトウェアと生態学的革命、特にエージェントの発生の大きな領域を残しました。

オープンソースプロジェクト OpenClaw は、「人間史上最も人気のあるオープンソースプロジェクト」と述べ、過去30年間にLinuxの成果を上回る数週間しかかかりませんでした。 In-hoon Hwang氏は、OpenClawは、エージェントのコンピュータの「運用システム」が本質的に「運用システム」であると述べた。

Huang In-hoon がアサート:

各SaaS(ソフトウェア、サービス)会社はAaas、Smart、Serviceになります。 このスマートボディの安全な着陸を確保するために、機密データと執行コードへのアクセス権を持つNeMo Clawリファレンスデザインが導入され、戦略的なエンジンとプライバシールータを追加します。

普通の労働者にとっては、変化も近くです。 Huang In-hoonは未来の職場の新しい形を記述します:

将来的には、当社のすべてのエンジニアは、毎年のトークン予算を必要とします。ベース給与は年数千ドル、それに基づいて10倍の効率向上を達成できるように、トークンスケールの約半分をあげることができます。シリコンバレーの新規採用チップ:オファーの持ち運び回数、トークンは

スピーチの終わりに、Huang In-hoonは、銅線とCCPOと同じレベルを初めて拡大するであろう、計算構造の次世代である「ブロウド」とも呼ばれます。 さらに、より印象的なのは、宇宙に展開されているデータセンターコンピュータのVera Rubin Space-1がIngweidaによって開発され、地球を超えて拡張するAIのアルゴリズムの想像力を完全に開けていることです。

GTC 2026のスピーチの完全なテキストは、次のように翻訳しました(AIツールのサポート):

モデレーター:ウィーダ州の創設者兼チーフ・エグゼクティブ・オフィサーであるホアン・イン・ホオンの表彰台へようこそ。

創業者兼最高経営責任者:GTCへようこそ。 技術的な会議であることを思い出したいと思います。 朝の早い時間帯や、ここのすべてで多くの人が並んでいるのを見るのにとても嬉しいです。

GTCでは、技術、プラットフォーム、生態系の3つのテーマに焦点を当てます。

現在、CUDA-Xプラットフォーム、システムプラットフォーム、最近立ち上げたAIプラントプラットフォームの3つの主要なプラットフォームがあります。

以前は、前熱ホストであるサラ・グオ・オブ・コンヴィション、アルフレッド・リン・オブ・レッドウッド・キャピタル(イングランド初のベンチャー投資者)、Gavin Baker、Inverda初の主要機関投資家であるGavin Bakerに感謝したいと思います。 3 つは、技術への深い洞察力を持ち、技術エコシステム全体に大きな影響を与えています。 もちろん、私が個人的に今日招待したすべての著名なゲストに感謝したいと思います。 このオールスターチームのおかげで。

今日はここにいるすべての会社に感謝したいと思います。 テクノロジー、プラットフォーム、豊富な生態系があります。 現在、この会社は10兆ドルの業界においてほぼ全ての参加者を代表し、450社がこのイベントを主催し、深く感謝しています。

会議は1,000の技術的なフォーラム、2,000人のスピーカーを持ち、土地、電気、機械などのインフラからチップ、プラットフォーム、モデル、そして最終的に業界全体を駆動するアプリケーションに至るまで、人工的にインテリジェントな5階建てのケーキアーキテクチャのすべてのレベルをカバーします。

CUDA: 技術の蓄積の20年

詳しくはこちらから。 今年は20周年を迎えるCUDAです。

長年培った経験をもとに、このアーキテクチャの開発に取り組んでいます。CUDAは、開発者が標準的なコードでプログラムを準備し、以前のSIMDアーキテクチャよりもはるかに少ないプログラミングであるマルチワイヤーアプリケーションにそれらを拡張できるようにする革命的な発明 - SIMT(単一コマンドマルチワイヤー)技術です。また、最近は、開発者がコア(センサーコア)をプログラムし、人工知能が今日依存するさまざまな数学アルゴリズムをプログラムするのに役立つTiles関数を追加しました。現在、CUDAには、オープンソースコミュニティで数千ものオープンプロジェクトが数千ものツール、コンパイラ、フレームワーク、ライブラリがあり、あらゆるテクノロジーエコシステムに深く統合されています。

このチャートは、INVERDAの戦略的ロジックの100%を明らかにし、最初からこのスライドについて話してきた。 達成する最も困難で中央要素の1つは、チャートの下部にある「ロード」です。 過去10年間に、世界100万人のCUDAが運用するGPUとコンピューティングシステムが蓄積しました。

GPUは、ほぼすべてのコンピュータメーカーや業界にサービスを提供するすべてのクラウドプラットフォームをカバーしています。 CUDAの大容量は、この船の加速速度の根本的な原因です。 ロードは、新しいアルゴリズムを作成し、ブレークスルーを作り、新しい市場を分割し、新しいエコロジーを作成し、より多くの企業を惹きつけて負荷を拡張します。

Wei Daquからのダウンロードのボリュームは、アラーム速度で成長しており、大きく増加しています。 このホイールは、大規模なアプリケーションを維持し、新しいブレークスルーを開発するための計算のプラットフォームを有効にしました。

より重要なのは、これらのインフラは非常に長い耐用年数を与えます。この理由は明らかです。NVIDIA CUDA は、AI ライフサイクル、さまざまなデータ処理プラットフォーム、さまざまな科学的ソルバーの各フェーズをカバーするさまざまな運用アプリケーションを幅広く提供しています。 そのため、インストールしたGPUの実値は非常に高いです。 そこで、6年前に発表したアンペレのアーキテクチャーが、GPUが立ち上がっているのだからです。

これの根本的な原因は次のとおりです容量は大きいです、車輪は強く、開発者は広いです。これらの要因が機能する場合、ソフトウェアの継続的な更新とともに、コストダウンは引き続き減少します。 アクセラレータコンピューティングは、アプリケーションのパフォーマンスを大幅に向上させながら、ユーザーは初期段階でのパフォーマンスでジャンプするだけでなく、時間の経過とともに反復的なソフトウェアを維持するため、削減されたコンピューティングコストから利益を得ることができます。 世界のあらゆるGPUに対する長期的サポートを提供することを約束します。

容量が大きいため、私たちはそうすることを望んでいます。何百万人ものユーザーが公開されるたびに新しい最適化から利益を得ることができます。このダイナミックな組み合わせにより、英国のWIDAアーキテクチャは、そのカバレッジを拡大し、独自の成長を加速しながらコストダウンを維持し、最終的に新しい成長を刺激することができます。 CUDA は、すべてのコアです。

GeForce から CUDA: 25 年の進化

そして、CUDAとの旅行は25年前に始まりました。

GeForce -- GeForce で育った人がたくさんいます。 GeForceは、ニュージーランドで最も成功した市場プロモーションプロジェクトです。 買いに余裕がないから未来のクライアントを育ててきました。 - あなたの両親は、あなたに交換した、Yvetteの最初のユーザーになり、年後に当社の製品年を購入し、あなたが良いコンピュータの科学者、真の顧客や開発者になるまで成長するまで。

GeForceが25年前に築いた土台です。 20年前、プログラム可能なカラーモニターを発明しました。 これは、プログラム可能なアクセラレータのための明らかで遠距離の発明であり、世界で初めてのプログラム可能なアクセラレータ、ピクセルカラーラーです。 5年後、私たちは歴史の中で最も重要な投資の一つであるCUDAを作成しました。 同社は当時、金融資源が限られていましたが、GeForceからすべてのコンピュータにCUDAを拡張するために、当社の利益の大部分を投資しました。 私たちはその可能性を確信しているので、私たちは非常に強いです。 初期の難しさにもかかわらず、当社は13世代、20年、現在CUDAはどこにも存在しています。

GeForce 革命を動かすピクセルカラーです。 そして約8年前に、現代的なコンピュータのグラフィックのための建築の完全なオーバーホールRTX --を進水させました。 GeForce は CUDA を世界へ連れてきましたが、Alex Krizhevsky、Ilya Sutskever、Geoffrey Hinton、Andrew Ng などの多くの学者が、GPU が詳細な学習を加速するための強力なツールであることを発見しました。これにより、人工知能の膨大な爆発を 10 年前にトリガーします。

10年前、プログラム可能な色を2つの新しいアイデアと統合することにしました1つはハードウェア追跡ですこれは技術的に困難ですそして、今後10年前にAIがコンピュータグラフィックスを完全に変えることを予測しました。GeForce がAIを世界へ届けるのと同じように、AI はコンピュータグラフィックス全体が作り出す方法を再作成します。

今日は、未来を見せたい。 これは次世代のグラフィックで、ニューラルレンダリングと呼ばれる3Dグラフィックスの深さを人工知能と組み合わせています。 こちらはDLSS5です。

神経レンダリング:生成されたAIで構造化されたデータの統合

この素晴らしいですか? コンピュータのグラフィックは従って再設計されたです。

どうすればよいですか? 制御可能な3Dグラフィックス(仮想世界の基礎)を構造化されたデータと組み合わせ、生成AIと確率計算を統合します。 一つは完全に確信していますが、もう一つは現実的です。2つのコンセプトを組み合わせて、構造化されたデータを通して精度と制御を行い、リアルタイムで作成します。 最後に、コンテンツは美しく完全に管理可能です。

構造化された情報や世代別AIの統合の考え方は、次いで一つの業界に繰り返されます。構造化されたデータは、信頼できるAIの礎となります。

構造化および非構造化データのためのプラットフォームの加速

テクニカルチャートを表示したい。

構造化されたデータ-Snowflake、Databricks、Amazon EMR、Azure Fabric、Google BigQueryなどのよく知られたSQL、Spark、Pandas、Velox、および重要なプラットフォームは、データフレーム(データフレーム)を処理する。 巨大なスプレッドシートのようなこれらのデータフレームは、ビジネスの世界からのすべての情報を運び、ビジネス計算の基本的な事実です。

AI時代には、AIが構造化したデータを利用し、成果を加速させる必要があります。 過去には、構造化されたデータ処理の加速は、企業をより効率的にするという目的でした。今後、AIはこれらのデータ構造を人間よりもはるかに高速な速度で使用し、AIインテリジェントは構造化されたデータベースへの広範な呼び出しを行います。

構造化されていないデータ、ベクトルデータベース、PDF、ビデオ、オーディオなどの観点では、年間で生成されたデータの約90パーセントが非構造化されています。 過去に、これらのデータはほぼ完全に使用できませんでした: それらを読み、ファイルシステムに入れ、それはすべてです。 構造化されていないデータの単純なインデックス作成の欠如や、その意味や文脈を理解する必要があるため、検索や検索はできません。今、AIはこれを行うことができます - 多角的な感覚と理解技術で、AIはPDF文書を読んで、彼らがどういう意味かを理解し、それらを相談できるより大きな構造に埋め込むことができます。

若 Waida はこの2つの基礎を作った:

CuDF:データフレームの加速処理、構造データ

CUVS:ベクターストレージ、セマンティック、非構造データのためのAIデータの処理

これらの2つのプラットフォームは、将来の最も重要な基本プラットフォームの1つです。

今日は、多くの企業との協力についてお知らせします。 IBM-SQL言語の発明者は、そのWatsonXデータプラットフォームを加速するためにcuDFを使用します. Dell は、CuDF と cuvs を統合し、NTT データプロジェクトの重要なパフォーマンス改善を達成する Dell AI データ プラットフォームを作成しました。 Google Cloud は、その部分で、Vertex AI だけでなく、BigQuery だけでなく、Snapchat と連携して計算されたコストを約80%削減できるようになりました。

加速された計算の利点は3倍です:速度、スケール、コスト。 これは、ムーアの法則の論理で手に入ります。計算を加速し、継続的にアルゴリズムを最適化することで、誰もが連続した減少の計算コストを楽しむことができます。

Weedaは、RTX、cuDF、cuvsなどのライブラリを一緒に持ち込んだアクセラレータプラットフォームを構築しました。これらのライブラリは、グローバルクラウドサービスとOEMシステムに統合され、グローバルユーザーにリーチします。

クラウドサービスプロバイダとの深いコラボレーション

主要クラウドサービスプロバイダとの連携

Googleクラウド:Vertex AI と BigQuery を高速化し、PyTorch で優れたパフォーマンスを発揮しながら、JAX/XLA と深く統合し、PyTorch と JAX/XLA で色を表現する世界で唯一のアクセラレータです。 Base10、クラウドストライク、Puma、SalesforceなどのクライアントにGoogleクラウドエコロジーを導入しました。

AWS:EMR、SageMaker、BedrockをAWSとの深い統合で加速します。 今年はAWSにOpenAIを導入し、AWSクラウドコンピューティングの消費拡大を著しく向上し、OpenAIが地域展開とスケールを拡大するのを支援してくださった。

マイクロソフト:100 PFLOPS は、私たちが構築した最初のスーパーコンピューターで、Azure 上でデプロイされた最初のスーパーコンピューターで、OpenAI で作業するための重要な基盤を提供します。 AzureクラウドサービスとAIファウンデーションを高速化し、Azureエリアの拡張を促進し、Bing検索の深さで作業します。

オペレータがユーザーデータやモデルにアクセスできないことを保証する「Confidentic Computing」機能が、世界中のクラウド環境でOpenAIとAnthropicモデルの安全な展開をサポートし、分類された計算をサポートするための世界で最初のGPUです。 Synopsys の場合、すべての EDA および CAD ワークフローを高速化し、Microsoft Azure にデプロイします。

オラクル:Oracle初のAIクライアントであり、AIクラウドの概念を初めて説明できることを誇りに思います。 その後、急速に成長し、コヘレ、花火、OpenAIなどの多くのパートナーを紹介しています。

コアウェイブ:GPUホスティングとAIクラウドを提供する世界初のAIオリジナルクラウドは、優れたクライアントベースを持ち、強く成長しています。

Palantir + Dell:PalantirのOntology PlatformとAIプラットフォームに基づく新しいAIプラットフォームは、データ処理(量的または構造化)から、あらゆる国のフルスケールのAcceleatorチャンバーまで、完全にローカライズされたAIを共同開発しました。

ヤング・ウィーダは、グローバルなクラウドサービスプロバイダと、クライアントをクラウドに提供するウィンウィンウィンウィン・ウィン・エコシステムとのパートナーシップを確立しました。

垂直統合、水平開放:Weedaのコア戦略

Weeda は、グローバルに垂直に統合され、水平にオープンする企業です。

このモデルの必要性は非常に簡単です:加速されたコンピューティングはチップの問題ではなく、システムの問題であり、そのフルフォーミュレーションはアプリケーションを加速する必要があります。CPUはコンピュータがより速く動くことができますが、道はネックに達しました。 将来的には、パフォーマンスの飛躍とコストが持続できるアプリケーションやセクター固有の加速によるものです。

そのため、Weidarは別の後、1つの領域、1つの領域、別の後に1つの垂直産業を栽培しなければならない理由です。 私たちは、垂直に統合されたコンピューティング会社であり、他の方法はありません。 アプリケーションを理解し、領域を理解し、深さのアルゴリズムを理解し、データセンター、クラウド、ローカル、マージン、さらにはロボットシステムなど、あらゆるシナリオで展開できるようにしなければなりません。

同時に、Ying Weidarは、世界が加速された配当を享受できるように、テクノロジーをあらゆるパートナーのプラットフォームに統合したいと考えています。

現在のGTC参加者構造に完全に反映されます。 金融サービス部門は、トレーダーではなく、成功した開発者が、参加者の最高比率を持っています。 当社のエコシステムは、上流および下流サプライチェーンの両方をカバーしています。 昨年は50年、70年、150年の歴史の中で最高の年でした。 私たちは、非常に重要な何かの始まりです。

CUDA-X:業界における加速エンジン

すべての垂直エリアでは、Yin Weidarは深いレイアウトを持っています

オートパイロット:適用範囲は広く、遠距離です

金融サービス:定量的な投資は、人工のキャラクター化工学からスーパーコンピュータ主導の深い学習に移行し、その「トランスフォーマー時間」につながる

医学の健康:AI支援薬の発見、AIの知能支援診断、医療顧客サービスなど、独自の「ChatGPT 時間」に面しています

業界:世界最大級の構造の波は、

催し物およびゲーム:リアルタイムAIプラットフォームは、翻訳、ライブ放送、ゲームインタラクション、スマートショッピングエージェントをサポートしています

ロボット:10年以上にわたり、主要なコンピューター構造は3つあります

通信:約2兆ドル規模の業界において、基地局は、NokiaやT-Mobileなどの事業に精通したAIインフラプラットフォームに単一の通信機能から進化します

これらすべての領域の中心は、当社のCUDA-Xライブラリです。これは、IN WEIDAのアルゴリズム会社です。 これらの銀行は、同社のコア資産であり、プラットフォームが業界全体で実価値を提供することを可能にします。

これらの最も重要なのは、完全に人工知能を革新し、現代のAIのビッグバンをトリガーするcUDNNです。

(CUDA-Xプレゼンテーション動画)

見てきたのは、物理原理、AIプロキシ物理モデル、物理AIロボティックモデルに基づくソルバーです。 すべてがシミュレーションであり、手動アニメーションやジョイントバインディングはありません。 これは INGWEIDA の力の中心です:これらの機会は、アルゴリズムの深い理解とコンピューティングプラットフォームの有機的な組み合わせを通じてロック解除されます。

AI ネイティブ企業と新しい計算機の年齢

現在、Wal-Mart、Al-Lea、モーガン・チェイス、Ross、トヨタなど、産業巨人として今日の社会を定義し、あなたが聞いたことがない会社が数多くあります。AIの原始を呼びかけています。 リストは、OpenAI、Anthropic、異なる垂直領域で動作する多数の新興企業を含む、非常に大きくなっています。

過去2年間、業界は警戒飛行を経験しました。 ベンチャー投資は、スタートアップが人類史の中で最大規模で150億ドルに達しました。 さらに重要なのは、初めての単一投資は、数百万ドルから数百万ドル、あるいは数十億ドルにジャンプしました。

1つの理由だけがあります史上初めての会社では、かなりのコンピューティングリソースと大量のトークンが必要になります。 業界は、AnthropicやOpenAIなどの機関からトークンに値を作成、生成、または追加しています。

PC革命、インターネット革命、およびモバイルクラウド革命は、それぞれが画期的な事業の数を作成しました。この世代のプラットフォーム変更は、将来の重要な力になる企業の非常に影響力のあるグループも生成します。

歴史ある3つのブレイクスルー

最後の2年で何が起こったのか? 3つの大きなこと。

ナンバーワン:ChatGPT、立ち上げ世代AI時代(2022-end-2023)

認識し理解できるだけでなく、独自のコンテンツを生成することもできます。 生成されたAIをコンピュータグラフィックスと統合しました。 AIを根本的に生成すると、計算が計算される方法が変化します。検索から生成まで、コンピュータアーキテクチャ、デプロイメント、全体的な意義に大きく影響します。

第2回:AIの推論、o1で表現

理由により、AIが自己反射、計画、問題の分解を可能にし、直接理解できない問題を管理可能なステップに分解することができます。 O1 は生成された AI の信頼性を生み、実際の情報に基づいて理由を生み出せます。 そのため、コンテキストに入力されたトークンの数と、思考に使用される出力が大幅に増加し、計算されたトークンの数が大幅に増加しました。

ナンバー3:クロードコード、最初のインテリジェントモデル

ドキュメントを読み、コードを準備し、コードをコンパイルし、テストをコンパイルし、評価し、反復的です。 クロードコードは、ソフトウェアプロジェクトを完全にオーバーホールしました。イングランドのエンジニアの100%は、クロードコード、コーデックス、カーサーの1つ以上を使用しているため、ソフトウェアエンジニアはAIを使用しています。

これは、AIが何をしているのか、それがどのように行われるのか、それが作成、実装、ビルド、ツールを使用して、ドキュメントを読んだり、問題を分解したり、アクションにしたりするのか、AIを尋ねるという全く新しいターニングポイントです。 AI、知覚から世代へ、推論まで、今は実現できる。

過去2年間で約10,000倍の推論に必要な計算量が増加し、使用量は約100倍増加しました。 先週の2年間で数えられた需要が何百万回も増加したと私はいつも考えています。誰もが感じているのは、それはOpenAIが感じていることです、それはAnthropic感じです。 より多くのクレジットを取得すると、より多くのトークンを得る、より多くの収入を得る、AIはよりスマートになります。 推論のポイントが到着しました。

ドルの兆し

今年は、ブラックウェルとルビンの需要と購入注文が2026年前に、約500億ドルになるという確信が高まっています。

今日、GTCの1年後、私はここに立ち、あなたを指示します: 2027年を先取りしてみると、少なくとも1兆ドルが現れます。 実際の計算は、それよりもはるかに多くなると確信しています。

2025年:英語のWeidaの推論の年

2025年は推論の年です。 トレーニングやポストトレーニングに加えて、AIライフサイクルのあらゆる段階で卓越性を維持できるため、投資されたインフラを効率的かつ継続的に機能させることができ、そのユニットコストは長持ちすることで削減されます。

同時に、AnthropicとMetaはNVIDIAプラットフォームに正式に入社し、グローバルAIコンピューティングニーズの3分の1を共に表しています。 オープンソースモデルは、フロントレベルの近くにあり、どこにいても利用可能です。

YOUNG WEIDAは現在、すべてのAIドメイン(言語、生物学、コンピュータグラフィックス、コンピュータビジョン、音声、タンパク質、化学、ロボティクスなど)を操作できる唯一のプラットフォームです。言語に関係なく、エッジやクラウドに関係なく、すべてのAIモデル。 英国の WEIDA アーキテクチャとこれらのすべてのシナリオの共通性は、私たちが最低費用と最も信頼できるプラットフォームになります。

現時点では、Ingweidaの事業の60%は、世界のトップ5の超大型クラウドサービスプロバイダから来ており、地域のクラウドの領域で残りの40パーセント、上昇雲、企業、業界、ロボティクス、エッジコンピューティングなどですお問い合わせ AIのカバレッジのパンプスは、それ自体がその弾力性です - それは間違いなく完全に新しいプラットフォームの変更です。

グレースブラックウェルとNVLink 72:ブレイブ構造革新

ホッパーアーキテクチャのピークでは、システムを完全に再編成し、NVLinkを8からNVLink 72に拡張し、コンピューティングシステムを完全に分解することを決定しました。 グレース・ブラックウェルNVLink 72は、すべてのパートナーにとっては簡単ではなく、当社の誠意に感謝申し上げます。

同時に、NVFP4 -- 通常のFP4ではなく、新しいタイプのテンションコアとコンピューティングユニットを導入しました。 NVFP4は、精度を損なうことなく、性能とエネルギーの効率性の改善、そしてトレーニングのために等しい推論を達成することができることを実証しました。

また、DynamoとTensorRT-LLMの一連の新しいアルゴリズムが出現し、DGX Cloudと呼ばれるスーパーコンピュータを構築するために、コアの最適化に数十億ドルも専念しています。

注目すべき理由 セミ分析によるデータ — パフォーマンス評価を最新に推論する最も包括的なAI — YVD は、ワットトークン当たりの寸法とトークンコストの両方を先取りしていることを示しています。 オリジナルのモールス法は、H200 1.5倍のパフォーマンスを発揮することができましたが、35倍のパフォーマンスをしました。 セミ分析のDylan Patelも言いました:「Hwang In-hoonは保守的、実際には50回です。 お問い合わせ。

そして私達は彼に引用します:「Jensen Sandbagged」

イングランドのすべてのトークンのコストは、世界で最も低いものであり、現在アクセスされていないものはありません。 これは、非常に相乗的設計(Extreme Co-design)によるものです。

Fireworks の場合、平均トークン速度は Weaverda で完全なソフトウェアとアルゴリズムが更新される前に 1 秒あたり約 700 であった。更新は 1 秒あたり 5,000 に近く、約 7 回増加しました。 そして、それは非常に相乗的設計の力です。

AIプラント:データセンターからトークンプラントまで

ファイルのリポジトリとして使用されるデータセンターで、トークンを生成する工場です。 各クラウドサービスプロバイダは、今後コアパフォーマンス指標として、各AI会社が「工場の効率化」を利用します。

これは私のコア引数です

•縦軸:スループット - 固定電力で秒あたりのトークン数

•十字軸:インタラクティブ・スピード(トークン・スピード) - 各推論が応答する速さ、利用可能なモデルが大きいほど、より長いコンテキスト、よりスマートなAI

トークンは新しいバルク商品です。, 一度成熟, 層で価格:

:: 無料フロア(高速・低速)

:: 中級レベル(百万ドル)

• 高度なレベル($6/百万円)

:: 高速レイヤー(百万トークンあたり45ドル)

Hypervelocityレイヤー(100万トークンあたり150ドル)

ホープと比較して、グレース・ブラックウェルは、最高値で35回増加し、新しいレイヤー全体を導入しました。 単純化されたモデルでは、電力の25%は4つのレベルに割り当てられ、グレース・ブラックウェルは、希望よりも5倍の収入を生み出します。

Vera Rubin:次世代AIコンピューティングシステム

(Play Vera Rubin紹介動画)

Vera Rubinは、インテリジェントのワークロード用に特別に設計された、完全なエンドツーエンドの最適化されたシステムです

•大きい言語モデルの計算の中心:NVLink 72 GPUクラスター、プリフィルおよびKVキャッシュの処理

•新しい、Vera CPU:優秀なエネルギー効率のLPDDR5の記憶を使用して非常に高い単一道の性能のために特に設計されていて、AIのスマートな用具のために適したLPDDR5 CPUを使用して世界唯一のデータセンターです

•貯蔵システム:Bluefield 4 + CX 9、AIの時代、グローバルストレージ業界のための完全に新しいストレージプラットフォーム100% CPOスペクトラムXスイッチに追加:光学イーサネットスイッチのグローバルダウンロード、フル生成

& nbsp; キバー144 GPU を単一の NVLink ドメイン、フロントエンド コンピューティング、バックエンド NVLink 取引所にサポートする、まったく新しいラック システム

•超ルビン:次世代のハイパーノードは、Kyber ラックと一致して大規模な NVLink 相互接続をサポートするように垂直に設計されています

Vera Rubinは、インストールの2日間から2時間に短縮され、45°Cの温水冷却を導入し、データセンターの冷却圧力を大幅に削減しました。 今回、Satya(Nadra)は、最初のVera Rubinの格納庫がMicrosoft Azureと並んでいることを確認し、とても励んでいます。

Groqの統合:性能の推論の極端延長

グロークチームを買収し、技術認定を取得しました。 Groqは、静的コンパイラとコンパイラを使用して展開される、決定的なデータストリームプロセッサ(決定的DataFlowプロセッサ)であり、推論のための単一の負荷の最適化に専念する多くのSRAMが、非常に低い遅延と非常に高いトークン生産速度で展開されます。

しかし、Gluqの限られたメモリ容量(500MBフィルム上のSRAM)は、大規模なモデルとKVキャッシュのパラメータを独立して運ぶのが難しく、大規模なアプリケーションを制限します。

ソリューションは、適切なスケジューリングソフトウェアのソースであるDynamoです。 Dynamo では、推論の行を収集しています

• プレフィルおよび注意のデコード:Vera Rubinに寄付(たくさんのコンピューティングとKVキャッシュストレージが必要)

•フィードフォワードネットワークデコード:i. e. トークン生成コンポーネント, Groqで完了 (高帯域幅と低遅延が必要)

Ethernetと密接に連携することで、特殊なモデルで約半分の遅延が軽減されます。 Dynamo の統合展開では、「AI プラント オペレーティング システム」という、全体的なパフォーマンスが 35 回増加し、NVLink 72 が以前到達できなかったという全く新しい推論レベルを作成しました。

GroqとVera Rubinの提案:

タスクの負荷が高スループットによって支配される場合、高値トークンの100% Vera Rubinを使う

Groq は、約 25% の Groq + 75% Vera Rubin Groq LP30 の推奨速度で 3 つ星ホテルで動作し、現在生産中です。 彼の完全な協力のためにサムスンに感謝。

推論の歴史的な飛躍

以前の技術の進歩の定量化: 2 年期間では、1 の Giva AI 工場でのトークン生産率は 22 万トークン/秒から 700 万トークン/秒、最大 350 回増加します。 そして、それは非常に相乗的設計の力です。

テクノロジーロードマップ

• blackwell:現在生産、Oberonの標準的な棚システム、NVLink 72への銅ケーブル延長、NVLink 576への任意光学延長

•Veraのルビン(現在の):Kyberのハンガー、NVLink 144 (Cronicケーブル);Oberonのハンガー、NVLink 72 +光学は、NVLink 576に拡張しました;スペクトラム6、全体的な最初のCPOの交換

•Veraのルビンの超(forthcoming):Rubin Ultra GPU、LP35チップ(最初の統合NVFP4)の新世代、さらなる乗算

•フェインマン(次世代):新しい GPU、LP40 チップ (英国と Groq チーム、統合 NVFP4 によって共同開発)。新しい CPU-Rosa (Rosalyn); Bluefield 5; CX 10; 銅ケーブルと CPO 拡張をサポートする Kyber ラック

道路地図は明確です:銅ケーブル延長、光学延長(スケールアップ)、光学延長(スケールアウト)の3つのルートを並行して進め、銅ケーブル、光ファイバー、CPOの面ですべてのパートナーによる生産の持続的な拡大が必要です。

NVIDIA DSX: プラントのデジタルツインプラットフォーム

AIはますます複雑になってきていますが、データセンターで会うまで、設計フェーズで互いに働かなかった様々な技術サプライヤーは、明らかに十分ではありません。

そのためには、Omniverseを作成し、それに基づいて、NVIDIA DSXプラットフォーム、すべてのパートナーが仮想世界でGiva-class AIプラントの設計と運用を行うプラットフォームです。DSXは提供します:

:: オンボード機械、熱、電気、ネットワークシミュレーションシステム

:: グリッドに接続して、シナジーな省エネの動きを実現

:: データセンターのMax-Qに基づく動的エネルギー消費と冷却最適化

システムが約2倍のエネルギー効率を高めることができることを保守的に推定されます。これは、私たちが話しているスケールの非常に重要な利益です。 オムニバースは、デジタル地球から始まり、あらゆる規模のデジタルツインを持ち、グローバルパートナーと協力して、人間史上最大のコンピューターを構築しています。

また、イギリスは宇宙に突入しています。 Thorの破片は放射のために証明され、衛星で作動しています。 スペースデータセンターのVera Rubin Space-1を開発するパートナーと協力しています。 熱熱熱は、トップエンジニアを攻撃する場でコアチャレンジです。

OpenClaw:インテリジェントボディの年齢のオペレーティングシステム

ピーター・スタインベルガーは、OpenClawと呼ばれるソフトウェアを開発しました。 これは、わずか数週間で30年間Linux の達成を上回る人間の歴史の中で最も人気のあるオープンソースプロジェクトです。

OpenClaw は、以下のような知能システムです

:: リソースの管理、ツールへのアクセス、ドキュメントシステム、大規模な言語モデルの管理

:: スケジュールとタイミングタスクの実装

:: 問題点を明らかにし、サブ・インテリジェンスでの呼び出し

•入力または出力(音声、ビデオ、テキスト、メールなど)の種類のサポート

それは本当にオペレーティングシステムです - スマートボディコンピュータ用のオペレーティングシステム。 Windows はパーソナルコンピュータを可能にし、OpenClaw はパーソナル インテリジェンスを可能にします。

各企業は、Linux、HTML、Kubernetesが必要なのと同様に、独自のOpenClaw戦略が必要です。

企業IT総合リシェピング

IT:データと文書がシステムに入り、ツールと作業の流れを通し、最終的に人間が使うためのツールになります。 ソフトウェア会社では、ツール、システムインテグレータ(GSI)、コンサルティング会社が、事業の活用を支援しています。

IT:各SaaS企業は、Aaas(サービスとしてのアジェンティック、サービスとしてのスマート)に変革されます。ツールを提供するだけでなく、特定の分野に特化したAIスマートボディを提供します。

しかし、ここに重要な課題がありますIntra-enterprise インテリジェンスは、機密データ、執行コード、外部通信へのアクセス権を持っています。 これは、ビジネス環境で厳密に規制されている必要があります。

そのためには、Peter社と提携し、安全性をエンタープライズレベルのバージョンに統合しました

•NeMoの爪(参照の設計):OpenClaw ベースのエンタープライズレベルのリファレンスフレームで、スマート AI ツールキットの NVIDIA セットを統合

•開いた盾(保証レベル):OpenClaw に統合され、戦略的なエンジン、ネットワークフェンス、企業データセキュリティを確保するためのプライバシールートを提供します

• ネモクラウド:すべてのSaaS企業の戦略的なエンジンとダウンロードしてインターフェイス

これは、エンタープライズITのルネッサンスです, $2 トリリオン業界は、トリリオンドルラースケールで成長することについてです, 特殊なAIスマートボディサービスを提供するためにツールを提供することから移動。

私は完全に予感することができます:将来的には、社内のすべてのエンジニアは、毎年のトークン予算を持っています。 彼らは、年間数千ドルの支払いができ、私は彼らに余分なトークンクォータを半分に均等にするので、その出力は10倍になります。 シリコンバレーの新採用の件名に「エントリーにどれだけのトークンクォータが添付されているか」が誕生しました。

各企業がトークン(エンジニア向け)とトークン(クライアント向け)のプロデューサーとなります。 OpenClaw の意義は下落できません。 HTML、Linux と同じくらい重要です。

NVIDIAオープンモデルの取り組み

自己定義されたインテリジェンス(カスタムクロール)の面で、NVIDIAのセルフスタディのフロントラインモデルを提供しました

モデル フィールド ネオトロン 大規模 言語 モデル コスモス 世界財団 モデル

私たちは、あらゆる分野における技術の最前線にいます。そして、私たちは継続的反復にコミットしています - Nemotron 4, Cosmos 1, Cosmos 2, Groq, 第二世代に。

ネモトロン 3 は、OpenClaw のトップ 3 つのグローバル最高のモデルの中でランク付けされ、前面にあります。 ネモトロン3 Ultraは、世界最大規模の社会基盤モデルとして、世界最大規模の社会基盤を築き上げます。

本日、Nemotron Allianceの設立により、AIの基本モデルの開発に10億ドルの投資を決定いたしました。 そのメンバーは、BlackForest Labs、Cursor、LangChain、Mistral、Perplexity、Reflection、Sarvam(インド)、Thinking Machine(Mira Murati ' s Laboratory)を含む。

Nemo Claw リファレンス設計と NVIDIA スマート ボディ AI ツールキットを自社製品に統合した後の 1 つの企業ソフトウェア会社。

物理AIとロボット

デジタル・インテリジェンスはデジタル・ワールドで動きます。コードを記述し、データを分析し、物理・人工知能は、ロボットの知能の体です。

このGTCは、世界中にほぼすべてのロボットや開発会社を網羅する、110台のロボティクスを網羅しています。 WEIDAでは、コンピュータ(コンピュータ、シミュレーションコンピュータ、オンボードコンピュータ)を3台、ソフトウェアスタックとAIモデルを完成させました。

オートパイロットに関しては、オートパイロット「ChatGPT Time」が到着しました。 今日、英国のRoboTaxi Readyプラットフォーム:Biadi、モダン、日本語、Gili、合計18百万の年間生産に参加します。 これにより、以前のメルセデス、トヨタ、ジェネラルと組み合わせることで、さらなる形成を強化しました。 同時に、Uber社と提携し、RoboTaxi Ready車両を複数の都市に展開・アクセスすることを発表しました。

産業用ロボットの観点から、ABB、Universal Romanics、KUKAなどの多くのロボットが、物理AIモデルをシミュレーションシステムと組み合わせて、ロボットをグローバル生産ラインに上陸させる仕組みを構築しています。

通信では、CaterpillarとT-Mobileもリストされています。 将来的には、ワイヤレス基地局は単なる通信ノードではなく、NVIDIA Aerial AI RAN - リアルタイムのセンシングフローが可能なスマートなエッジ計算プラットフォームで、ビームを形状に調整し、エネルギー効率の効率性を実現します。

特別リンク:オラフ

(ディズニー・オラフ・ロボット実証動画)

ニュートンが働いています

お問い合わせ。

はい、コンピューターを受け取ったので、ジェットソン

それは何ですか

胃の中にあります。

すごい。

オムニバースを歩くことを学びました。

歩いてみたい。 美しい空を見下ろすよりも良いです。

ウォンインホオン: まさに物理シミュレーションで、NVIDIA Warp をベースとしたニュートンのソルバーです。これは、ディズニーとDeepMind と共同で開発し、実際の物理世界へ適応させます。

それは私が話しているものです。

これは、あなたがスマートである場所です。 雪だるまで、スノーボールじゃない。

想像できますか? ディズニーランドの未来 - これらのすべてのロボットキャラクターは、公園で自由にロームします。 しかし、正直言っても、背が高いと思いました。 こんなに短い雪だるまを見たことがないんです。

Olaf:(許可なし)

ホン・イン・ホオンは、今日のスピーチを終えてもらえますか

ブラボー

キーノートアドレスのまとめ

Hoang In-hoon: 今日、次のコアテーマを共有します

1. 推論点の到着:AIの作業負荷のコアとなる理由 トークンは商品の新しい量です。 推論機能は直接収入を決定します

2. AIの工場年齢:データセンターは、ファイルストレージ施設からトークン生産工場へと進化し、今後「AIプラントの効率化」による競争力を測定します

OpenClawスマート革命:OpenClaw はインテリジェントなコンピューティングの時代を開き、ビジネス IT はツールの年齢からインテリジェントな年齢に移行し、各企業が OpenClaw 戦略を開発する必要があります

4. 物理的なAIおよびロボティクス:SMARTY はスケールダウンされ、オートパイロット、産業用ロボット、人間ロボットが共に物理の次の大きな機会を構成しています

ありがとうございます。 お楽しみに

オリジナルリンク

QQlink

No crypto backdoors, no compromises. A decentralized social and financial platform based on blockchain technology, returning privacy and freedom to users.

© 2024 QQlink R&D Team. All Rights Reserved.