Litecoin

가득 차있는 GTC 연설: 시장 수요는 2027년까지 달러의 조율을 초과할 것입니다; 모두 OpenClaw 전략을 개발해야 합니다

2026/03/17 14:32
🌐ko

미래 성장을 주도하는 밑바닥 사업 논리는 "Token Factory Economics"일 것입니다。

가득 차있는 GTC 연설: 시장 수요는 2027년까지 달러의 조율을 초과할 것입니다; 모두 OpenClaw 전략을 개발해야 합니다
원래 제목 : "황인훈 GTC 전체 연설 : 이유의 연령, 2027 적어도 조 달러, 랍스터는 새로운 운영 체제"
에 의해 원래: 벽 거리

2026년 3월 16일, 의회는 창립자이자 CEO HOANG IN-HOON의 주요 주소로 공식적으로 열렸다。

이 회의에서 "AI 산업 연례 순례"로 간주됩니다. 우리는 차이를 만드는 방법을 찾을 수있었습니다WONG IN-HOON은 칩 회사에서 AI 인프라 및 공장 회사에 젊은 WEI DA의 투쟁을 설명했습니다. - 기타나는 모른다. 지속 가능성과 성장의 공간에 대한 시장의 가장 큰 우려를 직면Huang In-hoon은 미래 성장을 구동하는 사업 논리를 자세히 설명합니다. - "Token Factory Economics"。

성능 지침은 매우 낙관적 인 "2027 년 적어도 $ 1 조."

지난 2 년 동안 글로벌 AI 계산 수요가 폭발적으로 폭발했다. 큰 모델은 "감축"에서 "세상"으로 진화하여 "세상"과 "ACTION"(TASK) 컴퓨팅 전력의 소비가 극적으로 상승합니다. HWANG IN-HOON은 높은 시장의 관심 주문과 천장 컬렉션에 대한 매우 강한 기대를주었습니다。

In-hoon Huang, 그의 연설에서, 진술 :

이 시간에 작년, 나는 말했다, 우리는 높은 침수 수요에 $500 억을 보았다, 블랙 웰과 루빈을 커버 2026。지금, 여기에, 나는 적어도 볼 $1 조 2027。

Wong In-hoon의 조 달러는 영국 주식 가격을 센트로 늘릴 것으로 예상됩니다。

또한, 그는이 번호에 추가:

그 의미는? 그것은 내가 얘기하는 것 이다. 사실, 우리는 심지어 공급 중입니다。실제 컴퓨팅이 훨씬 더 높을 것이라고 확신합니다。

WONG IN-HOON은 오늘 시스템이 "최고의 인프라"라고 증명했습니다. 이 일반은 클라이언트가 완전히 활용하고 AI 모델의 거의 모든 지역에서 투자 된 $ 1 조의 긴 수명주기를 유지할 수 있습니다。

현재 Ingweida의 비즈니스의 60 퍼센트는 상위 5 대의 슈퍼매직 클라우드 서비스 제공 업체에서 제공되며, 다른 40 퍼센트는 유권 클라우드, 기업, 산업, 로봇 및 가장자리 컴퓨팅 분야에서 널리 배포됩니다。

토큰 공장 경제. 모든 와트의 성능은 비즈니스 수명을 결정합니다

이 1 조 억 수요의 유산을 설명하기 위해 HUANG IN-HOON은 글로벌 기업 CEO가 비즈니스 사고의 전체 새로운 세트를 보여주었습니다。그는 미래의 데이터 센터가 더 이상 문서의 저장소가 아니라 토큰을 생산하는 "workshop"(AI에 의해 생성 된 기본 단위)。

Wong In-hoon 스트레스:

각 자료 센터, 각 공장은 전기에 의해 제한되는 정의에 의해 입니다. 1GW 식물은 2GW, 물리 및 원자의 법이되지 않습니다。고정 전력으로, 토큰의 와트 당 가장 높은 볼륨을 가지고, 누가 가장 낮은 생산 비용。

HUANG IN-HOON는 미래 AI 서비스를 4개의 사업 수준으로 분할합니다:

• 무료 층높은, 낮은, 낮은)

:: 중간 수준(~$3 백만)

• 고급 수준(~$6 백만)

:: 고속 층(~$45 백만 토큰)

• Hypervelocity 층(~$150 백만 토큰)

그는 AI가 모델과 컨텍스트의 성장 수와 스마트 할 것이라고 지적했지만 토큰의 생산률은 낮을 것입니다. Huang In-hoon는 진술했습니다:

이 토큰 공장에서, 당신의 처리량 및 토큰 생성의 속도는 다음 해에 정확한 소득으로 직접 번역됩니다。

Wong In-hoon은 젊은 Wei Da의 아키텍처가 자유 수준에서 높은 수준의 처리량을 달성 할 수 있다고 강조하면서 35 배의 성능을 증가시킵니다。

Vera Rubin은 2 년 동안 350 배 더 빠릅니다. Groq는 하이퍼 드라이브 인 이유를 채웁니다

이 물리적 한계의 제약 아래 Yvesta는 Vera Rubin의 가장 복잡한 AI 컴퓨팅 시스템을 설명합니다. Huang In-hoon는 진술했습니다:

나는 희망에 대해 이야기하고, 나는 칩을 들어 올리고, 그 귀여운 것입니다. 그러나 Vera Rubin과 함께, 당신은 시스템에 대해 생각하고 있습니다. 이 100 퍼센트 액체 냉각 시스템에서, 완전히 전통적인 케이블을 제거, 그것은 격납고를 설치하기 위해 2 일이 걸렸다 지금 단지 2 시간。

Hoang In-hoon은 Vera Rubin이 매우 최종 하드웨어 공동 설계를 통해 동일한 1 GW 데이터 센터에 놀라운 데이터의 도약을 만들었습니다

불과 2 년 만에 토큰의 생산률을 22 백만에서 700 백만으로 늘리고 350 배의 증가를 달성했습니다. Moore의 법은 평균적으로 약 1.5 배 더 높을 수 있습니다。

Inverda는 하이퍼 스피드 소싱 (예 : 1000 Tokens/s)의 조건 하에서 대역폭 병목을 해결하기 위해 인수 회사 Groq : 비대칭 분리 소싱을 통합하기위한 최종 솔루션을 준。

Wong In-hoon은 다음과 같이 설명합니다

두 개의 프로세서의 특성은 명백합니다. Groq 칩에는 500MB SRAM가 있고 Rubin 칩에는 288GB 기억이 있습니다。

Wong In-hoon은 Dynamo 소프트웨어 시스템을 통해 언급되지 않았습니다. Young Weida는 Vera Rubin의 대량 컴퓨팅 및 가시적 사전 처리 단계가 필요하며 Groq의 지연을 위해 매우 민감한 디코딩 단계가 필요합니다。Huang In-hoon은 또한 기업의 윤곽에 통보를 제안했습니다:

작업이 주로 높을 경우, 100 %는 Vera Rubin을 사용합니다. 많은 고가치 프로그래밍 수준 토큰 생성이 필요하면 데이터 센터 크기의 25 %를 Groq로 가져갑니다。

그것은 Groq LP30 칩이 3 성급 에이전트에 의해 생산 된 것으로 밝혀졌다, 볼륨에서 생산되었으며 세 번째 분기에 배송 될 것으로 예상되었다, 첫 번째 Vera Rubin 걸이는 Microsoft Azure 클라우드에서 작동했다。

또한, 빛 상호 연결 기술에 관해서는, Huang In-hoon는 co-container 광학적인 교환, 스펙트럼 X의 세계적인 1 차적인 생산을 설명하고, “copper retreat” 노선에 시장의 싸움을 진정했습니다:

우리는 더 많은 구리 케이블, 더 많은 빛 칩, 더 많은 CPOS를 필요로 합니다나는 모른다。

에이전트, 전통 끝, SaaS, "Annual pay plus Token"은 실리콘 밸리 기호입니다. 이름 *

하드웨어 장벽 외에도 Hwang In-hoon은 AI 소프트웨어 및 생태 혁명을위한 공간의 큰 거래를 왼쪽, 특히 에이전트의 발발。

그는 오픈 소스 프로젝트 OpenClaw를 "인간 역사에서 가장 인기있는 오픈 소스 프로젝트", 지난 30 년 동안 리눅스의 업적을 능가하기 위해 몇 주만 걸렸습니다. 이훈황은 OpenClaw가 Agent의 컴퓨터의 "operating system"에 필수적이라고 말했다。

황 In-hoon asserted:

각 SaaS (소프트웨어, 서비스) 회사는 Aaas, 스마트, 서비스가 될 것입니다. 이 스마트 바디의 안전한 착륙을 보장하기 위해, 민감한 데이터 및 집행 코드에 액세스 한, 기업 수준에 NeMo Claw 참조 디자인이 도입되었습니다, 전략적 엔진 및 개인 정보 보호 라우터 추가。

정규직을 위해, 변화는 또한 가까이 있습니다. Huang In-hoon은 미래의 직장의 새로운 모양을 설명합니다

앞으로, 우리의 회사에 있는 각 엔지니어는 연례 토큰 예산을 필요로 합니다。그들의 기본 급여는 연간 수천 달러의 수백이 될 수 있으며 그 기반, 나는 토큰 규모에 대해 그들에게 제공 할 것입니다, 10x 효율 이익을 달성 할 수 있도록。이 실리콘 밸리의 새로운 채용 칩: 얼마나 많은 제안을 수행, 토큰

연설의 끝에, Huang In-hoon는 또한 “blowed” computational 구조의 차세대, Feynman, 첫번째로 구리 선과 CCPO와 동일한 수준을 확장할 것입니다. 더 눈에 띄는 것은 데이터 센터 컴퓨터 Vera Rubin Space-1입니다. 공간에 배치 된 데이터 센터는 Ingweida가 개발 한 것입니다. AI 's 알고리즘이 지구를 넘어 확장하는 상상력을 완전히 엽니다。

GTC 2026 연설의 전체 텍스트, 다음과 같이 번역 (AI 도구 지원):

모델 번호:Weida의 창립자 겸 CEO인 Hoang In-hoon에 오신 것을 환영합니다。

Huang In-hoon, 설립자 및 최고 임원 :GTC에 오신 것을 환영합니다. 나는이 기술 회의는 당신을 상기하고 싶습니다. 아침 일찍부터 많은 사람들이 볼 수있는 좋은 즐거움을 제공합니다。

GTC에서, 우리는 3개의 주요 테마에 집중할 것입니다: 기술, 플랫폼 및 생태계。

이제 세 가지 주요 플랫폼이 있습니다. CUDA-X 플랫폼, 시스템 플랫폼 및 최근 AI 플랜트 플랫폼을 출시했습니다。

우리가 시작하기 전에, 나는 우리의 예열 주인에게 감사하고 싶습니다 - Convition의 Sarah Guo, Redwood Capital의 Alfred Lin (영국의 최초의 벤처 투자자), 그리고 Gavin Baker, Inverda의 첫 번째 주요 기관 투자자. 3은 기술에 대한 확고한 통찰력을 가지고 있으며 기술 생태계 전반에 큰 영향을 주었습니다. 물론, 나는 또한 오늘 개인적으로 초대 된 모든 구별 손님에게 감사하고 싶습니다. 이 올스타 팀에게 감사。

오늘 여기에 모든 회사가 감사하고 싶습니다. 우리는 기술, 플랫폼 및 풍부한 생태계가 있습니다. 오늘 여기있는 회사는 거의 모든 참가자를 나타냅니다 $ 10 조 산업, 그리고 450 회사는이 이벤트를 후원, 우리는 깊이 감사입니다。

회의에는 1,000 개의 기술 포럼, 2,000 개의 스피커가 있으며 인공 지능 5 층 케이크 아키텍처의 모든 레벨을 커버 할 것입니다. 토지, 전기 및 기계 칩, 플랫폼, 모델 및 애플리케이션과 같은 인프라에서 궁극적으로 전체 산업을 구동합니다。

CUDA: 기술 축적의 20년

모든 것이 여기에 시작됩니다. 올해는 CUDA의 TWENTIETH 기념일입니다。

수십 년 동안 우리는이 건축의 발전에 노력하고 있습니다。CUDA는 혁신적인 발명 - SIMT (단일 명령 멀티 와이어) 기술로 개발자가 표준 코드로 프로그램을 준비하고 이전 SIMD 아키텍처보다 훨씬 더 어려운 멀티 와이어 응용 프로그램에 확장 할 수 있습니다。우리는 또한 최근에 타일 기능을 추가했습니다. 개발자가 코어 (Tensor Core)뿐만 아니라 인공 지능이 오늘 달려있는 다양한 수학 알고리즘을 더 잘 프로그래밍하는 데 도움이됩니다。현재, CUDA에는 수천 개의 도구, 컴파일러, 프레임 워크 및 라이브러리가 있으며, 오픈 소스 커뮤니티에서 수천 개의 개방 프로젝트가 있으며 각 기술 생태계에 깊이 통합되었습니다。

이 차트는 INVERDA의 전략적 논리의 100 %를 공개하고 처음부터이 슬라이드에 대해 이야기했습니다. 가장 어려운 중앙 요소 중 하나는 차트의 하단에 "LOAD"입니다. 지난 2 년 동안, 우리는 전세계 CUDA 운영 GPU 및 컴퓨팅 시스템의 수백만의 수백을 축적했습니다。

GPU는 거의 모든 컴퓨터 제조업체 및 산업을 제공하는 모든 클라우드 플랫폼을 다룹니다. CUDA의 거대한 수용량은 이 배의 가속 속도의 UNDERLYING 원인입니다. 로드는 개발자를 유치, 새로운 알고리즘을 만들고 획기적인 만들기, 새로운 시장을 깰, 새로운 생태를 생성하고 더 많은 기업이 부하를 확장하기 위해 - 꾸준히 가속 휠。

Wei Daqu의 다운로드량은 경보 비율로 성장하고 크고 증가합니다. 이 휠은 대규모 애플리케이션을 유지하고 새로운 획기적인 개발을 위해 계산의 플랫폼을 활성화했습니다。

더 중요한 것은 이러한 인프라를 매우 긴 유용한 삶을 제공합니다。이 이유는 명백합니다: NVIDIA CUDA는 AI 수명주기, 각종 데이터 처리 플랫폼 및 각종 과학적인 해결자의 각 단계를 다루는 조작상 신청의 아주 광범위가 있습니다. 따라서, 한 번 설치된 GPU의 실제 값은 매우 높습니다. 그리고 우리가 6 년 전에 출판 된 암페어 아키텍처는 GPU가 올라가는 이유입니다。

이 모든 원인은 다음과 같습니다수용량은 크, 바퀴 강하고 개발자는 광범위하。이러한 요인이 함께 일할 때, 우리의 소프트웨어의 지속적인 UPDATING와 함께, COSTING 계속 감소. ACCELERATOR 컴퓨팅은 애플리케이션 성능을 크게 개선하면서 사용자가 초기 단계에서 성능 만 뛰어 넘을 수 있지만, 또한 시간이 지남에 따라 이더러티브 소프트웨어를 유지하면서 감소 된 컴퓨팅 비용에서 혜택을 계속합니다. 우리는 완벽하게 호환되기 때문에 세계에서 모든 GPU에 장기 지원을 제공 할 것입니다。

우리는 용량이 너무 크기 때문에 그렇게 할 것입니다. — 수백만 명의 사용자가 출판 된 때마다 새로운 최적화 혜택을 누릴 수 있습니다。이 역동적 인 조합은 영국의 WIDA 아키텍처를 허용하면서 비용을 절감하고 자신의 성장을 가속화하고 궁극적으로 새로운 성장을 자극합니다. CUDA는 모두의 핵심입니다。

GeForce에서 CUDA까지: 진화의 25 년

그리고 CUDA와의 우리의 여행은 실제로 25 년 전에 시작되었습니다。

GeForce -- 나는 GeForce로 자랐다. GeForce는 뉴질랜드에서 가장 성공적인 시장 홍보 프로젝트입니다. 우리는 당신이 그들을 살 것을 감당할 수 없기 때문에 미래 고객을 올리고 있습니다. - 당신의 부모, 누가 교체, Yvette의 첫 번째 사용자가되었다, 년 후 우리의 제품을 구입, 좋은 컴퓨터 과학자, 진실한 고객 및 개발자가 될 때까지 1 일까지。

이것은 GeForce가 25 년 전에 놓은 기초입니다. 20년 전, 우리는 programmable 색깔 감시자를 발명했습니다. 이것은 프로그래밍 가능한 가속기를 위한 명백한 그러나 far-reaching 발명품이고, 세계에서 첫번째 풀그릴 가속기, 화소 착색기입니다. 5 년 후, 우리는 CUDA를 만들었습니다 - 우리의 역사에서 가장 중요한 투자 중 하나입니다. 회사는 시간에 제한된 금융 자원이 있었지만 GeForce에서 모든 컴퓨터로 CUDA를 확장하는 데 많은 이익을 투자했습니다. 우리는 우리가 그것의 잠재력을 납득하기 때문에 너무 강합니다. 초기 어려움에도 불구하고 회사는 13 세대, 20 년 동안이 신념에 개최되었으며 현재는 CUDA가 있습니다。

GeForce 혁명을 구동하는 픽셀 컬러러입니다. 그리고 약 8 년 전, 우리는 RTX를 시작 -- 현대 컴퓨터 그래픽을 위한 건축의 완전한 overhaul. GeForce는 세계에서 CUDA를 가져왔다. Alex Krizhevsky, Ilya Sutskever, Geoffrey Hinton, Andrew Ng와 같은 많은 학자가 GPU가 심층적인 학습을 가속화하기위한 강력한 도구가 될 수 있음을 발견했습니다. 인공 지능의 대규모 폭발을 유발하는 10 년 전。

10 년 전, 우리는 두 가지 새로운 아이디어로 프로그래밍 가능한 색상을 통합하기로 결정했습니다하나는 하드웨어 추적입니다이것은 기술적으로 도전입니다그리고 두 번째는 앞으로의 생각이었다 -- 10 년 전, 우리는 AI가 컴퓨터 그래픽을 완전히 바꿀 것이라고 예측했다。GeForce로 AI를 세계로 가져와 AI는 이제 전체 컴퓨터 그래픽이 만들어 졌는지 다시 만듭니다。

오늘, 나는 당신에게 미래를 보여주고 싶습니다. 이것은 Neural Rendering -- 인공 지능과 결합 된 3D 그래픽의 깊이를 호출하는 그래픽의 차세대입니다. 이것은 DLSS 5, 보기입니다。

NEURAL RENDERING: 생성된 AI를 가진 구조화된 자료의 통합

이 놀라운? 컴퓨터 도표는 따라서 재 설계됩니다。

우리는 무엇을 했습니까? 우리는 구조화 된 데이터와 함께 제어 가능한 3D 그래픽 (현실적인 기반)을 결합하고 차세대 AI 및 확률 계산을 통합합니다. 한개는 완전히 확실합니다, 다른 것은 높게 현실적입니다 — 우리는 구조화된 자료를 통해서 정밀도와 통제를 달성하는 2개의 개념을 결합하고, 그(것)들을 실제 시간에 생성하. 결국, 콘텐츠는 아름답고 완전히 관리할 수 있습니다。

구조화된 정보와 세대 AI 통합의 아이디어는 다른 후에 1개의 기업에서 반복될 것입니다。STRUCTURED DATA는 신뢰할 수있는 AI의 코너스톤입니다。

Structured 및 Non-structured 데이터 플랫폼 가속화

이제 기술 차트를 보여주고 싶습니다。

Structured data - 익숙한 SQL, Spark, Pandas, Velox 및 Snowflake, Databricks, Amazon EMR, Azure Fabric, Google BigQuery와 같은 중요한 플랫폼은 데이터 프레임 (Data Frame)을 처리하고 있습니다. 이러한 데이터 프레임, 거대 스프레드 시트와 같은, 비즈니스 세계에서 모든 정보를 수행하고 비즈니스 계산의 기본 사실입니다。

AI 시대에서 우리는 구조화 된 데이터를 사용하고 업적을 가속화해야합니다. 과거에, 구조화된 자료 처리의 가속은 기업을 더 효율적으로 만들기를 목표로 하고 있습니다。미래에 AI는 인간의보다 훨씬 빠른 속도로 이러한 데이터 구조를 사용하며 AI 지능은 광범위한 데이터베이스를 구성합니다。

구조되지 않은 데이터, 벡터 데이터베이스, PDF, 비디오, 오디오 등의 용어는 전 세계의 데이터 패턴의 광대한 대부분을 구성합니다. 매년 생성 된 데이터의 약 90 %는 구조화되지 않습니다. 과거에, 이 자료는 거의 완전하지 않았습니다: 우리는 그들을 읽고 파일 시스템에 넣어, 그게 전부입니다. 잘못된 데이터의 간단한 색인의 부족 때문에 검색하거나 검색 할 수 없으며 의미와 맥락을 이해해야합니다。이제 AI는이 작업을 수행 할 수 있습니다 -- 멀티 모듈 센서 및 이해 기술, AI는 PDF 문서를 읽을 수 있으며, 그들이 의미하는 것을 이해하고 상담 할 수있는 더 큰 구조로 끼워넣었습니다。

Young Waida는이 두 가지 기반을 만들었습니다

CuDF: 데이터 프레임, 구조화된 데이터 처리

CUVS: 벡터 저장, semantic 및 비 구조상 데이터 처리

이 두 플랫폼은 미래의 가장 중요한 기본 플랫폼 중 하나입니다。

오늘, 우리는 기업의 수와 협력을 발표. IBM-SQL 언어의 발명자는 cuDF를 사용하여 WatsonX Data 플랫폼을 가속화합니다. Dell은 cuDF 및 cuvs를 통합하고 NTT 데이터 프로젝트에서 중요한 성능 개선을 달성하는 Dell AI 데이터 플랫폼을 만들었습니다. Google Cloud는 이제 Vertex AI뿐만 아니라 BigQuery와 Snapchat에서 작업하여 계산 비용을 거의 80 %로 줄일 수 있습니다。

가속된 계산의 이점은 3fold입니다: 속도, 가늠자, 비용. 이것은 Moore의 법의 논리로 손이 갑니다 - 지속적으로 계산 알고리즘을 최적화하여 성능에 대한 도약을 달성하기 위해 모든 사람들이 지속적인 쇠퇴의 계산 비용을 즐길 수 있도록。

Weeda는 libraries: RTX, cuDF, cuvs 등 함께 가져온 가속기 플랫폼을 구축했습니다。이 라이브러리는 글로벌 클라우드 서비스 및 OEM 시스템에 통합되어 글로벌 사용자에 도달합니다。

클라우드 서비스 제공 업체와의 심층적인 협업

주요 클라우드 서비스 제공 업체와의 협력

Google 클라우드:우리는 Vertex AI와 BigQuery를 가속화하고 JAX / XLA와 깊은 통합을 가속화하고 PyTorch -- PyTorch와 JAX / XLA의 색상을 보여주기 위해 세계에서 유일한 가속기. 우리는 Base10, CrowdStrike, Puma, Salesforce와 같은 고객에게 Google Cloud 생태학을 도입했습니다。

AWS:우리는 AWS와 깊은 통합과 더불어 EMR, SageMaker 및 Bedrock를 가속합니다. 올해는 특히 AWS에 OpenAI를 소개 할 것이라고 흥분했습니다. 이는 AWS 클라우드 컴퓨팅의 소비 성장을 크게 향상시키고 OpenAI가 지역 배포 및 규모를 확장하는 데 도움이됩니다。

마이크로 소프트:100 PFLOPS는 우리가 내장 된 최초의 슈퍼 컴퓨터이며, OpenAI와 함께 작업하기위한 중요한 기반을 제공하는 Azure에 배포 된 최초의 슈퍼 컴퓨터입니다. Azure Cloud Service와 AI Foundation을 가속화하여 Azure 영역 확장을 전개하고 Bing 검색의 깊이에서 작업합니다。

그것은 우리의 "Confidentic Computing"기능을 언급 할 가치가있다, 심지어 운영자는 사용자 데이터와 모델에 액세스하지 않는, 분류 계산을 지원하는 세계 최초의 GPU, 세계 전역의 클라우드 환경에서 OpenAI 및 Anthropic 모델의 안전한 배포 지원. Synopsys의 경우 EDA 및 CAD 워크플로를 모두 가속화하고 Microsoft Azure에 배포합니다。

Oracle :Oracle의 첫 번째 AI 클라이언트이며, AI 클라우드의 개념을 처음으로 Oracle에 설명 할 수 있다는 것을 자랑스럽게 생각합니다. 그 후, 그들은 급속하게 성장하고, 우리는 Cohere 불꽃 놀이와 OpenAI와 같은 많은 파트너를 소개했습니다。

핵심가치:세계 최초의 AI 오리지널 클라우드는 GPU 호스팅 및 AI 클라우드를 제공하는 것으로 만들어졌으며 우수한 고객 기반을 가지고 강력하게 성장하고 있습니다。

Palantir + 델:Palantir의 Ontology Platform 및 AI 플랫폼에 기반한 새로운 AI 플랫폼은 모든 국가에서 전체 규모의 Accelerator 챔버에 완전히 로컬화된 AI를 배포하기 위해 공동으로 만들었습니다. 모든 진공 고립。

Young Weida는 글로벌 클라우드 서비스 제공 업체와 함께이 특별한 파트너십을 맺고 있습니다。

수직 통합, 수평 개방성 : Weeda의 핵심 전략

Weeda는 첫번째 세계적인 수직으로 통합, 수평으로 열린 회사입니다。

이 모형을 위한 필요는 아주 간단합니다: 가속된 계산은 칩 문제, 아니고 체계적인 문제이고, 그것의 가득 차있는 정립은 가속한 신청이어야 합니다。CPU는 컴퓨터를 빨리 달릴 수 있습니다, 그러나 도로는 BOTTLENECK에 도달했습니다. 미래에, 그것은 응용 프로그램 또는 분야 별 가속을 통해 성능의 도약과 비용 지속 될 수 있습니다。

왜 Weidar가 다른 후에 1개의 은행을, 다른 후에 1개의 영토, 다른 후에 1개의 수직 기업 경작했습니다. 우리는 수직 통합 컴퓨팅 회사이며 다른 방법이 없습니다. 우리는 응용 프로그램을 이해해야, 영역을 이해, 깊이에 알고리즘을 이해하고 모든 시나리오에서 배포 할 수 있어야합니다 - 데이터 센터, 클라우드, 지역, 마진 및 심지어 로봇 시스템。

동시에 Ying Weidar는 수평으로 열려 있으며 모든 파트너 플랫폼에 기술을 통합하기 위해 세계가 가속화 된 배당을 즐길 수 있도록합니다。

이것은 현재 GTC 참가자 구조에서 완전히 반영됩니다. 금융 서비스 부문은 참가자의 가장 높은 비율을 가지고 있습니다 - 희망적으로 개발자, 상인이 아닙니다. 우리의 생태계는 업스트림 및 다운스트림 공급 체인을 다룹니다. 작년은 기업 50 년, 70 년 및 150 년을위한 최고의 역사였습니다. 우리는 아주 중요한 무언가의 처음에 있습니다。

CUDA-X: 기업에서 엔진 가속화

모든 수직 영역에서 Yin Weidar는 깊은 레이아웃을 가지고 있습니다

Autopilot:적용은 넓고 멀리 떨어져 있습니다

금융 서비스:Quantitative 투자는 "Transformer Time"을 선도하는 초컴퓨터 중심의 심층 학습에 인공 문자 공학에서 이동

의학 건강:그것은 자신의 "ChatGPT 시간", AI 보조 약 발견의 방향을 커버, AI 지능 지원 진단, 의료 클라이언트 서비스, 등

산업:세계 최대의 건축 파는 방법의 밑에 있습니다

엔터테인먼트 및 게임:실시간 AI 플랫폼은 번역, 라이브 방송, 게임 상호 작용 및 스마트 쇼핑 에이전트를 지원합니다

로봇:10년 이상를 위해, 3개의 중요한 컴퓨터 구조는 장소에서 있었습니다

통신:약 $ 2 조의 크기 산업에서 기지국은 노키아 및 T-Mobile과 같은 기업과의 깊이에서 작동하는 Aerial이라는 AI 인프라 플랫폼에 단일 통신 기능에서 진화합니다

이 모든 영역의 중심부는 CUDA-X 라이브러리입니다. 이는 알고리즘 회사로서 WEIDA의 매우 본질입니다. 이 은행은 회사의 핵심 자산이며, 플랫폼은 산업 전반에 걸쳐 실제 가치를 전달할 수 있습니다。

이러한 가장 중요한 것은 cUDNN입니다. 이는 인공 지능을 완전히 혁신하고 현대 AI의 빅뱅을 트리거합니다。

( CUDA-X 발표 영상 재생)

방금 본 모든 것은 시뮬레이션입니다 -- 물리적 원리, AI 프록시 물리학 모델 및 물리적 AI 로봇 모델에 따라 해결자. 모든 것이 시뮬레이션이며 수동 애니메이션이나 공동 바인딩이 없습니다. 이것은 INGWEIDA의 힘의 핵심입니다:이러한 기회는 알고리즘과 컴퓨팅 플랫폼의 유기적 이해를 통해 잠금 해제됩니다。

AI NATIVE ENTERPRISES 및 새로운 계산기 시대

Wal-Mart, Al-Leaa, Morgan Chase, Ross, Toyota 등은 오늘날의 산업 거대로서 사회를 정의하고, 많은 기업들이 들어본 적이 없습니다. AI Original으로 전화하는 것. 목록은 OpenAI, Anthropic 및 다른 수직 지역에서 일하는 많은 신흥 기업을 포함하여 극단적으로 크습니다。

지난 2 년 동안 업계는 경보 비행을 경험했습니다. 벤처 투자는 150 억 달러에 달하며, 최대의 인간 역사. 더 중요하게, 첫 번째 시간 동안, 단일 투자는 수백만 달러에서 수백만 달러에서 수백만 달러로 점프 또는 수십억 달러。

한 가지 이유가 있습니다역사의 첫 번째 시간 동안, 이러한 회사는 상당한 컴퓨팅 리소스와 많은 양의 토큰을 필요로한다. 산업은 Anthropic 및 OpenAI와 같은 기관에서 토큰에 가치를 생성, 생성하거나 추가합니다。

PC 혁명으로, 인터넷 혁명, 모바일 클라우드 혁명은 각각 EPOCH-MAKING 사업의 수를 창조, 플랫폼 변화의 이 세대는 또한 미래에 중요한 힘이 될 회사의 극단적 인 영향력 그룹을 일으킬 것입니다。

이 모든 것에 3 개의 역사적인 돌파

지난 2 년 동안 무슨 일이 있었습니까? 3 큰 것들。

번호 하나: ChatGPT, 발사 세대 AI 시대 (2022-end-2023)

인식하고 이해 할 수 없습니다, 그것은 또한 독특한 콘텐츠를 생성 할 수 있습니다. 나는 컴퓨터 그래픽으로 생성 된 AI의 통합을 보여주었다. AI를 근본적으로 변경하는 방법은 계산 - 생성에 대한 검색에서, 이는 컴퓨터 아키텍처, 배포 및 전반적인 중요성에 영향을 미치는。

둘째 : AI를 소지하고 o1에 의해 대표

AI를 자기 반사, 계획, decompose 문제로 활성화 할 수있는 능력 - 관리 가능한 단계로 직접 이해 할 수없는 문제. O1는 생성 된 AI 신뢰할 수 있으며 실제 정보에 근거 할 수 있습니다. 이러한 이유로, 토큰의 수는 컨텍스트로 입력하고 생각에 사용되는 출력은 크게 증가했으며, 토큰의 수는 크게 상승했습니다。

번호 3: 클로드 부호, 첫번째 지적인 모형

그것은 문서를 읽고, 코드를 준비, 컴파일, 테스트, 평가 및 iterative. Claude Code는 소프트웨어 프로젝트를 완전히 극복했습니다 - 영국 엔지니어의 100 %는 Claude Code, Codex 및 Cursor의 하나 이상을 사용하고 있으며 소프트웨어 엔지니어의 아무도 AI를 사용하고 있습니다。

이것은 전체 새로운 터닝 포인트입니다 -- 당신은 AI를 요구하지 않습니다, 어디, 그것은 어떻게 수행, 하지만 그것이 생성, 구현, 건물, 도구 사용, 문서 읽기, 문제 해결 및 행동으로 넣어. AI, PERCEPTION에서 발생, 이유, 정말 지금 할 수 있습니다。

지난 2 년 동안, 소원에 필요한 계산의 양은 약 10,000 배 증가했으며 사용은 약 100 배 증가했습니다. 나는 항상 수요가 지난 2 년 동안 백만 번 증가했다고 생각했습니다. - 모든 사람들이 느끼는 것, 그것은 OpenAI 느낌이 무엇인지, 그것은 Anthropic 느낌입니다. 더 많은 크레딧을 얻을 경우, 더 많은 토큰을 얻을, 당신은 더 많은 소득을 얻을, AI는 더 스마트하게 얻을. 이유의 점이 도착했습니다。

수백만 달러

작년에이 시간에, 나는 우리가 블랙 웰과 루빈의 요구와 2026, 약 $ 500 억 전에 주문의 높은 수준의 신뢰를 가지고 있다고 말합니다。

오늘, GTC 후 년, 나는 여기 서 당신을 말해: 2027년 전, 적어도 1조 달러를 보였습니다. 그리고 실제 컴퓨팅이 훨씬 더 될 것이라고 확신합니다。

2025: 영어의 해

2025년은 출고년도입니다. 우리는 훈련과 포스트 훈련 이외에, 우수성은 AI 생활 주기의 각 단계에서 유지될 수 있습니다, 능률적으로 그리고 지속적으로 기능에 투자한 인프라를 허용하고, 그 단위 비용은 더 긴 그것 지속에 의해 감소됩니다。

동시에 Anthropic과 Meta는 공식적으로 NVIDIA 플랫폼에 합류하여 글로벌 AI 컴퓨팅 요구의 1/3을 나타냅니다. 오픈 소스 모델은 프론트 레벨 근처에 있으며 어디서나 있습니다。

YOUNG WEIDA는 현재 세계 유일한 플랫폼으로 모든 AI 도메인을 운영할 수 있습니다. - 언어, 생물학, 컴퓨터 그래픽, 컴퓨터 비전, 음성, 단백질 및 화학, 로봇, 기타. - 모든 AI 모델, 가장자리 또는 구름, 아니 언어. 영국의 WEIDA 아키텍처와 함께 이러한 시나리오의 공통성은 우리에게 최소한의 비용과 가장 신뢰할 수있는 플랫폼을 만듭니다。

현재 Ingweida의 사업의 60 %는 지역 클라우드, 주권 클라우드, 기업, 산업, 로봇, 가장자리 컴퓨팅 등의 분야에서 나머지 40 %와 세계 상위 5 대 클라우드 서비스 제공 업체에서 제공됩니다나는 모른다. AI의 범위의 폭은 자체의 탄력 - 그것은 완전히 새로운 플랫폼 변경되지 않습니다。

그레이스 블랙웰과 NVLink 72 : Brave 구조 혁신

호퍼 아키텍처의 피크에서, 우리는 완전히 시스템을 재구성하기로 결정, 8에서 NVLink 72로 NVLink를 확장, 컴퓨팅 시스템을 완전히 분해. Grace Blackwell NVLink 72는 모든 파트너를 위해 쉽지 않은 거대한 기술적인 베팅이며, 우리는 우리의 진심으로 감사를 모든 것에 표현하고 싶습니다。

동시에, 우리는 NVFP4를 소개했습니다 -- 단지 일정한 FP4 그러나 긴장 핵심과 계산 단위의 새로운 유형. 우리는 NVFP4가 엄청난 성능과 에너지 효율 향상을 통해 정밀도의 손실없이 이유를 달성 할 수 있음을 입증했으며 훈련을 위해 동일하게되었습니다。

또한, 새로운 알고리즘, Dynamo 및 TensorRT-LLM 시리즈가 등장했으며 DGX Cloud라는 슈퍼컴퓨터를 구축하기 위해 코어의 최적화에 수십억 달러를 헌신했습니다。

우리의 reasoning는 현저하게 증명했습니다. Semi Analysis의 데이터 — 가장 포괄적 인 AI reasoning performance assessment to date — YVD는 와트 토큰 당 치수와 토큰 비용 당 앞서 보여줍니다. 원래 Morse 법은 H200 1.5 배 더 높은 성능을 제공 할 수 있었지만, 우리는 35 배를했다. 반 분석의 Dylan Patel은 말했다 :"황인훈은 보수적, 실제로 50 배입니다. 그는 맞습니다。

그리고 우리는 그를 인용 : "Jensen Sandbagged

잉글랜드의 모든 토큰의 비용은 세계 최저이며 현재 아무도 액세스 할 수 없습니다. 이것은 극단적으로 신중한 디자인 (Extreme Co-design) 때문에 입니다。

불꽃 놀이의 경우, 평균 토큰 속도는 전체 소프트웨어 및 알고리즘이 Weaverda에서 업데이트되기 전에 초당 약 700이었다; 업데이트는 초당 5,000에 닫혔다, 약 7 배 증가. 그리고 그것은 극단적인 synergistic 디자인의 힘입니다。

AI 플랜트: Data Centre에서 Token Plant까지

파일 저장소에 사용되는 데이터 센터, 이제 토큰을 생산하는 공장입니다. 각 클라우드 서비스 제공 업체, 각 AI 회사는 미래에 핵심 성능 지표로서 "tokeen Plant Efficiency"를 사용합니다。

이것은 내 핵심 인자입니다:

• 수직 축선:처리량 - 고정 전력에서 초당 토큰 수

• 교차 축선:상호 작용 속도 (토큰 속도) - 더 빠른 각 reasoning 응답, 더 큰 유효한 모형, 더 긴 상황, 더 똑똑한 AI

토큰은 새로운 대량 상품이며, 일단 성숙되면 레이어에 가격이 책정됩니다

:: 무료 층(고, 저속)

:: 중간 수준(~$3 백만)

• 고급 수준(~$6 백만)

:: 고속 층(~$45 백만 토큰)

Hypervelocity 층(~$150 백만 토큰)

희망에 비해, 그레이스 블랙웰은 가장 높은 가치에서 35 배 증가하고 전체적인 새로운 레이어를 도입했습니다. 단순화 된 모델에서 25 %의 전력은 4 가지 수준으로 할당되며 Grace Blackwell은 5 배 더 많은 수익을 창출합니다。

Vera Rubin: 차세대 AI 컴퓨팅 시스템

(Play Vera Rubin 소개 비디오)

Vera Rubin은 지능형 워크로드를 위해 특별히 설계된 완벽한 엔드 투 엔드 최적화 시스템입니다

• 큰 언어 모형의 Computation 핵심:NVLink 72 GPU 클러스터, 사전 작성 및 KV 캐시 처리

• 새로운, Vera CPU:LPDDR5 메모리를 사용하여 매우 높은 단일 웨이 성능을 위해 특별히 설계되었으며 우수한 에너지 효율과 함께 LPDDR5 CPU를 사용하여 세계에서 유일한 데이터 센터입니다

• 저장 체계:Bluefield 4 + CX 9, AI 시대의 완전히 새로운 스토리지 플랫폼, 글로벌 스토리지 산업 100 % CPO 스펙트럼 X 스위치에 추가 : 광학 이더넷 스위치의 글로벌 다운로드, 완전히 생산

ღ♥ღ전체 새로운 랙 시스템, 지원 144 GPU 단일 NVLink 도메인, 프론트 엔드 컴퓨팅, 거대 컴퓨터를 형성하기 위해 백 엔드 NVLink 교환

• 루빈 울트라:차세대 하이퍼노드, 더 큰 스케일 NVLink 인터커넥션을 지원하는 Kyber rack과 일치하도록 수직으로 설계

Vera Rubin은 2 일에서 임명의 2 시간까지 감소된 센트 액체 냉각, 45°C 온수 냉각을 소개하고, 자료 센터에 있는 두드러지게 감소된 냉각 압력을 감소했습니다. 이 시간 Satya (Nadra)는 첫 번째 Vera Rubin 격납고가 Microsoft Azure와 함께 라인에 있다는 것을 확인 한 편지를 보냈습니다. 나는 크게 이것을 격려합니다。

Groq Integration: 성능의 극한 확장

우리는 Groq 팀을 인수하고 기술 승인을 얻었습니다. Groq는 정적 컴파일러 및 컴파일러를 사용하여 배포되는 Definitive 데이터 스트림 프로세서 (Deterministic DataFlow Processor)입니다. 이는 매우 낮은 지연과 매우 높은 토큰 생산 속도와 더불어 단일 부하의 최적화에 전념하는 SRAM의 많은 수의 SRAM과 함께 배포됩니다。

그러나 Groq (SRAM 500MB 영화)의 제한된 메모리 용량은 큰 모델과 KV 캐시의 매개 변수를 독립적으로 수행하기가 어렵습니다. 대규모 응용 프로그램을 제한합니다。

솔루션은 정확히 Dynamo, 이유가 있는 스케줄링 소프트웨어의 소스입니다. Dynamo에 의해, 우리는 이유의 선을 모입니다

• Prefill과 주의를 해독하십시오:Vera Rubin의 Done (많은 컴퓨팅 및 KV 캐시 저장)

• Feed-Forward 네트워크 암호:i. e. 토큰 생성 구성 요소, Groq에 완료 (높은 대역폭 및 낮은 지연 필요)

이더넷이 두 개를 밀접하게 연결함으로써, 지연은 특수 모델에 의해 약 절반으로 감소합니다. Dynamo의 통합 배포에서, "AI 플랜트 운영 체제", 전체 성능이 35 배 증가했으며 NVLink 72가 이전에 도달 할 수 없다는 이유의 완전히 새로운 수준을 만들었습니다。

Groq 및 Vera Rubin 제안 :

작업 부하가 높은 처리량에 의해 지배되는 경우에 높은 가치 토큰을 위한 100% Vera Rubin를 사용하십시오

Groq는 약 25 % Groq + 75 % Vera Rubin Groq LP30의 권장 속도와 함께 3 성급 기준에서 일하는 것이 현재 생산 및 Q3가 배송을 시작할 것으로 예상됩니다. 그의 가득 차있는 협력을 위한 Samsung 감사。

소원에 대한 역사적인 도약

이전 기술 발전의 양화 : 2 년 동안 1 Giva AI 플랜트의 토큰 생산률은 22 백만 개의 토큰 / s에서 700 백만 개의 토큰 / s로 증가합니다. 그리고 그것은 극단적인 synergistic 디자인의 힘입니다。

기술 도로 지도

• 블랙웰:지금 생산에서, Oberon 표준 선반 체계, NVLink 72에 구리 케이블 연장, NVLink 576에 선택적인 광학적인 연장

• Vera Rubin (현재):Kyber 걸이, NVLink 144 (Cronic 케이블); Oberon 걸이, NVLink 72 + 광학, NVLink 576에 확장; 스펙트럼 6, 글로벌 최초의 CPO 교환

• Vera 루빈 울트라 (forthcoming) :Rubin Ultra GPU의 새로운 세대, LP35 칩 (최초 통합 NVFP4), 더 많은 합병

• Feynman (다음 세대):새로운 GPU, LP40 칩 (영국과 Groq 팀에 의해 개발, 통합 NVFP4); 새로운 CPU-Rosa (Rosalyn); Bluefield 5; CX 10; 및 구리 케이블 및 CPO 확장을 지원하는 Kyber 선반

도로 지도는 명확합니다:구리 케이블 연장의 3개의 노선, 광학적인 연장 (Scale-Up) 및 광학적인 연장 (Scale-Out)는 평행으로 전진하고, 우리는 구리 케이블, 광섬유 및 CPO의 기간에 있는 모든 협동자에 의하여 생산의 지속적인 확장을 필요로 합니다。

NVIDIA DSX : 식물에서 디지털 트윈 플랫폼

AI는 점점 복잡해지고 있지만, 데이터 센터에 도달 할 때까지 디자인 단계의 각 다른 사람들과 결코 작동하지 않는 다양한 기술 공급 업체는 명확하게 충분하지 않습니다。

그 끝에, 우리는 Omniverse를 창조하고, 그것에 기초를 두어, NVIDIA DSX 플랫폼, 가상 세계에서 Giva-class AI 식물을 디자인하고 운영하는 모든 파트너를 위한 플랫폼。DSX 제공:

:: 온보드 기계장치, 열, 전기 및 네트워크 가장 체계

:: synergistic 에너지 절약 운동을 달성하기 위하여 격자에 연결

:: 데이터 센터의 Max-Q를 기반으로 한 동적 에너지 소비 및 냉각 최적화

시스템의 에너지 효율을 두 배로 늘릴 수 있다고 추정됩니다. 디지털 지구로 시작된 Omniverse는 모든 크기의 디지털 트윈을 수행하며 글로벌 파트너와 협력하여 최대의 컴퓨터를 구축합니다。

또한, 영국은 공간으로 매칭됩니다. Thor 칩은 방사선에 대한 인증을 받았으며 위성에서 작동합니다. Vera Rubin Space-1를 개발하는 파트너와 함께 작업하고 있습니다. 열 열은 우리가 공격하는 최고 엔지니어를 모는 공간에 있는 핵심 도전입니다。

OpenClaw: 지능형 신체의 연령의 운영 체제

Peter Steinberger는 OpenClaw라는 소프트웨어를 개발했습니다. 이것은 인간의 역사에서 가장 인기있는 오픈 소스 프로젝트이며, 몇 주 만에 30 년 동안 Linux 's 업적을 능가합니다。

OpenClaw는 필수 정보 시스템입니다:

:: 리소스 관리, 도구, 문서 시스템 및 대형 언어 모델에 액세스

:: 스케줄링 및 타이밍 작업 구현

:: Gradually는 문제를 분해하고 sub-intelligence에 호출합니다

• 입력 또는 출력 (voice, 비디오, 텍스트, 메일 등)의 모든 유형에 대한 지원

그것은 정말 운영 체제 - 스마트 바디 컴퓨터를위한 운영 체제. Windows는 개인용 컴퓨터를 가능하게 합니다, OpenClaw는 개인 정보를 가능하게 합니다。

각 기업은 자체 OpenClaw 전략을 필요로하므로 Linux, HTML, Kubernetes가 필요합니다。

기업 IT 종합 RESHAPING

IT:데이터 및 문서는 시스템을 입력하고 도구 및 작업 스트림을 통과하고 결국 인간의 사용에 대한 도구가됩니다. 소프트웨어 회사는 도구, 시스템 통합자 (GSI) 및 컨설팅 회사들이 그들을 사용하는 데 도움이。

IT:각 SaaS 회사는 Aaas로 변환됩니다 (서비스로 Agentic, Smart as a Service) - 단지 도구 제공, 하지만 특정 영역 전문 AI 스마트 바디 제공。

그러나 여기에 중요한 도전:Intra-enterprise 지능은 민감한 데이터, 집행 코드 및 외부 통신에 액세스합니다. 이것은 사업 환경에 엄격히 통제되어야 합니다。

그 끝에, 우리는 Peter와 협력하여 시작된 엔터프라이즈급 버전으로 안전을 통합했습니다

• NeMo 클로 (참고 디자인):OpenClaw 기반 엔터프라이즈급 참조 프레임은 스마트 AI 툴킷의 통합 NVIDIA 세트를 위한

• 열린 방패 (보안 수준):OpenClaw에 통합되어 전략적 엔진, 네트워크 울타리, 엔터프라이즈 데이터 보안을 보장하는 개인 정보 보호 경로

• 네모 클라우드:다운로드 및 모든 SaaS 기업의 전략 엔진과 인터페이스

이 엔터프라이즈 IT의 르네상스이며, 2조 달러 규모의 기업으로, 전문 AI 스마트 바디 서비스를 제공하는 도구로 이동。

나는 완전히 주의할 수 있습니다:앞으로, 회사에 있는 각 엔지니어는 연례 토큰 예산이 있을 것입니다. 그들은 연간 수천 달러의 수백을 지불 할 수 있으며, 나는 여분의 토큰 할당량을 절반으로 지불 할 수 있으므로 산출은 10 배 더 큰 것입니다. "많은 토큰 할당량은 엔트리에 부착됩니다"는 실리콘 밸리의 새로운 채용의 주제가되었습니다。

각 기업은 토큰 ( 엔지니어) 및 토큰 (고객을위한)의 생산자가 될 것입니다. OpenClaw의 중요성은 예상할 수 없습니다. HTML, Linux로 중요합니다。

NVIDIA 오픈 모델 이니셔티브

자체 정의 인텔리전스 (Custom Claw)의 관점에서 우리는 NVIDIA 자체 학습의 프론트 라인 모델을 제공했습니다

모형 분야 Nemotron 큰 언어 모형 Cosmos 세계 기초 모형

우리는 모든 분야에 있는 기술의 최전선에 있습니다, 그리고 우리는 계속 반복에 투입됩니다 - Nemotron 4, Cosmos 1, Cosmos 2, Groq, 두번째 세대。

Nemotron 3는 OpenClaw의 최고 3 세계 최고의 모델 중 순위이며 최전선에 있습니다. Nemotron 3 Ultra는 가장 강력한 기본 모델이 될 것입니다。

오늘, Nemotron Alliance의 설립을 발표하여 AI의 기본 모델의 개발에서 수십억 달러를 투자했습니다. 회원은 BlackForest Labs, Cursor, LangChain, Mistral, Perplexity, Reflection, Sarvam (India), Thinking Machines (Mira Murati 's Laboratory)를 포함합니다。

또 다른 한 기업 소프트웨어 회사는 Nemo Claw 참조 디자인과 NVIDIA 스마트 바디 AI 툴킷을 자체 제품에 통합 한 후。

물리학 AI 및 로봇

디지털 인텔리전스는 디지털 세상에서 이동 -- 쓰기 코드, 분석 데이터; 그리고 물리학 AI는 내장 된 지능의 몸, 로봇。

이 GTC는 전 세계 거의 모든 로봇 및 개발 회사를 다루는 110 로봇의 총을 가지고 있습니다. WEIDA는 3개의 컴퓨터 (훈련 컴퓨터, 가장 컴퓨터, 내장 컴퓨터) 및 완전한 소프트웨어 더미 및 AI 모형을 제공합니다。

autopilot과 관련하여 autopilot "ChatGPT Time"이 도착했습니다. 오늘, 우리는 영국 RoboTaxi Ready 플랫폼에 가입 할 것이라고 발표 : Biadi, 현대, 일본어, Gili, 총 연간 생산 18 만. 이, 이전 Mercedes, 도요타 및 일반과 함께, 더 형성을 강화했습니다. 동시에, 우리는 Uber와 주요 협업을 발표하고 여러 도시에서 RoboTaxi Ready 차량에 액세스。

산업 로봇의 관점에서 ABB, Universal Romanics 및 KUKA와 같은 많은 로봇, 로봇을 구동하는 시뮬레이션 시스템과 물리적 AI 모델을 결합하여 글로벌 생산 라인에 착륙 할 수 있습니다。

통신에서, 모충 및 T-Mobile는 또한 목록으로 만들어집니다. 미래에 무선 기지국은 통신 노드가 아니라 NVIDIA Aerial AI RAN - 실시간 센서 흐름을 가능하게하는 스마트 가장자리 계산 플랫폼, 빔을 모양으로 조정하고 에너지 효율을 달성 할 수 없습니다。

특수 링크: Olaf

(Displaying Disney Olaf 로봇 데모 비디오)

뉴턴은 일하고 있습니다

나는 당신을보고 행복 해요。

예, 나는 당신에게 컴퓨터를 준했기 때문에 -- Jetson

그게 뭐니

그것은 당신의 위에 있습니다。

놀라운。

당신은 Omniverse에서 걸어 배운다。

나는 걷다. 아름다운 하늘을 바라보는 재인더를 타고보다 더 낫습니다。

웅인훈: 이것은 물리학 시뮬레이션 -- NVIDIA Warp에 본사를 둔 Newton Solr의 때문에 정확하게, 우리는 디즈니와 DeepMind와 공동으로 실제 물리적 세계에 적응시키기 위해 개발。

그것은 내가 얘기하는 것 이다。

스마트한 곳 눈사람은 눈부신 것이 아닙니다。

상상할 수 있습니까? Disneyland의 미래 - -이 모든 로봇 캐릭터는 공원에서 자유롭게. 그러나 정직하게, 나는 당신이 더 키가 큰 생각. 그런 짧은 눈사람을 본 적이 없습니다。

Olaf: (허가 없이)

Wong In-hoon, 오늘 내 연설을 완료하는 데 도움이 될까요

브라보

keynote 주소의 요약

Hoang In-hoon : 오늘 다음 코어 테마를 공유합니다

1. 이유의 도착 :이유가 AI의 작업 부하의 핵심이되었습니다. 토큰은 상품의 새로운 대량입니다. reasoning 함수는 직접 소득을 결정합니다

2. AI 공장 나이:데이터 센터는 파일 저장 시설에서 토큰 생산 공장으로 발전했으며, 각 회사는 미래에 "AI 플랜트 효율"의 경쟁력을 측정합니다

OpenClaw 스마트 혁명:OpenClaw는 지능형 컴퓨팅의 시대를 열고, IT는 지능의 시대에 도구의 시대에서 이동하고, 각 기업이 OpenClaw 전략을 개발해야

4. 물리적 AI 및 로봇 :SMARTY는 확장되고, AUTOPILOTS, 산업 로봇, 인간 로봇은 함께 물리학을 위한 다음 큰 기회를 구성합니다

감사합니다, GTC. 재미있어

원본 링크

QQlink

无加密后门,无妥协。基于区块链技术的去中心化社交和金融平台,让隐私与自由回归用户手中。

© 2024 QQlink 研发团队. 保留所有权利.