Litecoin

Pidato penuh GTC: Permintaan pasar akan melebihi triliunan dolar pada tahun 2027; semua orang harus mengembangkan strategi OpenClaw

2026/03/17 14:36
🌐ms

Logika bisnis dasar yang mendorong pertumbuhan masa depan akan menjadi -Token Ekonomi pabrik"。

Pidato penuh GTC: Permintaan pasar akan melebihi triliunan dolar pada tahun 2027; semua orang harus mengembangkan strategi OpenClaw
JUDUL ASLI: "HWANG IN-HOON GTC PIDATO PENUH: USIA PENALARAN, 2027 SETIDAKNYA TRILIUN DOLAR, LOBSTER ADALAH SISTEM OPERASI BARU"
Wall Street

PADA 16 MARET 2026, KONGRES SECARA RESMI DIBUKA DENGAN ALAMAT KEYNOTE OLEH PENDIRI DAN CEO HOANG IN-HOON。

PADA KONFERENSI INI, YANG DIANGGAP SEBAGAI "AI INDUSTRI ZIARAH TAHUNAN", KITA TELAH MAMPU MENEMUKAN CARA UNTUK MEMBUAT PERBEDAANKHAYANGAN WONG IN-HOON MENGGAMBARKAN PERJUANGAN YOUNG WEI DA DARI SEBUAH PERUSAHAAN CHIP KE SEBUAH INFRASTRUKTUR AI DAN PERUSAHAAN PABRIK. ♪ BERUBAH ♪Aku tidak tahu. Menghadapi kepedulian terbesar pasar untuk keberlanjutan kinerja dan ruang untuk pertumbuhanSejarah Huang In-hoon Logika bisnis yang mendasari yang mendorong pertumbuhan masa depan - Ekonomi Pabrik Token。

Petunjuk Prestasi dari Kinerja sangat optimis, "setidaknya $1 triliun pada tahun 2027."

SELAMA DUA TAHUN TERAKHIR, TUNTUTAN PERHITUNGAN AI GLOBAL TELAH MELEDAK SECARA EKSPONENSIAL. SAAT MODEL-MODEL BESAR BERKEMBANG DARI "SENSITISASI" KE "GENERASI" KE "DEBAT" DAN "AKSI" (TASK) KONSUMSI DAYA KOMPUTASI MENINGKAT DRASTIS. HWANG IN-HOON MEMBERIKAN HARAPAN YANG SANGAT KUAT UNTUK PESANAN BUNGA PASAR TINGGI DAN KOLEKSI LANGIT-LANGIT。

Di-hoon Huang, dalam pidatonya, menyatakan:

Tahun lalu pada saat ini, saya berkata, kami melihat $ 500 miliar dalam permintaan tinggi, meliputi Blackwell dan Rubin sampai 2026。sekarang, di sini, aku melihat setidaknya $1 triliun permintaan pada tahun 2027。

Dolar trilyunan Wong In-hoon diharapkan dapat mendorong harga saham Britania ke atas sebesar 4,3 persen。

Selain itu, ia menambahkan nomor ini:

Apa itu masuk akal? Itu yang kumaksud. Bahkan, kita bahkan akan kehabisan pasokan。Saya yakin bahwa kebutuhan komputasi yang sebenarnya akan jauh lebih tinggi。

WOADON WONG IN-HOON MENGEMUKAKAN BAHWA SISTEM HARI INI TERBUKTI SEBAGAI \"PRASARANA RENDAH-BIAYA\" DUNIA. KEUMUMAN INI MEMUNGKINKAN KLIEN UNTUK SEPENUHNYA MEMANFAATKAN DAN MEMPERTAHANKAN SIKLUS UMUR PANJANG DARI $1 TRILIUN YANG DIINVESTASIKAN DI HAMPIR SEMUA BIDANG MODEL AI。

Saat ini, 60 persen bisnis di Ingweida berasal dari lima penyedia layanan awan supermasif teratas, sementara 40 persen lainnya tersebar luas di bidang awan kedaulatan, perusahaan, industri, robotika dan komputasi tepi。

Ekonomi Pabrik Token. Semua kinerja menentukan garis hidup bisnis

UNTUK MENJELASKAN LEGITIMASI 1 TRILYUN-MILIAR TUNTUTAN INI, HUANG IN-HOON MENUNJUKKAN CEO PERUSAHAAN GLOBAL SATU SET BARU PEMIKIRAN BISNIS。Dia mencatat bahwa pusat data di masa depan tidak lagi menjadi repositori dokumen, tetapi sebuah "workshop" yang menghasilkan Token (satuan dasar yang diciptakan oleh AI)。

Hei, Wong In-hoon stress:

SETIAP PUSAT DATA, SETIAP TANAMAN DIBATASI OLEH LISTRIK. TANAMAN 1GW TIDAK AKAN PERNAH MENJADI 2GW, HUKUM FISIKA DAN ATOM。Dengan kekuatan tetap, yang memiliki volume tertinggi per watt Token, yang memiliki biaya produksi terendah。

HUANG IN-HOON MEMBAGI LAYANAN AI DI MASA DEPAN MENJADI EMPAT TINGKAT BISNIS:

• Lantai bebasTinggi, rendah, rendah)

Tingkat menengah(~$3 per juta)

• Tingkat lanjut(~$6 per juta)

Lapisan berkecepatan tinggi(~ 45 per juta token)

• Lapisan Hipervelocity(~ 850 per juta token)

Dia menunjukkan bahwa AI akan lebih pintar dengan jumlah model dan konteks yang meningkat, tetapi tingkat produksi Token akan lebih rendah. Kata Huang In-hoon:

Di pabrik Token ini, throughput Anda dan kecepatan generasi Token akan diterjemahkan langsung ke pendapatan tepat Anda tahun depan。

Mazanne Wong In-hoon menekankan bahwa arsitektur Young Wei Da akan memungkinkan klien untuk mencapai tingkat throughput yang sangat tinggi pada tingkat bebas, sementara peningkatan kinerja oleh mengejutkan 35 kali pada tingkat nilai tertinggi penalaran。

Vera Rubin mencapai 350 kali lebih cepat dalam dua tahun, Groq mengisi penalaran hyperdrive

Di bawah batasan batas fisik ini, Yvesta menggambarkan sistem komputasi AI paling kompleks yang pernah ada, Vera Rubin. Kata Huang In-hoon:

Dulu aku berbicara tentang Hope, dan aku akan mengangkat chip, dan itu lucu. Tapi dengan Vera Rubin, kau memikirkan sistemnya. Dalam sistem pendingin cairan 100 persen ini, yang benar-benar menghilangkan kabel tradisional, dibutuhkan dua hari untuk memasang hangar dan sekarang hanya dua jam。

Woishima Hoang In-hoon mencatat bahwa Vera Rubin menciptakan lompatan data yang menakjubkan di 1 GW yang sama pusat data melalui perangkat keras yang sangat ujung-ke-akhir co-design:

Hanya dalam dua tahun, kami meningkatkan jumlah produksi Token dari 22 juta menjadi 700 juta, mencapai 350 kali lipat. Hukum Moore hanya bisa membawa 1,5 kali lebih tinggi sementara itu。

Dalam rangka untuk mengatasi width botneck di bawah kondisi penalaran kecepatan- hiper (misalnya 1000 Tokens/s), Inverda memberikan solusi akhir untuk konsolidasi perusahaan yang diperoleh Groq: penalaran pemisahan asimetris。

Hey Wong In-hoon menjelaskan:

Karakteristik dari kedua prosesor berbeda. Chip Groq memiliki 500MB SRAM dan chip Rubin memiliki memori 288GB。

Khayalan Wong In-hoon mencatat bahwa melalui sistem perangkat lunak Dynamo, Young Weida akan membutuhkan komputasi massal dan terlihat prefilling fase untuk Vera Rubin, dan fase dekoderasi yang sangat sensitif untuk penundaan untuk Groq。Huang In-hoon juga menawarkan saran tentang konfigurasi perusahaan:

Jika pekerjaan Anda terutama high-swallow, 100% menggunakan Vera Rubin; jika Anda memiliki banyak tingkat pemrograman tinggi kebutuhan generasi Token, mengambil 25% dari ukuran pusat data ke Groq。

Hal itu terungkap bahwa chip Groq LP30, yang telah diproduksi oleh agen tiga bintang, telah diproduksi dalam volume dan diharapkan akan dikirim pada kuartal ketiga, sementara hanger Vera Rubin pertama beroperasi pada awan Microsoft Azure。

Selain itu, sehubungan dengan teknologi interkoneksi ringan, Huang In-hoon menunjukkan produksi primer global pertukaran optik co-container, Spectrum X, dan menenangkan pertarungan pasar atas Øcopper retret" rute:

KITA PERLU LEBIH BANYAK KABEL TEMBAGA, LEBIH BANYAK CHIP RINGAN, LEBIH BANYAK CPOAku tidak tahu。

Agen, mengakhiri tradisi, SaaS, "Annual pay plus Token" adalah tanda Silicon Valley. Padan

Selain hambatan perangkat keras, Hwang In-hoon meninggalkan banyak ruang untuk perangkat lunak AI dan revolusi ekologi, khususnya wabah Agen。

Dia menggambarkan proyek open-source OpenClaw sebagai "proyek open-source paling populer dalam sejarah manusia", mengklaim bahwa hanya butuh beberapa minggu untuk melampaui prestasi Linux selama 30 tahun terakhir. Di-hoon Hwang mengatakan bahwa OpenClaw pada dasarnya adalah sistem yang "mengoperasikan" dari komputer Agen。

Khayalan Huang In-hoon menegaskan:

Setiap perusahaan SaaS (software, service) akan menjadi Aaas, Smart, Service. Tidak diragukan lagi, untuk mengamankan pendaratan yang aman dari tubuh cerdas ini, yang memiliki akses ke data sensitif dan kode penegakan, desain referensi NeMo Claw di tingkat perusahaan telah diperkenalkan, menambahkan mesin strategis dan router privasi。

Bagi pekerja biasa, perubahan juga dekat. Kata Huang In-hoon menggambarkan bentuk baru tempat kerja masa depan:

Pada masa depan, setiap insinyur di perusahaan kami membutuhkan anggaran tahunan Token。Gaji dasar mereka bisa ratusan ribu dolar per tahun, dan atas dasar itu, saya akan memberi mereka sekitar setengah skala Token, memungkinkan mereka untuk mencapai 10x keuntungan efisiensi。Ini adalah rekrutmen baru Silicon Valley: berapa banyak tawaran Anda membawa, Token

Pada akhir pidato, Huang In-hoon juga "dihapus" generasi berikutnya struktur komputasi, Feynman, yang untuk pertama kalinya akan memperluas tingkat yang sama dengan garis tembaga dan CCPO. Apa yang lebih mencolok lagi adalah bahwa komputer pusat data Vera Rubin Space-1, yang dikerahkan di ruang angkasa, sedang dikembangkan oleh Ingweida, yang benar-benar membuka imajinasi Ali ' s algoritma memperpanjang di luar Bumi。

TEKS LENGKAP DARI PIDATO GTC 2026, DITERJEMAHKAN SEBAGAI BERIKUT (BANTUAN ALAT AI):

Moderator:Selamat datang di podium, Hoang In-hoon, pendiri dan Chief Executive Officer In Weida。

Huang In-hoon, Pendiri dan Kepala Eksekutif:SELAMAT DATANG DI GTC. SAYA INGIN MENGINGATKAN ANDA BAHWA INI ADALAH KONFERENSI TEKNIS. SENANG BERTEMU BANYAK ORANG DI PAGI HARI DAN KALIAN SEMUA DI SINI。

DI GTC, KITA AKAN FOKUS PADA TIGA TEMA UTAMA: TEKNOLOGI, PLATFORM DAN EKOSISTEM。

SEKARANG MEMILIKI TIGA PLATFORM UTAMA: PLATFORM CUDA-X, PLATFORM SISTEM, DAN PLATFORM PABRIK AI KAMI BARU-BARU INI DILUNCURKAN。

Sebelum kita mulai, saya ingin berterima kasih kepada tuan rumah pra-panas kami — Sarah Guo dari Convition, Alfred Lin dari Redwood Capital (investor usaha pertama di Inggris), dan Gavin Baker, investor institusional pertama di Inverda. Mereka bertiga memiliki pemahaman yang mendalam tentang teknologi dan memiliki pengaruh besar di seluruh ekosistem teknologi. Tentu saja, saya juga ingin mengucapkan terima kasih kepada semua tamu terhormat yang saya undang secara pribadi hari ini. Berkat tim bintang ini。

Saya juga ingin mengucapkan terima kasih kepada semua perusahaan yang ada di sini hari ini. Kami memiliki teknologi, platform dan ekosistem kaya. Perusahaan yang ada di sini hari ini mewakili hampir semua peserta dalam industri $10 triliun, dan 450 perusahaan telah mensponsori acara ini, dan kami sangat berterima kasih。

Konferensi ini akan memiliki 1.000 forum teknis, 2.000 pembicara dan akan mencakup setiap tingkat arsitektur lima toko kue yang cerdas — dari infrastruktur seperti tanah, listrik dan mesin ke chip, platform, model dan aplikasi yang akhirnya mendorong seluruh industri。

CUDA: DUA PULUH TAHUN AKUMULASI TEKNOLOGI

SEMUANYA DIMULAI DI SINI. TAHUN INI ADALAH ULANG TAHUN KEDUA PULUH CUDA。

Selama dua dekade, kami telah mengerjakan pengembangan arsitektur ini。ZODIAK CUDA ADALAH PENEMUAN REVOLUSIONER - SIMT ( TUNGGAL COMMAND MULTI-WIRE) TEKNOLOGI YANG MEMUNGKINKAN PENGEMBANG UNTUK MEMPERSIAPKAN PROGRAM MEREKA DENGAN KODE STANDAR DAN MEMPERLUASNYA KE APLIKASI MULTI-WIRE, YAITU PEMROGRAMAN JAUH LEBIH SULIT DARIPADA ARSITEKTUR SIMD SEBELUMNYA。Kami juga baru-baru ini menambahkan fungsi Tiles, yang membantu pengembang untuk lebih baik memprogram inti (Tensor Core), serta berbagai algoritme matematika yang bergantung pada kecerdasan buatan saat ini。SAAT INI, CUDA MEMILIKI RIBUAN ALAT, KOMPILATOR, KERANGKA KERJA DAN PERPUSTAKAAN, RATUSAN RIBU PROYEK TERBUKA DI KOMUNITAS SUMBER TERBUKA, DAN TELAH SANGAT TERINTEGRASI KE DALAM SETIAP EKOSISTEM TEKNOLOGI。

BAGAN INI MENGUNGKAPKAN 100% DARI LOGIKA STRATEGIS INVERDA, DAN SAYA TELAH BERBICARA TENTANG SLIDE INI SEJAK AWAL. SALAH SATU UNSUR YANG PALING SULIT DAN SENTRAL UNTUK DICAPAI ADALAH \"BEBAN\" DI BAGIAN BAWAH BAGAN. SELAMA DUA DEKADE TERAKHIR, KAMI TELAH MENGUMPULKAN RATUSAN JUTA POTONGAN CUDA-BEROPERASI GPU DAN SISTEM KOMPUTASI DI SELURUH DUNIA。

GPU KAMI MELIPUTI SEMUA PLATFORM AWAN YANG MELAYANI HAMPIR SEMUA PRODUSEN KOMPUTER DAN INDUSTRI. KAPASITAS CUDA YANG SANGAT BESAR ADALAH PENYEBAB YANG MENDASARI KECEPATAN MEMPERCEPAT KAPAL INI. BEBAN ITU MENARIK MINAT PARA PENGEMBANG, YANG MENCIPTAKAN ALGORITMA BARU DAN MEMBUAT TEROBOSAN, MEMECAH PASAR BARU, MENCIPTAKAN EKOLOGI BARU DAN MENARIK LEBIH BANYAK FIRMA UNTUK MEMPERLUAS BEBAN — RODA YANG MEMPERCEPAT DENGAN MANTAP。

Volume unduhan dari Wei Daqu meningkat pada tingkat yang mengkhawatirkan dan besar dan meningkat. Roda ini telah memungkinkan kami platform perhitungan untuk mempertahankan aplikasi besar dan untuk mengembangkan terobosan baru。

Yang lebih penting lagi, ini memberikan infrastruktur ini kehidupan yang sangat panjang berguna。Alasan untuk hal ini jelas: NVIDIA CUDA memiliki berbagai macam aplikasi operasional yang sangat luas meliputi setiap fase siklus hidup AI, berbagai platform pengolahan data, dan berbagai pemecah ilmiah. Oleh karena itu, nilai nyata GPU yang pernah dipasang sangat tinggi. Dan itulah mengapa arsitektur Ampere yang kami terbitkan enam tahun lalu, GPU, akan naik。

Penyebab dasar dari semua ini adalah:Kapasitasnya besar, rodanya kuat dan pengembangnya luas。SAAT FAKTOR - FAKTOR INI BEKERJA SAMA, BERSAMA - SAMA DENGAN PEMBARUAN TERUS MENERUS PERANGKAT LUNAK KITA, BIAYA AKAN TERUS MENURUN. KOMPUTASI AKSELERATOR, SEMENTARA SECARA SIGNIFIKAN MENINGKATKAN KINERJA APLIKASI, AKAN MEMUNGKINKAN PENGGUNA UNTUK TIDAK HANYA MELOMPAT DALAM KINERJA PADA TAHAP AWAL, TETAPI JUGA TERUS MENDAPATKAN KEUNTUNGAN DARI PENGURANGAN BIAYA KOMPUTASI SAAT KITA MEMPERTAHANKAN PERANGKAT LUNAK ITERATIF DARI WAKTU KE WAKTU. KAMI BERSEDIA MEMBERIKAN DUKUNGAN JANGKA PANJANG UNTUK SETIAP GPU DI DUNIA, KARENA MEREKA SEMPURNA KOMPATIBEL。

Kami bersedia melakukannya karena kapasitasnya begitu besar — jutaan pengguna dapat memperoleh manfaat dari optimisasi baru setiap kali diterbitkan。KOMBINASI DINAMIS INI TELAH MEMUNGKINKAN ARSITEKTUR WIDA INGGRIS UNTUK MENJAGA BIAYA KE BAWAH SAMBIL MEMPERLUAS CAKUPANNYA DAN MEMPERCEPAT PERTUMBUHAN SENDIRI, AKHIRNYA MERANGSANG PERTUMBUHAN BARU. CUDA ADALAH INTI DARI SEMUA INI。

Dari GeForce ke CUDA: 25 tahun evolusi

DAN PERJALANAN KAMI DENGAN CUDA SEBENARNYA DIMULAI 25 TAHUN YANG LALU。

Aku percaya ada banyak orang di sini yang dibesarkan bersama GeForce. \"Leando GeForce\" adalah proyek promosi pasar tersukses di Selandia Baru. Kami sudah membesarkan calon klien sejak kau tak mampu membelinya. - Orang tuamu, yang menggantikanmu, menjadi pengguna pertama Yvette, membeli produk kami dari tahun ke tahun, sampai suatu hari kau tumbuh menjadi ilmuwan komputer yang baik, pelanggan sejati dan pengembang。

Ini adalah fondasi yang GeForce diletakkan 25 tahun yang lalu. 25 tahun lalu, kami menemukan monitor warna yang bisa diprogram. Ini adalah penemuan yang jelas tapi jauh jangkauan untuk akselerator yang dapat diprogram, dan akselerator pertama yang dapat diprogram di dunia, penwarna piksel. Lima tahun kemudian, kami menciptakan CUDA — salah satu investasi terpenting dalam sejarah kami. Perusahaan ini memiliki sumber keuangan terbatas pada saat itu, tapi kami menginvestasikan sebagian besar keuntungan kami dalam memperpanjang CUDA dari GeForce ke setiap komputer. Kita begitu kuat karena kita yakin akan potensinya. Meskipun kesulitan awal, perusahaan telah berpegang pada keyakinan ini selama 13 generasi, 20 tahun, dan sekarang CUDA ada di mana-mana。

Ini adalah warna piksel yang mendorong revolusi GeForce. Dan sekitar delapan tahun yang lalu, kami meluncurkan RTX -- banyak sekali arsitektur untuk grafik komputer modern. Dan itulah mengapa banyak sarjana, seperti Alex Krizhevsky, Ilya Sutskever, Geoffrey Hinton, Andrew Ng, menemukan bahwa GPU bisa menjadi alat yang kuat untuk mempercepat pembelajaran mendalam, sehingga memicu ledakan besar kecerdasan buatan 10 tahun yang lalu。

Sepuluh tahun lalu, kami memutuskan untuk mengintegrasikan warna yang dapat diprogram dengan dua ide baru:Satu adalah alat pelacakIni secara teknis menantangDAN YANG KEDUA ADALAH IDE YANG TAMPAK KE DEPAN -- SEKITAR SATU DEKADE YANG LALU, KAMI MEMPERKIRAKAN BAHWA AI AKAN MENGUBAH GRAFIK KOMPUTER。Sama seperti GeForce membawa AI ke dunia, AI sekarang juga akan menciptakan kembali cara seluruh grafik komputer dibuat。

Hari ini, aku ingin menunjukkan masa depan. Ini adalah generasi grafik berikutnya, yang kami sebut Neural Rendering -- kedalaman grafik 3D yang dikombinasikan dengan kecerdasan buatan. Ini DLSS 5, lihat。

PENERJEMAHAN NEURAL: INTEGRASI DATA TERSTRUKTUR DENGAN AI YANG DIHASILKAN

Apa ini menakjubkan? Dengan demikian, grafis komputer buatan ulang。

APA YANG KITA LAKUKAN? KITA MENGGABUNGKAN GRAFIK 3D YANG DAPAT DIKENDALIKAN (ASAS DUNIA MAYA) DENGAN DATA TERSTRUKTUR MEREKA, DAN KEMUDIAN MENGINTEGRASIKAN AI GENERASI DAN PERHITUNGAN PROBABILITAS. SALAH SATUNYA SANGAT PASTI, YANG LAIN SANGAT REALISTIS — KAMI MENGGABUNGKAN DUA KONSEP UNTUK MENCAPAI KETELITIAN DAN KONTROL MELALUI DATA TERSTRUKTUR, SAMBIL MEMPRODUKSINYA SECARA REAL TIME. PADA AKHIRNYA, KANDUNGANNYA INDAH DAN DAPAT DIKELOLA SEPENUHNYA。

IDE DARI INFORMASI TERSTRUKTUR DAN INTEGRASI AI GENERASI AKAN DIULANG DALAM SATU INDUSTRI DEMI INDUSTRI LAINNYA。DATA TERSTRUKTUR ADALAH BATU PENJURU DARI AI KREDIBEL。

Platform percepatan untuk data terstruktur dan non-struktur

Sekarang saya ingin menunjukkan grafik teknis。

Data terstruktur - SQL yang akrab dikenal, Spark, Panda, Velox, dan platform penting seperti Snowflake, Databricks, Amazon EMR, Azure Fabric, Google BigQuery, adalah pemrosesan data frame (Data Frame). frame data ini, yang seperti spreadsheet raksasa, membawa semua informasi dari dunia bisnis dan merupakan fakta dasar perhitungan bisnis。

DI ERA AI, KITA PERLU MENDAPATKAN AI UNTUK MENGGUNAKAN DATA TERSTRUKTUR DAN UNTUK MEMPERCEPAT PENCAPAIAN MEREKA. DAHULU, PERCEPATAN PENGOLAHAN DATA TERSTRUKTUR BERTUJUAN UNTUK MEMBUAT PERUSAHAAN LEBIH EFISIEN。PADA MASA DEPAN, AI AKAN MENGGUNAKAN STRUKTUR DATA INI PADA TINGKAT YANG JAUH LEBIH CEPAT DARIPADA MANUSIA, DAN KECERDASAN AI AKAN MEMBUAT PANGGILAN EKSTENSIF KE BASIS DATA TERSTRUKTUR。

DALAM HAL DATA YANG TIDAK TERSTRUKTUR, BASIS DATA VEKTOR, PDF, VIDEO, AUDIO, DLL, MERUPAKAN MAYORITAS POLA DATA DI DUNIA - SEKITAR 90 PERSEN DATA YANG DIHASILKAN SECARA TAHUNAN TIDAK TERSTRUKTUR. PADA MASA LALU, DATA-DATA INI HAMPIR SAMA SEKALI TIDAK DAPAT DIGUNAKAN: KITA MEMBACANYA DAN MEMASUKKANNYA KE DALAM SISTEM BERKAS, ITU SAJA. KITA TIDAK DAPAT MENCARI ATAU MENCARI KARENA KURANGNYA INDEKS DATA YANG TIDAK TERSTRUKTUR DAN KEBUTUHAN UNTUK MEMAHAMI MAKNA DAN KONTEKS MEREKA。SEKARANG, AI DAPAT MELAKUKAN INI -- DENGAN TEKNIK SENSORIK DAN PEMAHAMAN MULTI-MODULAR, AI DAPAT MEMBACA DOKUMEN PDF, MEMAHAMI APA YANG MEREKA MAKSUD, DAN MEMASUKKANNYA KE DALAM STRUKTUR YANG LEBIH BESAR YANG DAPAT DIKONSULTASIKAN。

Waida muda menciptakan dua dasar untuk ini:

CUDDF: Pemrosesan data yang dipercepat, data terstruktur

CUVS: Pengolahan data AI untuk penyimpanan vektor, data semantik dan non-struktur

Kedua platform ini akan menjadi salah satu platform dasar paling penting untuk masa depan。

Hari ini, kami mengumumkan kerjasama dengan sejumlah perusahaan. Penemu bahasa IBM-SQL akan menggunakan cuDF untuk mempercepat platform Data WatsonX-nya. Kedell bekerja sama dengan kami untuk membuat platform data Dell AI yang mengintegrasikan cuDF dan cuvs dan mencapai peningkatan kinerja yang signifikan dalam proyek Data NTT. Dari Google Cloud, untuk bagiannya, sekarang tidak hanya mempercepat AI Vertex, tetapi BigQuery, dan bekerja sama dengan Snapchat untuk mengurangi biaya yang dihitung hampir 80%。

Manfaat dari perhitungan yang dipercepat adalah tiga kali lipat: kecepatan, skala, biaya. Ini berlangsung seiring dengan logika Hukum Moore — untuk mencapai lompatan dalam kinerja dengan mempercepat perhitungan sementara terus mengoptimalkan algoritma sehingga setiap orang dapat menikmati biaya yang dihitung dari penurunan terus menerus。

Barcelona Weeda membangun platform akselerator yang menyatukan perpustakaan: RTX, cuDF, cuvs, dll。PERPUSTAKAAN-PERPUSTAKAAN INI TERINTEGRASI KE DALAM LAYANAN AWAN GLOBAL DAN SISTEM OEM UNTUK MENJANGKAU PENGGUNA GLOBAL。

Kolaborasi mendalam dengan penyedia layanan awan

Kerjasama kerjasama dengan penyedia layanan cloud utama

Awan Google:Kami mempercepat Vertex AI dan BigQuery, dan integrasi mendalam dengan JAX/XLA, saat melakukan kinerja yang sangat baik pada PyTorch -- satu-satunya akselerator di dunia untuk menunjukkan warna pada PyTorch dan JAX/XLA. Kami memperkenalkan ekologi Google Cloud kepada klien seperti Base10, CrowdStrike, Puma, Salesforce。

AWS:Kami mempercepat EMR, SageMaker dan Bedrock, dengan integrasi mendalam dengan AWS. Tahun ini saya sangat bersemangat bahwa kami akan memperkenalkan OpenAI ke dalam AWS, yang secara signifikan akan meningkatkan pertumbuhan konsumsi AWS komputasi awan, dan membantu OpenAI memperluas penyebaran regional dan skala。

Microsoft:Aquibi 100 PFLOPS adalah superkomputer pertama yang kita bangun, dan superkomputer pertama yang dikerahkan pada Azure, yang menyediakan dasar penting untuk bekerja sama dengan OpenAI. Kami mempercepat Azure Cloud Service dan AI Foundation, bekerja sama untuk memajukan pengembangan area Azure dan bekerja di kedalaman pencarian Bing。

Perlu disebutkan bahwa Komputing "Komputing Konfidensial kita" kapabilitas, yang memastikan bahwa operator bahkan tidak memiliki akses ke data dan model pengguna, adalah GPU pertama di dunia yang mendukung perhitungan rahasia, mendukung pengerahan model OpenAI dan Antropik yang aman di lingkungan awan di seluruh dunia. Dalam kasus Synopsys, kita mempercepat semua aliran kerja EDA dan CAD dan menyebarkannya ke Microsoft Azure。

Oracle:Kami klien AI pertama Oracle, dan aku bangga bisa menjelaskan kepada Oracle untuk pertama kalinya konsep awan AI. Sejak saat itu, mereka telah berkembang pesat, dan kami telah memperkenalkan banyak mitra, seperti Cohere, Fireworks dan OpenAI。

CoreWeave:AWAN ASLI AI PERTAMA DI DUNIA, DICIPTAKAN UNTUK MELAYANI GPU HOSTING DAN AI CLOUD, MEMILIKI BASIS KLIEN YANG SANGAT BAIK DAN TUMBUH KUAT。

Palantir + Dell:AI platform baru berdasarkan Platform Ontologi Palantir dan platform AI telah dibuat bersama untuk mengerahkan AI terlokalisasi sepenuhnya - dari pengolahan data (ke kuantitatif atau terstruktur) ke ruang akselerator skala penuh di negara manapun, dalam isolasi vakum apapun。

Kamida muda telah menjalin kemitraan khusus dengan penyedia layanan awan global — ekosistem yang menguntungkan yang membawa klien kita ke awan。

Integrasi vertikal, keterbukaan horizontal: strategi inti Weeda

Kamida adalah perusahaan terbuka pertama yang terintegrasi secara vertikal secara global secara horizontal。

Kebutuhan untuk model ini sangat sederhana: komputasi yang dipercepat bukanlah masalah chip, juga bukan masalah sistemik, dan formulasi penuhnya harus dipercepat penerapannya。CPU MORFFORD DAPAT MEMBUAT KOMPUTER BERJALAN LEBIH CEPAT, TETAPI JALAN TELAH MENCAPAI BOTLENECK. PADA MASA DEPAN, HANYA MELALUI APLIKASI ATAU AKSELERASI KHUSUS SEKTOR BAHWA LOMPATAN KINERJA DAN BIAYA DAPAT DIPERTAHANKAN。

Itulah sebabnya Weidar harus menggarap satu demi satu bank, satu wilayah demi satu, satu industri vertikal. Kami adalah perusahaan komputasi terintegrasi vertikal, dan tidak ada cara lain. Kita harus memahami aplikasi, memahami daerah, memahami algoritma dalam kedalaman dan dapat mengerahkannya dalam skenario apa pun — pusat data, awan, sistem lokal, marginal dan bahkan robot。

Pada saat yang sama, Ying Weidar tetap secara horizontal terbuka dan bersedia mengintegrasikan teknologi ke dalam platform setiap mitra sehingga dunia dapat menikmati dividen yang dipercepat。

INI TERCERMIN SEPENUHNYA DALAM STRUKTUR PESERTA GTC SAAT INI. SEKTOR JASA KEUANGAN YANG SEKTOR JASA KEUANGAN MEMILIKI PROPORSI PESERTA TERTINGGI — SEMOGA PENGEMBANG, BUKAN PEDAGANG. EKOSISTEM KAMI MENCAKUP BAIK RANTAI PASOKAN HULU MAUPUN HILIR. TAHUN LALU ADALAH TAHUN TERBAIK SEJARAH UNTUK BISNIS 50 TAHUN, 70 TAHUN DAN 150 TAHUN. KITA BERADA DI AWAL SESUATU YANG SANGAT, SANGAT PENTING。

MESIN PECUT DALAM INDUSTRI

Di semua daerah vertikal, Yin Weidar memiliki bentangan yang mendalam:

Pilot:liputannya luas dan jauh jangkauannya

Jasa keuangan:Investasi kuantitatif bergerak dari rekayasa karakterisasi buatan ke superkomputer-didorong pembelajaran mendalam, mengarah ke itsTransformer Time"

Kesehatan medis:Ini sendiri "ChatGPT Time", meliputi arah penemuan obat pembantu AI, diagnosis dukungan intelijen AI, layanan klien medis, dll

Industri:GELOMBANG KONSTRUKSI TERBESAR DI DUNIA SEDANG BERLANGSUNG

Hiburan dan permainan:PLATFORM AI WAKTU NYATA AI WAKTU MENDUKUNG PENERJEMAHAN, PENYIARAN LANGSUNG, INTERAKSI PERMAINAN, DAN AGEN BELANJA CERDAS

Robot:Selama lebih dari satu dekade, tiga struktur komputer utama telah berada di tempat

Telekomunikasi:Di industri dengan ukuran sekitar $2 triliun, stasiun basis akan berevolusi dari fungsi komunikasi tunggal ke platform infrastruktur AI bernama Aerial, yang bekerja dalam kedalaman dengan bisnis seperti Nokia dan T-Mobile

DI JANTUNG SEMUA DAERAH INI ADALAH PERPUSTAKAAN CUDA-X KITA — YANG MERUPAKAN INTI DARI IN WEIDA SEBAGAI PERUSAHAAN ALGORITMA. BANK-BANK INI ADALAH ASET INTI PERUSAHAAN ' S, MEMUNGKINKAN PLATFORM UNTUK MEMBERIKAN NILAI NYATA DI SELURUH INDUSTRI。

Salah satu yang paling penting adalah CUDNN, yang benar-benar berinovasi kecerdasan buatan dan memicu Big Bang dari AI modern。

(MEMAINKAN VIDEO PRESENTASI CUDA-X)

SEMUA YANG BARU SAJA ANDA LIHAT ADALAH SIMULASI -- PEMECAH BERDASARKAN PRINSIP FISIK, MODEL FISIKA PROKSI AI, DAN MODEL ROBOTIK AI. SEMUANYA ADALAH SIMULASI DAN TIDAK ADA ANIMASI MANUAL ATAU PENGIKATAN BERSAMA. INI ADALAH INTI DARI KEKUATAN INGWEIDA:Kesempatan ini dibuka melalui pemahaman yang mendalam tentang algoritma dan kombinasi organik dari platform komputasi。

AI AI ASLI ENTERPRISES DAN ZAMAN KALKULATOR BARU

Anda baru saja melihat Wal-Mart, Al-Leaa, Morgan Chase, Ross, Toyota, dan sebagainya, yang mendefinisikan masyarakat saat ini sebagai raksasa industri, dan ada sejumlah besar perusahaan yang belum pernah Anda dengar -- apa yang kita sebut AI asli. Daftar ini sangat besar, termasuk OpenAI, Antropik dan sejumlah besar perusahaan berkembang yang bekerja di daerah vertikal yang berbeda。

Selama dua tahun terakhir, industri telah mengalami penerbangan yang mengkhawatirkan. Investasi venture mengalir ke start-up mencapai $ 150 miliar, terbesar dalam sejarah manusia. Yang lebih penting lagi, untuk pertama kalinya, investasi tunggal melonjak dari jutaan dolar ke ratusan juta atau bahkan miliaran dolar。

Hanya ada satu alasan:Untuk pertama kalinya dalam sejarah, setiap perusahaan tersebut akan membutuhkan sumber daya komputasi yang cukup besar dan sejumlah besar token. Industri niaga adalah menciptakan, menghasilkan, atau menambah nilai pada token dari institusi seperti Antropik dan OpenAI。

SAMA SEPERTI REVOLUSI PC, REVOLUSI INTERNET, DAN REVOLUSI AWAN MOBILE TELAH MENCIPTAKAN SEJUMLAH BISNIS PEMBUATAN EPOCH, PERUBAHAN PLATFORM GENERASI INI JUGA AKAN MENGHASILKAN KELOMPOK PERUSAHAAN YANG SANGAT BERPENGARUH YANG AKAN MENJADI KEKUATAN PENTING DI MASA DEPAN。

Tiga terobosan bersejarah dalam semua ini

Apa yang terjadi dalam dua tahun terakhir? Tiga hal besar。

Nomor satu: ChatGPT, generasi peluncuran AI era (2022-end-2023)

IA TIDAK HANYA DAPAT DIPAHAMI DAN DIPAHAMI, IA JUGA DAPAT MENGHASILKAN KONTEN YANG UNIK. SAYA MENUNJUKKAN INTEGRASI AI YANG DIHASILKAN DENGAN GRAFIK KOMPUTER. SECARA MENDASAR, AI GENERAT AI MENGUBAH CARA PERHITUNGAN DIHITUNG - DARI PENCARIAN KE GENERASI, YANG SANGAT MEMPENGARUHI ARSITEKTUR KOMPUTER, PENYEBARAN DAN SIGNIFIKANSI KESELURUHAN。

Kedua: penalaran AI, diwakili oleh o1

Kemampuan untuk bernalar memungkinkan AI untuk merefleksikan diri, merencanakan, menguraikan isu — menguraikan isu - isu yang tidak dapat dipahami langsung ke langkah - langkah yang dapat diatur. O1 membuat AI yang dihasilkan dapat dipercaya dan dapat beralasan atas dasar informasi nyata. Untuk alasan ini, jumlah token yang dimasukkan ke dalam konteks dan output yang digunakan untuk pemikiran telah meningkat secara signifikan, dan jumlah token yang dihitung telah meningkat secara signifikan。

Kode Claude, model cerdas pertama

Ia membaca dokumen, menyiapkan kode, menyusun, menguji, mengevaluasi dan bersifat iteratif. Kode Claude Claude telah benar-benar membebani proyek perangkat lunak - 100% insinyur di Inggris menggunakan satu atau lebih Kode Claude, Codex dan Cursor, dan tidak ada insinyur perangkat lunak yang menggunakan AI。

INI ADALAH TITIK BALIK YANG BARU -- ANDA TIDAK BERTANYA KEPADA AI APA ITU, DI MANA ITU, BAGAIMANA ITU DILAKUKAN, TETAPI APA YANG IA CIPTAKAN, MELAKSANAKAN, MEMBANGUN, MENGGUNAKAN ALAT, MEMBACA DOKUMEN, MENDEKOMPOSISI MASALAH DAN MEMASUKKANNYA KE DALAM TINDAKAN. AI, DARI PERSEPSI, KE GENERASI, KE PENALARAN, UNTUK BENAR-BENAR MAMPU MELAKUKANNYA SEKARANG。

Selama dua tahun terakhir, jumlah perhitungan yang dibutuhkan untuk penalaran telah meningkat sekitar 10.000 kali, dan penggunaannya meningkat sekitar 100 kali. Saya selalu berpikir bahwa penghitungan permintaan telah meningkat jutaan kali dalam dua tahun terakhir -- inilah yang dirasakan semua orang, inilah yang dirasakan oleh OpenAI, inilah yang dirasakan oleh Antropik. Jika Anda mendapatkan lebih banyak kredit, Anda mendapatkan lebih banyak token, Anda mendapatkan lebih banyak pendapatan, dan AI mendapatkan lebih pintar. Tujuan penalaran telah tiba。

TRILIUNAN DOLAR

Tahun lalu pada saat ini, saya mengatakan di sini bahwa kita memiliki tingkat kepercayaan yang tinggi terhadap kebutuhan Blackwell dan Rubin dan pesanan pembelian sebelum 2026, sekitar $ 500 miliar。

HARI INI, SETAHUN SETELAH GTC, AKU BERDIRI DI SINI DAN MEMBERITAHU ANDAMelihat ke 2027, aku melihat setidaknya $1 triliun. Dan saya yakin bahwa kebutuhan komputasi yang sebenarnya akan jauh lebih dari itu。

Tahun penalaran Weida bahasa Inggris

Tahun 2025 adalah tahun ketidakpedulian. Kami ingin memastikan bahwa, selain pelatihan dan pasca pelatihan, keunggulan dapat dipertahankan pada setiap tahap siklus kehidupan AI, memungkinkan investasi infrastruktur untuk berfungsi secara efisien dan terus menerus, dan biaya unit itu dikurangi dengan waktu yang lebih lama。

Pada saat yang sama, Anthropic dan Meta secara resmi bergabung dengan platform NVIDIA, yang bersama-sama mewakili sepertiga dari kebutuhan komputasi AI global. Model sumber terbuka berada di dekat tingkat depan dan ada di mana-mana。

SAAT INI, SATU - SATUNYA PLATFORM DI DUNIA YANG DAPAT MENGOPERASIKAN SEMUA DOMAIN AI — BAHASA, BIOLOGI, GRAFIK KOMPUTER, PENGLIHATAN KOMPUTER, SUARA, PROTEIN DAN KIMIA, ROBOTIKA, DLL. — SEMUA MODEL AI, TIDAK SOAL TEPI ATAU AWAN, TIDAK SOAL BAHASANYA. KEUNIKAN DARI SEMUA SKENARIO INI DENGAN ARSITEKTUR BRITISH WEIDA MEMBUAT KITA MENJADI PLATFORM PALING MURAH DAN PALING TERPERCAYA。

Saat ini, 60 persen dari bisnis di Ingweida berasal dari lima penyedia layanan awan super-besar di dunia, dengan 40 persen sisanya di bidang awan regional, awan berdaulat, perusahaan, industri, robotika, komputasi tepi, dllAKU TIDAK TAHU. TAK DIRAGUKAN, CAKUPAN AI ADALAH KETANGGUHANNYA SENDIRI — INI ADALAH PERUBAHAN PLATFORM YANG SAMA SEKALI BARU。

Grace Grace Blackwell dan NVLink 72: inovasi struktural yang berani

Pada puncak arsitektur Hopper, kami memutuskan untuk mengatur kembali sistem, memperluas NVLink dari 8 ke NVLink 72, dan sepenuhnya dekomposisi sistem komputasi. Grace Blackwell NVLink 72 adalah taruhan teknis yang besar, yang tidak mudah bagi semua mitra, dan kami ingin menyatakan rasa syukur kami yang tulus kepada semua orang。

PADA SAAT YANG SAMA, KAMI TELAH MEMPERKENALKAN NVFP4 -- BUKAN HANYA FP4 BIASA TETAPI JENIS BARU DARI CORE DAN UNIT KOMPUTASI. KAMI TELAH MENUNJUKKAN BAHWA NVFP4 DAPAT MENCAPAI PENALARAN TANPA KEHILANGAN PRESISI, DENGAN PENINGKATAN KINERJA DAN EFISIENSI ENERGI YANG SANGAT BESAR, DAN SAMA UNTUK PELATIHAN。

Sebagai tambahan, serangkaian algoritma baru, Dynamo dan TensorRT-LLM, telah muncul, dan kami bahkan telah mendedikasikan miliaran dolar untuk optimalisasi inti untuk membangun superkomputer yang disebut DGX Cloud。

Penalaran kami terbukti luar biasa. Data dari Semi Analysis — penilaian kinerja penalaran AI yang paling komprehensif hingga saat ini — menunjukkan bahwa YVD berada di depan kedua dimensi per token watt dan setiap biaya token. Hukum Morse yang asli bisa membawa H200 1,5 kali lebih tinggi, tapi kami melakukan 35 kali. Dia bahkan mengatakan:HHwang In-hoon konservatif, sebenarnya 50 kali. Dia benar。

Dan kami mengutip dia: -Jensen Sandbagged

Biaya dari setiap token di Inggris adalah yang terendah di dunia dan tidak ada yang saat ini memiliki akses. Ini disebabkan karena desain yang sangat sinergis (Extreme Co-design)。

Pada kasus Fireworks, rata-rata kecepatan token adalah sekitar 700 per detik sebelum perangkat lunak dan algoritme lengkap diperbarui di Weaverda; pembaruan itu dekat dengan 5.000 per detik, meningkat sekitar tujuh kali. Dan itulah kekuatan dari desain yang sangat sinergis。

AI Plant: Dari Pusat Data hingga Tanaman Token

Pusat data yang digunakan adalah repositori berkas, dan sekarang merupakan pabrik yang memproduksi token. Setiap penyedia layanan cloud, masing-masing perusahaan AI, akan menggunakan efisiensi pabrik "tokeen" sebagai indikator kinerja inti pada masa depan。

Ini adalah argumen inti saya:

sumbu vertikal:Throughput - jumlah token per detik pada kekuatan tetap

Axis silang:Kecepatan Interaktif (Token Speed) - Semakin cepat setiap respon penalaran, semakin besar model yang tersedia, semakin panjang konteksnya, semakin pintar AI

token adalah komoditas pukal baru yang, setelah matang, adalah harga dalam lapisan:

Lantai bebas(high, kecepatan rendah)

Tingkat menengah(~$3 per juta)

• Tingkat lanjut(~$6 per juta)

Lapisan berkecepatan tinggi(~ 45 per juta token)

undo-type(~ 850 per juta token)

Dibandingkan dengan Hope, Grace Blackwell telah meningkat 35 kali dalam nilai tertinggi dan memperkenalkan lapisan baru secara keseluruhan. Dalam model yang disederhanakan, 25% daya dialokasikan ke empat tingkat, Grace Blackwell menghasilkan pendapatan lima kali lebih banyak daripada Hope。

(Inggris) Vobia Rubin: Sistem komputasi AI generasi berikutnya

(Video perkenalan Play Vera Rubin)

Vera Rubin adalah sebuah sistem yang dioptimalkan secara lengkap, yang dirancang khusus untuk beban kerja para cerdas:

• Komputasi inti model bahasa besar:Gugusan GPU 72 NVLink 72, pemrosesan prefill dan KV Cache

New, Vera CPU:SECARA KHUSUS DIRANCANG UNTUK KINERJA TUNGGAL-CARA YANG SANGAT TINGGI, MENGGUNAKAN MEMORI LPDDR5, DENGAN EFISIENSI ENERGI YANG SANGAT BAIK, ADALAH SATU-SATUNYA PUSAT DATA DI DUNIA MENGGUNAKAN LPDDR5 CPU YANG COCOK UNTUK AI SMART TOOL

Sistem penyimpanan:Lapangan Biru 4 + CX 9, benar-benar baru platform penyimpanan untuk era AI, industri penyimpanan global 100% Tambah ke CPO Spectrum X Switch: unduhan global switch Ethernet optik, diproduksi sepenuhnya

nybsp; KyberSeluruh sistem rak baru, mendukung 144 GPU ke dalam domain NVLink tunggal, komputasi depan-akhir, pertukaran belakang NVLink untuk membentuk komputer raksasa

Rubin Ultra:hipernodes generasi berikutnya, dirancang secara vertikal untuk mencocokkan rak Kyber untuk mendukung interkoneksi NVLink skala lebih besar

Diagnonia Vera Rubin telah mengalami pendinginan cairan 100 persen, berkurang dari dua hari menjadi dua jam pemasangan, memperkenalkan pendingin air panas 45°C, dan tekanan pendinginan secara signifikan berkurang di pusat data. Kali ini Satya (Nadra) telah mengirim surat yang menegaskan bahwa hangar Vera Rubin pertama terhubung dengan Microsoft Azure, dan saya sangat dianjurkan oleh hal ini。

Integrasi: Ekstensi ekstrem dari kinerja penalaran

Kami memperoleh tim Groq dan mendapatkan otorisasi teknisnya. Toiler Groq adalah prosesor aliran data defenitif (Deterministik Prosesor DataFlow), yang dikerahkan menggunakan kompiler dan kompiler statis, dengan sejumlah besar SRAM yang didedikasikan untuk optimalisasi beban tunggal untuk penalaran, dengan penundaan yang sangat rendah dan kecepatan produksi token yang sangat tinggi。

Namun, kapasitas memori terbatas Groq (SRAM pada film 500MB) membuatnya sulit membawa parameter model besar dan KV Cache secara independen, membatasi aplikasi skala besar。

Solusinya adalah Dynamo, sumber perangkat lunak penjadwalan beralasan. Dengan Dynamo, kita mengumpulkan garis penalaran

• Decode of Prefill and Perhatian:Doeded on Vera Rubin (perlu banyak penyimpanan komputasi dan KV Cache)

Parameter Jaringan Feed-Forward:Komponen pembuatan token e. e., selesai pada Groq (width tinggi dan penundaan rendah diperlukan)

Dengan mengaitkan secara erat keduanya dengan Ethernet, penundaan akan dikurangi sekitar setengah oleh model khusus. Di bawah penyebaran terpadu Dynamo, sistem operasi pembangkit ČAI", kinerja keseluruhan ditingkatkan 35 kali dan menciptakan tingkat penalaran yang sama sekali baru bahwa NVLink 72 tidak dapat mencapai sebelumnya。

Vodan Groq dan Vera Rubin menyarankan:

Gunakan 100% Vera Rubin untuk token nilai tinggi jika beban tugas didominasi oleh throughput tinggi

Zafadin Groq dapat diperkenalkan, dengan tingkat yang disarankan sekitar 25% Groq + 75% Vera Rubin Groq LP30, bekerja pada dasar tiga bintang, sekarang dalam produksi dan Q3 diharapkan untuk memulai pengiriman. Thanks Samsung untuk kerjasama penuhnya。

Sebuah lompatan bersejarah dalam penalaran

Kuantifikasi dari kemajuan teknologi sebelumnya: Dalam periode 2 tahun, tingkat produksi token pada 1 pabrik Giva AI akan meningkat dari 22 juta token/s menjadi 700 juta token/s, naik 350 kali. Dan itulah kekuatan dari desain yang sangat sinergis。

peta jalan Teknologi Teknologi Teknologi

• Blackwell:Saat ini dalam produksi, sistem rak standar Oberon, sambungan kabel tembaga ke NVLink 72, ekstensi optik opsional ke NVLink 576

(current):Gantungan Kyber, NVLink 144 (Cronic Cable); gantungan Oberon, NVLink 72 + Optikal, diperpanjang ke NVLink 576; Spektrum 6, pertukaran CPO pertama global

• Vera Rubin Ultra (kedatangan):Transplansi generasi baru Rubin Ultra GPU, chip LP35 (integrasi pertama NVFP4), pendaraban lebih lanjut

• Feynman (generasi berikutnya):PU, chip LP40 baru (bersama dikembangkan oleh tim Inggris dan Groq, terintegrasi NVFP4); CPU-Rosa baru (Rosalyn); Bluefield 5; CX 10; dan Kyber rak pendukung kabel tembaga dan ekspansi CPO

Peta jalan jelas:Jalur ketiga dari sambungan kabel tembaga, sambungan optik (Scale-Up) dan sambungan optik (Scale-Out) maju secara paralel, dan kita membutuhkan ekspansi berkelanjutan produksi oleh semua mitra dalam hal kabel tembaga, serat optik dan CPO。

SEBUAH PLATFORM KEMBAR DIGITAL DI PABRIK

AIA SEMAKIN KOMPLEKS, TETAPI BERBAGAI PEMASOK TEKNOLOGI YANG MEMBENTUKNYA TIDAK PERNAH BEKERJA SAMA SATU SAMA LAIN DALAM TAHAP DESAIN SAMPAI MEREKA BERTEMU DI PUSAT DATA — JELAS TIDAK CUKUP。

Untuk itu, kami menciptakan Omniverse, dan berdasarkan itu, platform NVIDIA DSX, platform untuk semua mitra untuk merancang dan mengoperasikan pabrik AI kelas Giva di dunia maya。DSX MENYEDIAKAN:

Sistem simulasi listrik dan jaringan mesin On-board

Menghubungkan ke grid untuk mencapai gerakan hemat energi sinergis

Konsumsi energi dinamis dan optimisasi pendinginan berdasarkan Max-Q di pusat data

Secara konservatif diperkirakan bahwa sistem dapat meningkatkan efisiensi energi sekitar dua kali lipat, yang merupakan keuntungan yang sangat signifikan dalam skala yang kita bicarakan. Omniverse, mulai dari Bumi digital, akan membawa kembar digital dari semua ukuran, dan kami bekerja sama dengan mitra global untuk membangun komputer terbesar dalam sejarah manusia。

Selain itu, Inggris berbaris ke luar angkasa. Chip Thor telah disertifikasi untuk radiasi dan dioperasikan pada satelit. Kami bekerja sama dengan mitra untuk mengembangkan Vera Rubin Space-1 untuk pusat data ruang angkasa. Panas termal adalah tantangan inti di luar angkasa, di mana kita mengumpulkan insinyur top untuk menyerang。

OpenClaw: Sistem operasi usia tubuh cerdas

\"Pelmater Steinberger mengembangkan perangkat lunak bernama OpenClaw\". Ini adalah proyek open-source paling populer dalam sejarah manusia, melampaui prestasi Linux ' s selama 30 tahun hanya dalam beberapa minggu。

OpenClaw pada dasarnya adalah sistem kecerdasan yang mampu:

:Pengelolaan sumber daya, akses ke alat, sistem dokumentasi dan model bahasa besar

: Implementasi penjadwalan dan waktu tugas

Berangsur-angsur menguraikan masalah dan panggilan pada sub-intelijen

• Dukungan untuk setiap jenis input atau output (suara, video, teks, surat, dll.)

Ini benar-benar sebuah sistem operasi — sistem operasi untuk komputer tubuh cerdas. Windows membuat komputer pribadi menjadi mungkin, OpenClaw memungkinkan kecerdasan pribadi。

Setiap perusahaan membutuhkan strategi OpenClaw sendiri, sama seperti kita membutuhkan Linux, HTML, Kubernetes。

ENTERPRISE IT KOMPREHENSIF MERUBAH

IT:DATA DAN DOKUMEN MASUK KE DALAM SISTEM, MELEWATI ALAT DAN ALIRAN KERJA DAN AKHIRNYA MENJADI ALAT UNTUK DIGUNAKAN MANUSIA. PERUSAHAAN-PERUSAHAAN PERANGKAT LUNAK MILIK PERUSAHAAN-PERUSAHAAN YANG MEMBUAT ALAT, INTEGRATOR SISTEM (GSI) DAN PERUSAHAAN KONSULTAN MEMBANTU BISNIS UNTUK MENGGUNAKANNYA。

IT:Setiap perusahaan SaaS akan diubah menjadi Aaas (Agentic as a Service, Smart as a Service) - bukan hanya untuk menyediakan alat, melainkan untuk menyediakan badan cerdas AI yang dispesialisasi dalam bidang tertentu。

Tapi inilah tantangan utama:Kecerdasan intra-enterprise memiliki akses ke data sensitif, kode penegakan, dan komunikasi eksternal. Ini harus diatur secara ketat dalam lingkungan bisnis。

Untuk itu, kami bekerja dengan Peter untuk mengintegrasikan keselamatan ke dalam versi tingkat perusahaan, yang diluncurkan:

Cakar NeMo (desain referensi):Jaringan referensi level enterprise berbasis OpenClaw untuk set NVIDIA yang terintegrasi dari perangkat AI pintar

• Perisai Terbuka (level keamanan):Berintegrasi ke OpenClaw, yang menyediakan mesin strategis, pagar jaringan, rute privasi untuk memastikan keamanan data perusahaan

Nemo Cloud:Tidak dapat diunduh dan dihubungkan dengan mesin strategis dari semua perusahaan SaAS

INI ADALAH RENAISSANCE DARI ENTERPRISE IT, INDUSTRI $ 2 TRILIUN YANG AKAN TUMBUH PADA SKALA TRILIUN DOLAR, BERGERAK DARI MENYEDIAKAN ALAT UNTUK MENYEDIAKAN LAYANAN BADAN CERDAS AI KHUSUS。

Aku benar-benar bisa meramalkan:di masa depan, setiap insinyur di perusahaan akan memiliki anggaran token tahunan. mereka bisa dibayar ratusan ribu dolar per tahun, dan saya akan memberikan mereka kuota token tambahan sama dengan setengah gaji, sehingga output mereka akan 10 kali lebih besar. berapa banyak kuota token yang melekat pada entri" telah menjadi subjek perekrutan baru di silicon valley。

Setiap perusahaan akan menjadi pengguna token (untuk insinyur) dan produsen token (untuk kliennya). Arti penting OpenClaw tidak bisa dipandang rendah. Ini sama pentingnya dengan HTML, Linux。

INISIATIF OPEN MODEL NVIDIA

Dari segi kecerdasan yang didefinisikan sendiri (Custom Claw), kami telah menyediakan model garis depan NVIDIA belajar sendiri:

Model lapangan model model model model bahasa besar Nemotron Model bahasa besar Cosmos World Foundation Model

Kami berada di garis depan teknologi di setiap bidang, dan kami berkomitmen untuk melanjutkan iterasi - Nemotron 4, Cosmos 1, Cosmos 2, Groq, ke generasi kedua。

Nemotron 3 peringkat di antara tiga besar model terbaik global di OpenClaw dan berada di garis depan. Nemotron 3 Ultra akan menjadi model dasar terkuat yang pernah mendukung negara-negara dalam membangun AI berdaulat。

Hari ini, kami mengumumkan pembentukan Nemotron Alliance untuk berinvestasi miliaran dolar dalam pengembangan model dasar AI. Anggotanya antara lain BlackForest Labs, Cursor, LangChain, Mistral, Perplexity, Reflection, Sarvam (India), Thinking Machines (Mira Murati ' s laboratorium)。

Satu perusahaan perangkat lunak enterprise setelah yang lain telah mengintegrasikan desain referensi Nemo Claw dan AI body pintar NVIDIA ke dalam produknya sendiri。

FISIKA FISIKA AI DAN ROBOT

KECERDASAN DIGITAL BERGERAK DI DUNIA DIGITAL -- MENULIS KODE, MENGANALISIS DATA; DAN AI FISIKA ADALAH BADAN KECERDASAN YANG DIBANGUN, ROBOT。

ZODIAK GTC INI MEMILIKI TOTAL 110 ROBOTIKA, MELIPUTI HAMPIR SEMUA ROBOTIKA DAN PERUSAHAAN PENGEMBANGAN DI SELURUH DUNIA. DI WEIDA TERSEDIA TIGA KOMPUTER (MESIN PELATIHAN, KOMPUTER SIMULASI, KOMPUTER ON-BOARD) DAN SUSUNAN PERANGKAT LUNAK LENGKAP DAN MODEL AI。

Dengan hormat autopilot, Autopilot "ChatGPT Time" telah tiba. Hari ini, kami mengumumkan bahwa empat mitra baru akan bergabung dengan platform British RoboTaxi Ready: Biadi, Modern, Jepang, Gili, untuk total produksi tahunan 18 juta. Ini, bersama-sama dengan Mercedes sebelumnya, Toyota dan General, semakin memperkuat formasi. Pada saat yang sama, kami mengumumkan kolaborasi besar dengan Uber untuk mengerahkan dan mengakses kendaraan RoboTaxi Ready di beberapa kota。

Dari segi robotika industri, banyak robotika seperti ABB, Romanika Universal, dan KUKA bekerja sama dengan kami untuk menggabungkan model AI fisik dengan sistem simulasi untuk mendorong robot mendarat di jalur produksi global。

Di bidang telekomunikasi, Caterpillar dan T-Mobile juga terdaftar. Pada masa depan, stasiun pangkalan nirkabel tidak akan lagi hanya menjadi node komunikasi, tetapi lebih tepatnya sebuah NVIDIA Aerial AI RAN - sebuah platform perhitungan tepi cerdas yang mampu aliran sensoring real-time, menyesuaikan balok ke bentuk, dan mencapai efisiensi efisiensi efisiensi energi。

Link spesial: Olaf

(Memainkan video demonstrasi robot Disney Olaf)

Newton bekerja

Aku sangat senang melihatmu。

Ya, karena aku memberimu komputer-- Jetson

Apa itu

Ada di perutmu。

Luar biasa。

Kau belajar berjalan di Omniverse。

Aku suka berjalan. Ini lebih baik daripada naik rusa melihat langit yang indah。

Wong In-hoon: Ini adalah tepat karena simulasi fisika -- pemecah Newton berdasarkan NVIDIA Warp, yang kami kembangkan bersama dengan Disney dan DeepMind untuk beradaptasi dengan dunia fisik nyata。

Itu yang kumaksud。

Di sinilah kau pintar. Aku manusia salju, bukan bola salju。

Bisa kau bayangkan? Masa depan Disneyland -- semua karakter robot ini berkeliaran bebas di taman. Tapi sejujurnya, kupikir kau lebih tinggi. Aku belum pernah melihat manusia salju pendek seperti itu。

(tanpa izin)

Wong In-hoon, maukah kau membantuku menyelesaikan pidatoku hari ini

Bravo

Ringkasan alamat keynote

Hari ini, kita berbagi tema inti berikut:

Kemunculan poin penalaran:Alasannya telah menjadi inti dari beban kerja AI. Token adalah barang baru. Fungsi penalaran secara langsung menentukan pendapatan

USIA PABRIK AI:Pusat data kota telah berkembang dari fasilitas penyimpanan file ke pabrik produksi token, dan setiap perusahaan akan mengukur persaingannya dengan "AI efisiensi tanaman" di masa depan

Revolusi Pintar OpenClaw:OpenClaw membuka era komputasi cerdas, dan bisnis IT bergerak dari zaman alat ke zaman kecerdasan, dan setiap perusahaan perlu mengembangkan strategi OpenClaw

FIZIKAL 4SMARTY SEDANG DIPERKECIL, DAN AUTOPILOT, ROBOT INDUSTRI, ROBOT MANUSIA BERSAMA-SAMA MEMBENTUK KESEMPATAN BESAR BERIKUTNYA UNTUK FISIKA

TERIMA KASIH, GTC. BERSENANG-SENANGLAH

Bahasa Asli

QQlink

暗号バックドアなし、妥協なし。ブロックチェーン技術に基づいた分散型ソーシャルおよび金融プラットフォームで、プライバシーと自由をユーザーの手に取り戻します。

© 2024 QQlink 研究開発チーム. 無断転載を禁じます。