Litecoin

黃仁勳最新播客:因威達的護城河能持續嗎?

2026/04/17 13:21
🌐zh-Hant

由YVD建設的計算系統與發展者生态學, 主席团

黃仁勳最新播客:因威達的護城河能持續嗎?
影片名為Jensen Huang:?
照片來自Dwarkesh Patel
照片來自Peggy Block Beats

編輯說, 外界仍在討論因弗達的護城河是否來自供應鏈, 但對話則認為, 實際上很難复制的不是芯片本身。

這篇文章由Dwarkesh Patel編輯, Dwarkesh Patel是硅谷最有興趣的播客之一。

右邊是Dwarkesh Patel 左邊是Jensen Huang

围绕這個核心,這個對話可以分三層來理解。

第一是科技和工業结构的變化。
Yvette 的強度不僅僅是硬件性能, 更是CUDA 搭載的開發者生态學, 計算法、系統工程、網路和能源效率共同決定AI進步的速度。 這也引發了重要的判斷:軟體並非因為AI而簡單的"商业化"。

第二,商業界限和战略選擇。
YVETTE選擇「做所有必要的事, 它不進入云计算,也不涉及过度的垂直集成,而是通过投資和生态支持來擴大整体市場规模. 也避免成為生态代用品。

第三,在科技传播和工業模式上存在差异。
談話最強烈的部分不是關於具体結論, 其中一個觀點强调領導數量的先發优势, 而另一個觀點則更注重生态學與科技傳播標準的长期归属。 未來的人工智能模型與開發商正在運作的科技系統。

也就是說,這場比賽的結局不僅是"誰領導了更好的模型",而是"誰确定了模型運作的基礎"。

從這個意义上說,INVERDA的角色不再只是芯片公司,更接近AI時代的"底层操作系統提供商"—— 無論計算能力如何傳播。

以下是原文(为了便于阅读和理解,原文已合并):

TL; DR

Inverda的护城河不是"芯片" 而是"從電子到托肯的全系統能力" 核心不是硬件性能,而是將計算轉換成價格(结构+軟體+生态)的总容量。

CUDA的精髓不是工具, 開發者、框架、模型都與同一個技術倉庫捆綁。

競爭的關鍵不僅是微數,而是"計算堆栈×算法×系統工程"的组合. 建築、網路、能效與軟體合力。

供應量將在2至3年內由需求導動的訊號填充。 真正的長期限制不是芯片 而是能量和基础设施。

AI軟體不會被商品化, 未來不是更便宜的軟體。

不做云的核心策略是做必要的事,但不能吞下整個价值链。 藉由投資與生态支持。

真正的战略風險不在于對手得到數學, 長期技術標準及業務所有權將改變。

面試

在In Weida的护城河在哪裡:供應鏈

Dwarkesh Patel (主持人) :

我們看到很多軟體公司的價值下降, 因為預期AI會把軟體變成一個標準的商品. 也有一種有點天真的理解方式:從設計檔(GDS2)到建立邏輯芯片,晶體圈,轉換回路,再用SK海格力斯,美奧,三星制作的HBM封存,再送到ODM集合整架。

注:HBM(High Bandwidth Memory,High-bandwidth Memory)是特為高性能計算和AI而設計的高级記憶體技術;ODM(原設計制造商,原設計制造商),是指不仅負責製作,而且負責產品設計的代理工厂


所以從這個角度來看,它基本上就是軟體,是別人做的. 如果軟體被商品化,它也會被商品化。

黃詹森:
但歸根结底,必須有把電子化成一個符號的过程。 從電子器到信物 為了讓這些信物隨時間推移更有價值 我覺得很難完全商业化。


從电子轉換成代碼 本身就是個非凡的过程 而做一個符號更值錢 就像做一個分子比另一個分子更值錢一樣 使一個符號比另一個更值錢。


許多藝術、工程、科學與發明。


顯然我們是实时觀察的 因此轉變過程、製造過程與信號都遠未完全理解, 所以我不認為會這樣。


當然,我們會提高它的效率。 事實上,你描述問題的方式 實際上是我對因弗達的一個模式: 輸入是电子,輸出是符號,中间是yvette。


我們的工作是"盡力而為,盡力而為,盡力而為",以達此變化,并赋予其最高的能力。

當我說"盡量少做"的時候,我們是指我們不需要自己做的事, 我們和別人合作,把它融入到我們的生态中。 如果你今天看看英國, 我們可能有一個最大的合作環境 在上游和下游的供應鏈。 從電腦制造商,應用程式開發者,到模型開發者——你可以把AI看成五層的蛋糕. 我們有這五層的生态布局。

讀到:黃燕薇達 依據創用CC授權使用唯此二事


所以我們試著不要這麼做 但我們必須做的那部分 極為困難 我不認為那部分會商业化。


實際上,我不認為公司軟體公司 正在做工具。 實際上。
但許多公司基本上都是工具公司。


Excel是工具,PowerPoint是工具,Cadence是工具,Synopsys是工具。

黃詹森:
我看到的和很多人的想法恰恰相反。 使用工具的人數會成倍增加。


要求工具的数量也有可能激增。 例如,Synopsys Design Compiller的用法很可能大增。
許多代表會使用樓層計劃、布局工具、設計規則檢查工具。

我們將以前所未有的方式探索設計空間。 當你今天使用這些工具時,這個變化會非常清晰。


這些工具的使用會促使這些軟體公司興奮。 因為目前的代理商不足以使用工具。


所以這些公司要么建立自己的代理商,要么代理商本身變得足以使用這些工具. 我想這將是兩者的合併。

Dwarkesh 帕特爾
我記得你最近透露的 邊界元件、記憶、封鎖等項目 有近千億的購物承諾 「半解析報告」顯示。


一個解釋是,因弗達的护城河 是說你已經鎖住了這些稀缺的部件的供應量 也就是說,其他人可能可以做加速器,但他們能有足夠的記憶嗎? 他們有足夠的邏輯芯片嗎


這是未來多年的核心优势嗎

黃詹森:
這是我們能做的一件事, 但其他人很難做。 我們在上游做了巨大的承諾 部分是明確的 也就是你提到的購物承諾 以及隱藏的部分。


例如, 上游投資大多是我們的供應鏈搭檔做的, 因為我會對他們的首席執行官說:「我告訴你這個業務有多大, 讓我解釋為什麼, 讓我跟你玩, 讓我告訴你我看到了什麼。

透過這些流程, 傳達訊息、刺激觀念、建立共识。


那為什麼他們要投資給我而不是別人呢? 因為他們知道我可以買下他們的容量 消化它從我的下游。 因為下游需求大。

你看GTC,大會的大小讓很多人大吃一驚 它基本上是一個360度的AI宇宙,把整個業務聚集在一起. 每個人都聚集在一起 因為他們需要見面 我帶他們到下游看AI的進展。

更重要的是,他們可以使用AI的原始公司和創辦公司, 他們看到正在發生的創新。


所以我花了很多時間 直接或间接地解釋 我們的供應鏈和生态伙伴的機會 許多人會說我的基調不是來自傳統媒體, 這才是我要做的。


我必須讓整個供應鏈上下游了解接下來會發生什麼。

所以你說的護城河 確實存在 如果這個市場在未來幾年達到萬億美元, 同現金流一樣, 沒有人能建一個供應鏈 如果它跑得不夠快的話 因為下游需求極大。

就是這個讓我們能 以這樣的规模做這些事。

Dwarkesh 帕特爾
我想看看能不能跟上 這些年來,你的收入幾乎翻了一番, 全球的微积分甚至翻了三倍。

黃詹森:
且此卷复倍。

Dwarkesh 帕特爾
好吧 所以,如果你看看逻辑芯片, 就像你是N3流程中最大的客戶之一, 在N2上。
今年AI可能占N3容量的60%。

注:N3指TSMC的3纳米(3nm)節點,可理解为目前台式電流最先进的芯片制造工艺之一

你已經在這個位置了,怎麼能加倍呢? 每年翻兩倍? 我們是否正處於AI因上游限制而增長得慢的阶段? 有沒有辦法规避這些限制? 我們該怎麼辦

黃詹森:
在某時此刻, 我們甚至可以受水管工數量的限制。

德沃克什·帕特爾:
明年GTC應該邀請水管工。

黃詹森:
是啊,這實際上是個好現象 即時需求大于全業的供應量 反之肯定不是很好。

如果兩者之間的隔阂太大, 例如,我注意到, " CoWos " 不再被討論了。 因為在過去的兩年裡, 我們投入和擴大了它。


現在我覺得整件事處在更好的位置 CoWos的供應必須跟隨對邏輯芯片和記憶體的需求增長。 它們正在擴展COWOS, 它們也正在擴展未來的先进封鎖技術, 它們的擴展速度與邏輯芯片相同。

因為過去CoWos和HBM的記憶更像是「特殊能力」, 現已認同。

我們現在更適合影響更廣泛的供應鏈 過去,在AI革命之初,我一直在談論五年前的這些判決。

有人相信并投資了 像是桑杰的光線 我仍記得那場會議, 當我非常清楚未來會發生什麼, 當時他們選擇增加很多 我們和他們建立了合作關係 他們投資了許多方向, 例如LPDDR、HBM等, 但我們都在這個階段。

所以,我想每一代科技,每一個瓶颈,都會引起很多注意. 現在我們一直在談前些年的瓶颈 例如,我們和Lummentum,Coherent 和整個硅光子合作. 過去幾年來。

在硅光方面,我們在水庫四周建立了完整的供應鏈,與他們合作發展了科技,發明了許多新科技,並為供應鏈開發了這些專利,以保持生态開放。 我們設計新的科技、新的工作流程、新的測試裝置(包括雙面測試)。

所以你們可以看到,我們在先進地塑造這個環境, 這樣供應鏈就能支持未來的規模。

德沃克什·帕特爾:
聽起來有些瓶颈比其他瓶颈更容易解決 例如,那些比CoWos更難擴張的

黃詹森:
我剛剛提到最難的例子。

德沃克什·帕特爾:
哪一個

黃詹森:
水管工 沒錯 我說的是最難的 水管工和電工 也讓我擔心「末日」這個詞, 如果我們讓人們停止做軟體工程師。

10年前也做了类似的預測。 有人說:「無論你們做什么工作,你們絕不是放射科的。」 你仍然可以在網路上找到這些影片, 表示放射學是第一個被淘汰的職業, 但現實是我們現在缺乏放射學家。

德沃克什·帕特爾:
我們回到剛才的問題:有些連結可以擴大, 那么我們怎麼把邏輯芯片的容量翻倍? 畢竟真正的瓶颈是記憶和邏輯 那歐洲車呢? 你每年要怎麼翻倍

黃詹森:
這些都做不到 快速擴張並不容易, 關鍵是要有清楚的要求信號 一能造一能造十;一能造十能造百万. 所以這不難拷貝。

德沃克什·帕特爾:
你會把判斷力傳給供應鏈多深? 例如,你會去ASML 問:「如果我找下三年

黃詹森:
有些是直接的 有些是间接的 如果我能說服這座建筑 那ASML就會被說服了 所以我們需要找出關鍵的瓶颈 但只要建築者相信這個潮流 幾年內你就會有足夠的EUV裝備。

我的意思是,所有的瓶颈 不會持续兩到三年以上, 沒有一個。


我們在提高計算效率。 從霍伯到布萊克韋爾,大概10次,20次,有的甚至30到50次. 我們也一直提出新的算法 因為CUDA夠灵活。


所以這些都不讓我擔心 真正讓我擔心的是我們下游以外的因素,例如能源政策。 沒有能源,你就不能擴大;沒有能源,你就不能建立工業;沒有能源,你就不能建立全新的制造系統。


現在我們想把芯片、電腦、封印帶回來 以及建立電動汽車和機器人等新產業, 我們在建人工智能工廠時,都是能量,與能量相關的建築周期很長. 提高芯片容量是兩到三年的問題。

德沃克什·帕特爾:
有意思 我覺得我所訪問的一些客人做出了相反的判斷。 只是我沒有足夠的技術背景來判斷。

黃詹森:
但好事是你現在在跟專家說話。

Google的TPU是否动摇了英國的地位

德沃克什·帕特爾:
是的,是的。 我想問你的競爭者 如果你看看TPU,可以說 世界上前三名的兩個模型... 克勞德和雙子座 都用TPU訓練 這對因弗達的未來意味著什麼

備註: TPU(Tensor Processing Unit)是谷歌為人工智能(尤其是深度學習)而設計的一类特殊核心. 片段

黃詹森:
我們做了完全不同的事 YVD的构建是"加速計算"而不是"尺度處理"(TPU)。

加速計算可以用于多种工作,如分子力學、量子顏色力學、數據處理、數據框架、結構的數據、不結構的數據、流體力學、粒子物理,以及當然還有AI。 因此,加速計算的应用要大得多。

但「計算」本身比AI更廣泛, YVETTE所做的就是從一般計算到加速計算的重製。 我們的市場覆盖范围比任何TPU或其他特殊加速器都要大得多。

如果我們看看我們的位置 我們是唯一能加速各种申請的公司 我們有巨大的生态系统 框架和算法可以在英國的維達平台上運作 我們的電腦系統被設計成"由其他人操作" 任何操作員都可以買下我們的系統。

大多數自學系統不是為他人而設計的, 你基本上必須自行操作, 因為它們在設計上沒有足夠的弹性, 以便他人從開始使用。 包括Google、Amazon、Azure、OCI。

無論你運作系統是為了租用計算機 或是用它來自用 如果你要租用它 你必須有一個大規模的顧客生态 如果你自己運作系統 我們肯定有能力幫你 例如,伊隆的xAI。

因為我們可以得到任何業務,任何公司的操作員 使用我們的系統 你可以用它來為Lily等公司建造超級電腦 做科學和藥物發現 我們能幫助他們運作自己的超級電腦。

因此,我們可以覆盖很多應用程式,而TPU不能做到. 由IN WEIDA建設的CUDA本身可以成為一個出色的批量處理平台, 因此,我們有大得多的市場機會 和更大的覆盖范围。 因為我們現在基本上支持全球所有類型的應用程式, 你可以把系統部署到任何地方, 你可以確保會有客戶使用它。

所以這是完全不同的。

德沃克什·帕特爾:
問題會更久一點。


你目前的收入是惊人的, 它不是主要從藥物或量子計算。 但你的人工智能是史無前例的科技 以前所未有的速度運作。


問題是,如果只有人工智能,那最好的選擇是什麼? 我不是在做底線,但我已經和AI研究者的一些朋友談過,他們說:「當我使用TPU時,它是個大陣列,非常適合於矩阵乘法;而GPU更灵活,對很多分支和不规则的記憶體存取。

但是如果你看看AI, 它是不是根本上是倍增 矩阵一遍又一遍? 所以,你不需要拿芯片區域來做曲速排程、線性切換、記憶庫等功能。 因此TPU在目前波浪需求和收入增長中被高度优化於主要應用。

你怎么看

黃詹森:
基礎乘法確實是AI的重要组成部分。

如果你想想出一個新的機制,或者用不同的方式來做; 如果你想設計一個全新的建構, 如混合 SSM; 如果你想建立一個將傳播和自動相结合的模型 -- 你只需要一個通用的可編程結構 我們就可以運行任何你能想到的。

這是我們的優勢 這讓新的算法更容易 因為它是一個可編程的系統,也是AI能取得如此快速進步的原因。


TPU与其他硬件一样,受摩爾定律的影响. 我們知道摩爾律法每年增加25%左右 所以,如果你想跳10次,100次,唯一的方法就是改變算法,以及每年如何計算。

這是英威達的核心力量。

我們管理布萊克韋爾大賺錢的原因, 我說了35倍。


迪倫寫了一篇文章說 我實際上是保守派的 而且是我進步的近50倍 單靠摩爾律法是不可能做到的 我們的解決辦法是引入新的模型結構, 如MOE, 並且通過平行, 解聯和分配處理, 將計算延伸至整個計算系統。 如果沒有潛入底部的能力。

注:提到Dylan Patel,他是半导体和AI基建领域的著名分析家,研究所SemiAnalysis的創始人

我們的優點是 建筑的可編程性 以及伊薇特是一個高度协调的公司 我們甚至可以把一些計算器卸到互聯互通的結構中,比如NVLink,或者網路層,比如Spectrum-X. 也就是說,我們可以同處理器,系統,互聯互通,軟體庫,算法一起推动變化. 這一切都是同时完成的。 沒有CUDA的支持 我都不知道該從何說起。

德沃克什·帕特爾:

這也引發了紐西蘭的客戶結構: 如果你收入的60% 來自這五個超級企業 他們將在另一個時代非常依赖CUDA 面對不同的客戶 比如實驗教授 他們不能使用其他加速器,可以使用PyTorch + CUDA,需要一切优化。

但是如果這些超大的云母能寫出自己的核心. 事實上,他們必須這樣做 才能提取最后5%的性能 Google常使用自研加速器或TPU列車。 甚至OpenAI在使用GPU時也會使用Triton,他們會說,"我們需要我們的內核". 因此他們會寫作 CUDA C++, 而不是使用 cubLAS 、 NCCL 文庫, 並建立自己的堆栈, 甚至將它們編譯在其他加速器上 。

所以對你大部分的客戶來說 他們可以也確實取代了CUDA CUDA在什麼程度上仍然是推动前線的關鍵

黃詹森:
首先,CUDA是一個非常丰富的生态系统。 如果你想在任何電腦上發展, 從CUDA是一個非常明智的選擇。 我們支持所有主流框架。

如果你需要像Triton一樣寫自定的Kelnels 我們在Triton的後端贡献了很多英國Wida科技 我們樂意幫助框架變得更好 有很多框架,如Triton、vLM、SG Lang等等。

該地區隨著訓練後的發展, 你有維拉爾 尼莫 RL 和一系列新框架 如果你要發展一個結構,從CUDA開始是最合理的,因為你知道生态學是成熟的. 當有問題的時候 可能是你自己的代碼 而不是底部一大堆代碼。

別忘了,這些系統后面的密碼很大 當系統有問題時 你想知道到底是你還是平台本身。

當然你更希望問題是你 而不是計算平台 當然,我們自己有很多蟲子, 但是我們的系統很成熟,你至少可以建立可靠的基础。


第二點是基數的大小。 如果你是開發商 不管你在做什么 最重要的是安裝基地 你希望你的軟體能用尽可能多的電腦 你不為自己寫軟體,你為整個團體寫軟體,甚至為整個工業寫軟體,因為你是一個框架發展者。

英國的CUDA生态是我們最重要的資源 全世界有數億GPU 所有云制造商,从V100,A100,H100,H200,到L系列,P系列,各种规格。

他們以不同的形式存在 如果你是机器人公司 你就會希望CUDA能直接跑到機器人身上 我們幾乎無處不在。

這意味著一旦你开发了軟體或模型,它就可以在任何地方使用. 所以安裝基地本身非常有價值。


最后,部署地点要有灵活性。 我們身處所有云平台 這讓我們獨特 作为AI公司或開發商,你不确定哪家云母厂商 最终會和你的系統合作 或者在哪裏運作. 我們可以到處行動 包括就地部署。

因此,生态豐富、安裝基地的大小和部署位置的灵活性合在一起是非常宝贵的。

德沃克什·帕特爾:
有道理 但我想知道這些優點對你的主要客戶是否重要 有很多人會從這些優勢中获益, 但那些能建造自己的水庫的人, 也就是提供大部分收入的客戶。 – 特別是, AI在「有價值的回應回路」任務上越來越強大, 例如強化的學習場景。

所以這些超大型的云層制造商 可以自己寫嗎 克內爾 當然,他們還是會以價值選擇英國 但問題是, 例如,按單位成本,誰能提供更高的計算功率(FLOPS)和更高的內存帶寬? 因為我們以前在硬件和軟體上有很高的邊緣。

問題是, 如果大部分客戶可以建立自己的軟體堆疊, 而不是依靠CUDA

黃詹森:
我們投入這些人工智能實驗室的工程師數量是惊人的, 與他們合作, 幫助他們优化整個科技金庫。 原因是沒人比我們更了解我們的建築 而這些結構不像CPU那么普遍。


CPU有點像"家用車", 你可以把它理解為巡洋艦, 不是開得很快, 但每個人都能開得好, 控制巡洋艦, 一切都很簡單. 但GPU加速器更像是F1種族. 我可以想像每個人每小時開100英里 但要把它推到极限 需要很多專家。

我們用了很多人工智能來產生這些Kernels. 我敢肯定,在很長一段时期内,我們仍将是不可或缺的。 我們的專業能幫助這些人工智能實驗室的夥伴們 輕而易舉地把他們的表現翻倍 很多次,當我們优化他們的技術或某個凱內爾 它們的模型可以加速三次,兩次,甚至50%。 特别是當你認為他們擁有很多霍伯和布萊克威爾集團的時候。

如果你有雙倍的表現,那就意味著雙倍的收入. 這直接相当于收入。 在WEIDA的計算器中, TCO(總所有者成本)在全球表现最好, 沒有一家公司能向我證明 性能和TCO的平台比我們好 沒有 這些標準測試是開放的。


迪倫是對的 Max是公開的 任何人都可以使用 但沒有一個TPU團隊愿意用它來展示他們的推理成本优势. 這很難做,沒人想證明。

MLPerf是相同的。 我歡迎他們展示他們所謂的四成優勢 我希望他們能證明 TPU的優勢 依我看,這毫無道理, 也毫無道理。 這根本說不通。

所以我覺得我們之所以成功 是因為我們的交接點很好。

另外,你說我們的客戶有60%來自前五家制造商 但大部分生意是為外部客戶 例如,在 AWS 上, Yvette 的大部分計算都是面向外部客戶,而不是 AWS 。 我們的客戶大多是外人, 他們選擇我們是因為我們有廣泛的報導。

我們可以把世界上最好的客戶帶給他們 他們自己都以英國的平台为基础 這些公司以不列颠為基礎 因為我們的覆盖面和灵活性很強大。

所以我覺得這個輪子起作用了: 基數,建築的可編程性, 连续的生态积累。 現在全世界有上千家AI公司 如果你是人工智能的創辦人 你會選擇什麼樣的结构? 你會選擇最受歡迎 最基本 最富有生态的建筑 這就是這個輪子的邏輯。

所以原因就是:

* 首先,我們的單位成本性能非常高,因此最低

第二,我們有全世界最高的單位耗電性能;如果合作伙伴建造1GW数据中心,他們必須產生最高的代號,最高的收入. 我們的建築能用單位的努力 產生出最大的代價。

第三,如果你的目標是租金計算,我們有世界上最大的客戶。

故于法轮。

德沃克什·帕特爾:
很有趣 我想問題的核心就是這個市場結構是什麼 即使有很多公司。

但事實是,經過這些超大型的云層制造商, 是像Anthropic, OpenAI 等具有不同加速器跑動能力的模型公司。

黃詹森:
我覺得你的前提不對。

德沃克什·帕特爾:
也許吧 如果這些關於性能和成本的談話都安排好了, 為什麼像Anthropic這樣的公司會在前天宣布與Chase和Google合作? 他們的計算大多來自這些系統。 對谷歌來說,TPU本身是計算的主要来源. 所以,如果看看這些大AI公司, 一旦他們曾經使用整個不列颠, 他們不再是了。

如果這些優勢是理論上的

黃詹森:
安斯洛皮克是個特別的例子 沒有Anthropic, TPU的增長幾乎不存在。 TPU幾乎完全從Anthropic長大。 沒有Anthropic。

這很明顯 其實只有一個Anthropic。

德沃克什·帕特爾:
但OpenAI亦與AMD合作。

注:AMD(英語:Advanced Micro Services)是美國的一家半导体公司,主要以計算芯片為目的,也是因弗達和英特爾的重要競爭者

黃詹森:
但其中绝大多数仍在魏達. 我們還将继续大力合作。 我不會對其他的選擇感到不滿。 如果他們不試用其他方法 他們怎么知道我們的解決方案有多好

有些時候, 我們必須不断證明我們配得上現在。

市面上總是有各种各样的帳戶 您可以看到有多少 ASIC 專案被取消 。 就因為你開始做ASC, 不代表你可以做出比英國更好的事。

其實這不容易 甚至可以說,理性地說,這不是太有效。 除非 伊薇特在某些方面真的犯了大錯 但考虑到我們的大小,我們的速度——我們是世界上唯一一個每年有重大跨越的公司。

德沃克什·帕特爾:
他們的理論是,他們不需要比伊薇特好, 但不要比伊薇特差70%, 因為他們認為你有70%的利潤。

黃詹森:
但不要忘了,即使ASC, 利润率真的很高。 在威達的利差約是60-70%, 而ASIC的利差大概是65%. 你到底存了多少錢


你總是要付錢 因此從我所看到的, 這些基本(ASIC)操作的利潤實際上非常高, 他們自己也相信。

很久以前 我們真的做不到 實際上,我並不理解建造一個像OpenAI或Anthropic這樣的基本模型實驗室有多難。 也不完全明白他們需要供應方的大规模投資支持。

我們沒有能力在像安特羅皮克這樣的投資中 賺上十億美元 來利用我們的微积分 但Google和AWS可以先投資很多錢。

我認為這是我的錯誤:我真的不知道他們沒有別的選擇。 企業投資機構無法投資50億或100億美元支持AI實驗室。

都是我的錯 但即使我意識到這一點 我也不認為我們能在那個阶段做到。

但我不會再犯同樣的錯誤 我很樂意投資OpenAI, 當Anthony來到我們這裡時 我很高興能成為投資者 幫助他們發展。

只是我們當時做不到 如果我能再做一次 我會非常樂意做這些事 如果我們能像現在一樣強大的話。

為什麼小韋達不做雲

德沃克什·帕特爾:
有意思 Yvette是一家在AI場賣铲子的公司, 現在你把錢放進去了 有報告說你在OpenAI投資了300億, 在Anthropic投資了100億。 這些公司的估值持續上升。

所以,如果你回想過去的幾年, 你給他們計算能力, 你可以看到這個趋势, 當他們的估計只有現在的十分之一, 甚至在一年前,它就遠低于它。 你已經有很多現金了。

事實上,燕薇達也有可能自己成為一個基礎模型公司, 或者他更早地在低價值下投資。

我很好奇,我為什麼不早點做

黃詹森:
我們會盡力的 如果我可以,我會早做它。 當Anthropic需要我們支持時我會做 但我們沒有這種能力。

它不在我們力所能及 也不在我們决策的惰性之中。

德沃克什·帕特爾:
是錢的事嗎

黃詹森:
是啊,這是投资的大小。 我們在海外投資的傳統很少 更別提這麼大了 我們不知道這是必要的。

我當時的想法是 他們可以像其他公司一樣去投資 但他們想做的事並沒有冒險資本的支持。 OpenAi 想要做一些不受風險資本支持的事。

我後來才知道 但他們很聰明 當時他們意識到他們必須走那條路 我很高興他們做到了。 即使我們沒參與 也讓Anthropic轉投了其他合伙人 我還是覺得這是個好事 安特羅皮克的存在對世界來說是件好事 我很高興 有些后悔是可以接受的。

德沃克什·帕特爾:
我們該如何使用這些錢

幫助這些AI實驗室將資本支出(capex)轉換成運作支出(opex)。

因為GPU很貴, 但隨著模型進步, 英國本身有能力支付這些前期資本支出 例如,有報導說你支持了CoreWeave 高达63億美元,并投資了20億美元。

那waida為何不自己做云母? 不如你做個高呼者 自己造雲 租你的數學吧 畢竟你還有這個現金能力。

黃詹森:
這是公司哲學,我認為這是個明智的哲學:我們應該做"必要多多多做,盡可能少做"。

這意味著如果我們不做, 我真的不認為它會做。

如果我們不冒這些風險 如果我們不建NVLink 如果我們不建整個倉庫 如果我們不建這個生态學 如果我們不建立這些 CUDA-X 域目庫—— 不管是光線追蹤,影像產生,早期的AI模型,數據處理,結構的資料,矢量處理—— 如果我們不這樣做,它們就不存在了。

我完全相信 我們甚至開發了一個叫做culitho的圖書館 來計算光線 如果我們不做 就沒人會做。

這就是為什麼我們做了這些事。 我們應該全力以赴。


但同時,世界上已經有很多云的制造商. 即使我們不做,也會有人做 因此,基于 " 盡其必要但盡其所能 " 的原則,這個概念在公司中一直存在。 我所做的每個決定都會從這個角度來看。


如果我們不支持CoreWeave, 如果我們不支持他們,他們今天就不能達到這個地步。 像Nscale和Nebius一樣 沒有我們的支持 他們不會在這裡的 現在,它們很成熟。


但這不是我們該親自做的嗎? 不 我們仍堅持這項原則, 所以我們在生态學上投資 因為我希望整個生态學能蓬勃發展 我希望我們的建築能連接尽可能多的企業。

這就是我們正在推进的愿景。

同時,正如你剛才提到的, 有很多好的模型公司, 我們會試著投資。

而另外一件事是,我們不會"選擇贏家" 我們想支持所有人 這是我們的生意需要 也是我們愿意做的 所以,當我投資其中之一, 我投資其他。

德沃克什·帕特爾:
那你為什麼不選擇贏家呢

黃詹森:
因為這不是我們的責任 第一點。

第二點是YOUNG WEIDAR最初成立時, 只有我們活了下來 如果你在60家公司中選一個 很可能是最不適合的。

那是在你之前的事 但因弗達的畫面完全錯了 這不是小偏差,根本錯了 我們設計了一個幾乎無法讓發展者支持的架构, 我們以理性的一流理論为基础 但最後我們找錯了解決辦法。

大家都以為我們不能成功 但我們活了下來 所以我有足夠的谦虛 承認,而不是選擇贏家。 讓他們發展自己或支持所有人。

德沃克什·帕特爾:
有件事我不明白 你說過你不是故意优先支持這些新的云體制造商 但你剛提到 沒有魏達他們可能不存在 那這兩件事是怎麼在一起的

黃詹森:
首先,他們自己一定想要存在,來找我們幫忙。 當他們有明确的意志、企業計劃、能力、激情, 當然, 他們自己一定有一定能力。

但他們必須盡快建造自己的飛輪 你的問題是 我們想投資嗎? 答案是否定的。 我們不想成為一個金融机构 我們更愿意與這些金融機構合作。

所以我們的目標是專注於自己的生意, 使生意模式尽可能簡單。

黃詹森:
當OpenAI等公司在IPO之前需要300億的投資, 我們非常信任他們... 世界需要他們,每個人都需要,我要他們 所以我們支持他們,幫助他們擴展。

所以我們會這樣做 因為他們真的需要我們來做 但我們的原則不是盡可能多 而是盡可能少。

德沃克什·帕特爾:
問題可能有點明顯,但我們已經在GPU短缺多年了, 而這更像是模型越來越強大。

黃詹森:
是的,我們有GPU短缺。

德沃克什·帕特爾:
在這些稀缺資源的分佈中, 英威達不被认为是出價最高的。

首先 你同意嗎? 第二,小韋達有什麼好處

黃詹森:
我覺得你的前提不對 當然,我們會非常仔細地看他們。

首先,如果你不下訂單,就沒道理了。 我們將與所有客戶合作, 預估需求, 因為這些產品的製作周期很長, 這是我們用預測來匹配供應量的第一件事。

第二,我們會和尽可能多的客戶做預測 但最後你還是得點菜 如果你不點菜,我無能為力 所以在某時,它是"先服侍"。

但是要不然, 如果您的數據中心尚未準備好, 或者一些關鍵元件尚未準備好, 您可能暂时無法部署此系統, 我們可能會优先考虑其他客戶端 。 只是想盡量提高我們工厂的摄入效率。

除此以外, 你得點菜 不點菜就沒門了。

當然,外面有很多故事, 人們說拉里和伊隆要求GPU和我共進晚餐, 我們一起吃過晚餐, 晚餐很棒, 但他們從未要求GPU。 他們只需要點菜 我們一下命令就盡力提供能力 沒那麼複雜。

德沃克什·帕特爾:
所以這聽起來像是排隊機械 要看你什麼時候下命令 数据中心是否準備好了 但還是不僅是"出價最高的" 對吧

黃詹森:
我們從來沒有這樣過。

德沃克什·帕特爾:
從來沒有最高價

黃詹森:
從不 因為這是不好的經營。

你定了價格,客戶就不會 我知道當需求增加時, 這從來就不是我們的方法 客戶可以依靠我們 我更希望成為一個可靠的存在 和業務的根基。 你不必猜測價格的變化。

如果我引用你的話 這才是最後的價格 即使需求激增也不會改變。

德沃克什·帕特爾:
這就是你穩定用電的原因之一 對吧

黃詹森:
我們合作了近30年 殷維達與建交並沒有正式的法律約定, 有時我是對的 有時我錯了 有時我得到了更好的條件 有時我沒有 但總的來說,這段關係是非凡的,我可以完全信任或依靠他們。

對Inveida來說,有一件事是肯定的: 今年Rubin會很棒,明年Vera Rubin Ultra會發行,明年Feynman會發行,明年——我還沒宣布這個名字。 也就是說,每年都可以指望我們 你必須去世界各地 找另一支ASIC團隊 看看有沒有人能說 "我可以把整個公司都放進去 我相信你每年都會來支持我"。

我的代價將逐年下降一級 我和相信時鐘一樣相信 我剛也說過了 歷史上沒有一個圓形工廠可以讓你這麼說。

但今天你可以對因弗達說 你可以指望我們每年。

如果你想買10億的AI機器電源,沒有問題; 如果你想買1億美元,沒有問題; 如果你想買1000萬美元,甚至一個架子,沒有問題; 即使你想買一張显卡。 如果你想要下一個1000億的人工智能工廠訂單 那就沒事了。

今天,世界上只有一家公司可以這麼說。 我想買十億美元, 我們要做的就是一起計劃 一起走過這個过程 做成熟的生意。

所以,我想我們花了好幾十年才到AI業的地步 公司穩定與一致非常重要。

年輕的Waida為何拒絕多路賭注

德沃克什·帕特爾:
這其實是個有趣的問題 我們一直在討論力量积累和記憶瓶颈 現在如果你進入一個已經擁有N3大部分容量的世界,那么你可能擁有N2的大部分容量. 您會考慮回到像7纳米的舊流程節點的空置容量嗎

例如,由于AI的需求太大,而且最進步的流程跟不上,所以您要重新使用Hopper或Ampore版本,在數量优化和系統設計方面有今天的所有經驗. 你覺得在2030年之前會發生嗎

黃詹森:
不必了 原因是每代人的進步不只是晶體管大小的变化. 你對封存 堆放 數學系統 系統建構 也做了很多工程 當你走到這一步,回到舊的版本, 需要投資的研发规模是無法承受的。 我們可以繼續走 但我覺得我們不能回去。

總有一天世界會說, 我馬上回去用7纳米嗎? 當然了,當然了。

德沃克什·帕特爾:
我之前跟別人說過話 為什麼Inverda不同时推進一些完全不同的芯片專案? 例如,你可以製造一個晶圓形的結構,如Cerebras,大封面如Dojo,或者一些沒有CUDA的東西。

你有資源,有工程技能,可以并行完成. 如果沒人知道人工智能或建築要去哪兒 為什麼把所有的蛋都放進籃子里

黃詹森:
當然可以 只是我們沒看到更好的解決方案 我們都模拟過 模拟可能更糟 所以我們不做 我們現在做的是那些我們真正想要做的事, 我們認為那些是正確的。

當然,如果負载本身在未來有巨大的變化——不是算法,而是負载的實際變化——那么我們也可以加入其他類型的加速器。


例如,最近我們加入了Grok, 我們將把Grok整合到CUDA生态中. 我們現在就做 因為符號的價值已經非常高 所以同樣的模型 基于不同的反應速度。

幾年前, 信物幾乎是免費的, 但現在 不同的客戶要求代價不同 客人自己能賺很多錢 例如對軟體工程師來說, 如果我能給他們一個更快的反應符號, 讓他們比今天更有效率, 我會付錢的。


但這是最近的市場 所以,我認為,我們第一次真的有能力 建立不同的市場層 基於相同的模型 在反應時間。

這就是為什麼我們決定把帕雷托前線 擴大到一個"回應更快但更低"的推理分支 因為過去 總是最重要的事 但我們現在相信 未來可能會有很高的ASP信號 即使工厂的價格更低 單价也足以補償它。

這就是為什麼我們做到了。 但若只談建築本身, 我會說如果我有錢。

德沃克什·帕特爾:
我認為這個"高價值"的想法。


最後一個問題 如果沒有發生深刻的學習革命

黃詹森:
當然,這遊戲確實如此,但除此之外,它加速了計算。 這就是我們一直在做的。

我們公司的基本前提就是摩爾律法會減慢 一般計算對很多事情都好, 但對很多計算工作來說并不理想 。 所以我們把GPU集成了這個架构和CPU,讓它加速CPU的載荷. 不同的密碼, 管子, 不同的算法可以卸載到 GPU 上 。 這樣一來,應用程式可以加速100倍,200倍。

那它在哪里工作? 當然 工程學 科學 物理 數據處理 電腦圖像 影像產生 不同的地方。


所以即使今天人工智能不存在 印佛達還是個大公司 其原因真正具有根本性: 通用計算法繼續擴展的能力已基本結束。 而提高性能的方法之一——不是唯一的方法,而是最重要的方法——就是做一個针对外地的加速。

我們從電腦圖像開始 但還有很多其他的地方 科學計算、粒子物理、流體模擬、結構的數據處理等。


所以我們的任務就是讓世界加速計算 以及促進不可用通用計算的應用程式的繼續發展 或不能擴展到足夠的容量 幫助科學取得突破 我們最早的应用包括分子動力 能源探索中的地震處理 當然還有影像處理。

在所有这些方面,一般計算本身效率太低。 所以,是的,沒有AI,我會傷心。 但正是由于我們的計算進步,我們才使深度學習民主化。 我們允許任何研究者,任何科學家,任何學生, 任何地方,用PC或GeForce显卡做令人驚訝的科學研究。 根本的承諾沒有改變 一點也沒有。

所以如果你看看GTC 你會發現它第一部分的很大部分 不是真正的AI 和AI無關 但這仍然很重要 我知道人工智能很有趣,很刺激。

但仍有很多人做非常重要的事, 他們不是唯一的計算方法 我們想幫助他們所有人。

德沃克什·帕特爾:
詹森 謝謝你。

黃詹森:
不客氣,我喜歡這對話。

[ 笑 ]原始链接]

QQlink

无加密后门,无妥协。基于区块链技术的去中心化社交和金融平台,让隐私与自由回归用户手中。

© 2024 QQlink 研发团队. 保留所有权利.