Stratechery는 AI 거품을 과시합니다. 우리는 AI로 무엇을 합니까
LLM 3 패러다임은 도구에서 구현 시스템에 이르기까지 드라이브 에이전트를 밝히고 현재 AI 입력은 폼보다 더 가깝습니다

Original title: 버블 위에 에이전트
Ben Thompson, Stratechery의 원래
Peggy Block Beats의 사진
편집자: AI 투자 및 산업 NARRATIVES의 지속적인 온난화의 배경에 대하여, 거품의 존재는 시장의 토론의 중앙 문제점이 되었습니다. 한 손으로, 극단적 인 위험 NARRATIVES는 통제를 잃는 기술의 두려움을 강화했습니다; 다른 한편으로는, 급속하게 자본 지출과 VALUATION 수준을 확장하는 것은 거품 이론을 살아 놓았습니다. 이 다이빙에서, 시장 판단은 명백한 불확실성을 보여줍니다。
과학 및 기술 분석 플랫폼 Stratechery의 창시자 인 Ben Thompson은 기술 산업 구조 및 비즈니스 모델의 진화에 중점을두고 있습니다. GTC 2026 회의의 경우, 그는 "AI가 거품에 있음"라는 초기 판단을 수정했습니다. 대신 거품으로보고, 그는 기술 패러다임 변경에 의해 구동 구조적 성장의 라운드로 이해했습니다。
이 판단은 LLM 3개의 핵심 도약의 관측을 기반으로 합니다. 2022년, ChatGPT가 처음 출시될 때, LLM은 “사용할 수 없는”에서 “사용할 수 없는”로 “사용할 수 있는”에서 “작업을 실행할 수 있는”로 진화했습니다. 특히 Anthropic Opus 4.5 및 OpenAI GPT-5.2-Codex의 출시와 함께 2025의 끝에서 에이전트 워크로드는 개념에서 현실로 이동합니다。
키는 모델 자체가 아니라 "entharness"의 출현입니다. 에이전트는 모델과 사용자를 장식, 모델의 움직임에 책임, 도구 호출 및 결과를 검증, 및 작업 할당 할 수있는 구현 시스템에 지속적인 인간 개입을 필요로하는 도구에서 AI를 변환. 이 변화는 신뢰성뿐만 아니라 AI 애플리케이션 경계를 확장합니다。
이 패러다임 이동을 기반으로, 저자는 더 이상 AI 수요의 확장이 사용자의 크기에 따라 달라지지만, 단위 사용자의 능력에 더 이동; 동시에, agglomeration 부하에 "winner-for-all" 부하의 존재는 고성능 알고리즘에 대한 수요를 늘리고 칩 제조업체 및 클라우드 서비스 제공 업체를위한 구조적 기회를 제공합니다。
이 프레임 워크에서, 현재 대규모 자본 지출은 더 이상 미래에 대한 SPECULATIVE 베팅이 아니라 실제적인 필요에 더 많은 가능성이 있습니다. AI가 "AID TOOLS"에서 "IMPLEMENTATION INFRASTRUCTURE"로 이동함에 따라 경제적 영향은 나타나기 시작할 수 있습니다。
다음은 원본 텍스트입니다:
과거에, 나는 후자를 선호, 심지어 거품은 반드시 특정 단계에서 악화되지 않았다 생각。
그러나이 순간에 나는 3 월 2026에서 GTC의 오프닝에 있었다, INVERDA에서, 내 판단은 변경 : 그것은 반드시 거품이 아니에요. (철은 심판 자체가 거품의 신호를 정확히 할 수 있다는 것입니다
LLM 3 패러다임 도약
지난 몇 주 동안, 나는 INVERDA와 ORACLE에 대해 이야기했을 때, 나는 LLM이 3 개의 핵심 도약을 겪고 있다고 반복적으로 언급했다。
단계 1: ChatGPT
첫 번째 점은 11 월 2022에서 ChatGPT의 출시였습니다. 즉 반복되어야합니다. 변압기에 근거를 둔 큰 언어 모형이 2017년 초로 나타나고 그것의 기능을 개량하기 위하여 계속되더라도, 그것은 장시간을 위해 견적되었습니다. 심지어 10 월 2022, Stratechery와의 인터뷰에서, 나는이 기술이라고 argued, 놀랍고 부족한 제품화 및 기업가 동기。
그러나 몇 주 후에, 모든 것은 아래로 돌렸다. ChatGPT는 LLM의 기능의 첫 번째 시간 동안 세계를 진정으로 인식합니다。
그러나, 이전 버전은 또한 두 개의 관측에 의해 감명되었다, 특히에 의해 "폼 이론":
첫째, 모델은 종종 잘못 갈 때도 대답을 알 수 없습니다. 그것은 놀랍지 만 신뢰할 수있는 "dazzling tool"처럼 더 만듭니다。
둘째로, 그것은 여전히 매우 유용합니다, 당신이 그것을 사용하는 방법을 알고 당신이 지속적으로 출력을 확인하고 오류를 수정。
단계 2: o1
두 번째 도는 점은 OpenAI에 의해 9 월 2024에서 출판 된 o1 모델입니다. 그 시간에, LLM은 더 정확한 산출과 더 적은 Hallucinations와 더불어 강한 기본적인 모형 및 포스트 훈련 기술을 가진 뜻깊은 진도를 만들었습니다。
그러나 중요한 돌파구는 "think"및 그 후 답변입니다。
전통적인 LLM은 경로에 따라 달라지고, 한 번 생각에서 잘못됩니다. 이것은 자기 회전 모델의 기본 약점입니다. 다른 한편으로는 자택의 모델, 자택은 답변을 얻고, 정확하거나 그렇지 않다는 것을 판단하고, 필요한 경우 다른 길을 시도합니다。
이 모델은 오류를 관리하고 사용자 개입의 부담을 줄일 수 있음을 의미합니다. 결과도 중요합니다. ChatGPT의 돌파구가 "letting LLM work"인 경우 O1의 돌파구는 신뢰할 수있는 LLM입니다。
3 단계 : 에이전트 (Opus 4.5 / 코덱)
2025년 말에 세 번째 도약이 이루어졌습니다。
11 월 2025에서 Anthropic은 Opus 4.5를 출시했습니다. 처음에는 평평하게 빚어냅니다. 그러나 12 월, Claude 코드, 누가 모델을 수행, 갑자기 unprecedented 기능을 보여; 거의 동시에, OpenAI는 GPT-5.2-Codex를 출시, 유사한 수준을 보여주는。
사람들은 이전에 "Agent"에 대해 이야기했지만,이 순간에 그들은 마침내 자신의 작업을 수행하기 시작했다, 심지어 시간이 걸리는 복잡한 작업을 수행, 그리고 제대로 수행됩니다。
열쇠는 모형 자체에서 아닙니다, 그러나 통제 층 (하네스)에서, 운동 모형의 소프트웨어 층인, 통화 공구, 실행 과정입니다. 다른 말에서는, 사용자는 더 이상 직접 모형을 운영하고 그러나 표적을, 대리인 일정 모형을 사용하여, 호출 공구, 실행 과정 및 결과의 유효성을 전달합니다。
예제로 프로그래밍을 가져 오기 :
단계 1: 모형 세대 부호
단계 II: 모형은 세대 도중 주장됩니다
3 단계 : 에이전트 생성 코드 → 테스트 수행 → 자동 실행 테스트 → 사용자의 연속 개입없이 잘못된 경우 재생。
이것은 ChatGPT 시대의 핵심 결함이 체계적으로 해결되고, 더 높은 정정, 더 중대한 소원 및 자동적인 검증 기계장치로 인한다는 것을 의미합니다。
나머지 질문은 다음과 같습니다. 우리는 무엇을해야합니까
이니셔티브의 문턱이 떨어지는 것입니다
이 세 가지 점을 반복적으로 강조했습니다. 전체 산업이 용량의 심각한 편향과 과도한 자본 지출이 단화되는 이유를 설명하기 위해。
컴퓨팅이 완전히 다른 것을 필요로하는 3개의 패러다임이 있습니다:
• 단계 I: 계산기 집중 훈련, 더 낮은 소원 비용
단계 ii: 소싱 비용 (더 많은 토큰 + 사용의 주파수)
단계 3 (Agent): 모형을 이유에 다중 통화, 대리인 자체는 calculus를 소모합니다 (또는 CPU 조차), 더 폭발을 위한 빈도를 이용합니다
그러나 더 중요하게, 제 3의 점은 수요의 구조에서 심각하게 변화한다는 것입니다。
현재, 에이전트를 사용하는 사람들보다 채팅 로봇을 사용하여 훨씬 더 많은 사람들이 있고, 많은 사람들이 AI를 사용하고 있지 않습니다. AI의 사용은 "activeness"를 요구합니다. LLM은 목적이 없던 도구이지만, 그 자체 이니셔티브에 호출됩니다。
그러나 에이전트는 그 변경, 그리고 그것은 인간의 이니셔티브에 대한 수요를 감소. 앞으로, 사람이 여러 에이전트를 명령 할 수 있습니다。
이것은 작은 수의 사람들이 거대한 컴퓨팅 요구와 경제 산출을 생성하는 충분한 "active"이다는 것을 의미합니다。
AI는 여전히 "MAN-DRIVEN"이어야하지만 더 이상 "MAN-PEOPLE"。
기업용 유료 드라이버
AI를 지불하는 소비자 측의 한정된 WILLINGNESS는 명확합니다. 그것은 실제로 생산성을 지불하는 것이 사업입니다。
기업을위한 가장 흥미로운 것은 효율성 향상뿐만 아니라 AI는 인력을 대체하고 더 효율적으로 할 수 없습니다。
현실은 실제로 비즈니스를 앞으로 밀어 큰 회사에서 종종 몇 가지이지만, 조직은 크게 중요한 조정 비용으로. 에이전트의 역할은 조직 마찰을 줄이기 위해 "value-driven people"의 영향을 확대하는 것입니다。
결과는 "사람의 더 작은 수, 더 높은 산출, 더 낮은 비용"입니다. 그 때문에 미래의 layoffs는 "순환 조정"보다 더 가능성이 있지만 구조적 변화。
회사는 전염병에 있는 많은 사람들이 있다는 것을 뿐만 아니라, 또한 우리가 AI 시대에서 이렇게 많은 필요로 하지 않는지
왜 이 거품이 아닙니다
이 관점에서, "not foam"의 논리는 더 명확합니다
1. LLM의 핵심 약점은 알고리즘과 아키텍처에 의해 지속적으로 해결되고 있습니다
2. 수요를 모는 사람들의 수는 떨어지는
에이전트의 이익은 단지 드롭이 아니지만 이득
따라서 모든 클라우드 제조업체가 계산 할 수있는 용량이 짧은 수요와 그 자본 지출이 크게 증가하는 것을 이해하는 것은 어렵습니다。
에이전트 Reconstructing Value Chains
또 다른 키 질문은, 모델이 결국 commodified 경우, OpenAI 및 Anthropic은 돈을 벌 수 있습니까
전통적인 전망은 아니지만 에이전트가 변경되었습니다. 이 점은 실제 값은 모델 자체가 아니라 Model + Control System의 통합에 없습니다。
이익은 대안 단위 보다는 오히려 "integration 층"에 교류 경향이 있습니다. 사과와 같이, 그것의 기계설비는 소프트웨어도 통합되기 때문에 통일되지 않습니다. 마찬가지로, 에이전트는 모델과 하네스 사이의 시너지의 깊이를 필요로하며, 이는 OpenAI와 Anthropic key Integratrs를 대신하는 값 체인으로 만듭니다。
Microsoft의 이동은 "모델이 교체 될 수 있음을 강조했지만 실제 에이전트 제품이 출시 될 때 포기해야했습니다。
에이전트가 통합 기능을 필요로하기 때문에 모델이 반드시 완전히 통일되지 않다는 것을 의미합니다。
마지막 paradox
나는 그 paradox로 돌아가야한다。
나는 항상 모든 사람이 거품에 대해 걱정하고 있다고 생각, 그들은 거품이 없었다; 실제 거품은 아무도 의심 할 때이었다。
그리고 이제 내 결론은 이것이 거품이 아닙니다。
그러나 "나는 거품이 없었다"고 말했다면, 그것은 거품이 될 증명, 그게 전부입니다。
[ 척 ]원본 링크]
