Litecoin

Strategi mengatasi gelembung AI. Apa yang kita lakukan dengan AI

2026/03/17 14:47
🌐id

LLM tiga paradigma leaps Agen drive dari alat ke sistem implementasi, dan saat ini masukan AI lebih dekat ke permintaan daripada busa

Strategi mengatasi gelembung AI. Apa yang kita lakukan dengan AI
Judul asli: Agent Over Bubbles
Asli oleh Ben Thompson, strategi
Foto oleh Peggy Block Beats

EDITOR: TERHADAP LATAR BELAKANG PEMANASAN TERUS DARI INVESTASI AI DAN NARASI INDUSTRI, KEBERADAAN GELEMBUNG TELAH MENJADI ISU UTAMA DISKUSI PASAR. DI SATU SISI, NARASI RISIKO EKSTRIM TELAH MEMPERKUAT KETAKUTAN AKAN KEHILANGAN KENDALI TEKNOLOGI; DI SISI LAIN, DENGAN CEPAT MEMPERLUAS PENGELUARAN MODAL DAN TINGKAT PENILAIAN TELAH MEMBUAT TEORI GELEMBUNG TETAP HIDUP. DI BAWAH PERBEDAAN INI, PENILAIAN PASAR MENUNJUKKAN KETIDAKPASTIAN YANG JELAS。

Ben Thompson, pendiri Science and Technology Analysis Platform Strategi, telah lama terfokus pada evolusi industri teknologi struktur dan model bisnis. Pada kesempatan pertemuan GTC 2026, ia merevisi penghakiman sebelumnya bahwa "AI dalam gelembung": bukannya melihatnya sebagai gelembung, ia memahaminya sebagai putaran pertumbuhan struktural didorong oleh perubahan paradigma teknologi。

Penilaian ini didasarkan pada pengamatan LLM tiga lompatan kunci. Sejak tahun 2022, ketika ChatGPT pertama kali menunjukkan kemampuannya untuk model bahasa-bahasa besar ke pasar, LLM telah berevolusi dari "tersedia tapi tidak dapat diandalkan" sampai "kompetitif" menjadi "mampu melaksanakan tugasnya". Secara khusus, pada akhir tahun 2025, dengan pembebasan Anthropic Opus 4.5 dan OpenAI GPT-5.2- Codex, beban kerja agentic mulai bergerak dari konsep ke kenyataan。

Kuncinya bukan model itu sendiri, tapi kemunculan "entharness". Agen mendekorasi pengguna dengan modelnya, bertanggung jawab untuk pergerakan model, memanggil alat dan memvalidasi hasilnya, dan mengubah AI dari alat yang membutuhkan intervensi terus-menerus ke sistem implementasi yang dapat menetapkan tugas. Perubahan ini tidak hanya meningkatkan daya tahan, tetapi juga memperluas batas aplikasi AI。

Berdasarkan pergeseran paradigma ini, penulis lebih lanjut mencatat bahwa ekspansi permintaan AI tidak lagi tergantung pada ukuran pengguna, tetapi lebih pada kemampuan dari pengguna unit untuk bergerak; pada saat yang sama, kehadiran "winner- for- semua" beban pada beban agloculmen akan terus meningkatkan permintaan untuk algoritma kinerja tinggi dan menyediakan kesempatan struktural untuk produsen dan penyedia awan。

DI BAWAH KERANGKA KERJA INI, PENGELUARAN MODAL SKALA BESAR SAAT INI TIDAK LAGI HANYA SEBUAH TARUHAN SPEKULATIF UNTUK MASA DEPAN, TAPI LEBIH MUNGKIN SEBUAH PREKURSOR UNTUK KEBUTUHAN NYATA. AS AI MOVES FROM "AID TOOLS" TO "IMPLEMENTATION INFRASTRUKTUR", ITS ECONOMIC IMPROVE MAY HAVE JUST STARTED TO APPEAR。

Berikut adalah teks asli:

Di masa lalu, saya lebih suka yang terakhir, dan bahkan berpikir bahwa busa tidak selalu buruk pada tahap tertentu。

NAMUN SAAT INI, SAAT SAYA DI PEMBUKAAN GTC PADA BULAN MARET 2026, DI INVERDA, PENILAIAN SAYA BERUBAH: ITU BUKANLAH GELEMBUNG BIASA. (IRONISNYA ADALAH BAHWA PENILAIAN ITU SENDIRI MUNGKIN SINYAL GELEMBUNG

LLM TIGA LOMPATAN PARADIGMA

DALAM BEBERAPA MINGGU TERAKHIR, KETIKA SAYA BERBICARA TENTANG INVERDA DAN ORACLE, SAYA BERULANG KALI MENYEBUTKAN BAHWA LLM TELAH MENGALAMI TIGA LOMPATAN KUNCI。

Tahap 1: ChatGPT

Poin pertama adalah rilis ChatGPT pada November 2022, yang hampir tidak perlu diulang. Meskipun sebuah model besar bahasa berdasarkan Transformer telah muncul pada awal 2017 dan terus meningkatkan kemampuannya, itu telah diremehkan untuk waktu yang lama. Bahkan pada Oktober 2022, dalam sebuah wawancara dengan strategi, saya berpendapat bahwa teknologi ini, meskipun luar biasa, kekurangan produktisasi dan motivasi kewirausahaan。

Tapi beberapa minggu kemudian, semuanya terbalik. ChatGPT membuat dunia benar-benar sadar untuk pertama kalinya kemampuan LLM。

Namun, versi sebelumnya juga terkesan oleh dua pengamatan, khususnya oleh "teori busa":

Pertama, model sering salah, bahkan ketika mereka tidak tahu jawabannya. Itu membuatnya lebih seperti "alat mempesona" yang luar biasa tapi tidak dapat diandalkan。

Kedua, masih sangat berguna bahkan kemudian, asalkan Anda tahu bagaimana menggunakannya dan bahwa Anda terus-menerus memverifikasi keluaran dan memperbaiki kesalahan。

tahap 2: o1

Titik balik kedua adalah model o1 yang diterbitkan pada September 2024 oleh OpenAI. Pada saat itu, LLM telah membuat kemajuan yang signifikan dengan model dasar yang lebih kuat dan teknik pelatihan pos, dengan hasil yang lebih akurat dan lebih sedikit halusinasi。

tapi terobosan kuncinya adalah bahwa "berpikir" dan kemudian jawaban。

LLM TRADISIONAL TERGANTUNG PADA JALAN, DAN SEKALI BERJALAN SALAH DALAM PENALARAN, ITU BERJALAN SALAH. INI ADALAH KELEMAHAN MENDASAR DARI MODEL KEMBALINYA DIRI. MODEL ALASAN, DI SISI LAIN, SENDIRI-MENILAI JAWABAN, DAN MENYEDIAKAN JAWABAN, MENILAI APAKAH ITU BENAR ATAU TIDAK, DAN JIKA PERLU, MENCOBA JALAN LAIN。

Ini berarti bahwa model mulai secara proaktif mengelola kesalahan dan mengurangi beban campur tangan pengguna. Hasilnya juga signifikan. Jika terobosan ChatGPT adalah "membiarkan LLM bekerja", maka terobosan O1 adalah "membuat LLM dapat diandalkan"。

Tahap 3: Agen (Opus 4.5 / Codex)

Pada akhir tahun 2025, lompatan ketiga dibuat。

Pada bulan November 2025, Anthropic dirilis Opus 4.5, awalnya resonansi datar. Tapi pada bulan Desember, Claude Code, yang membawa model, tiba-tiba menunjukkan kemampuan yang belum pernah terjadi sebelumnya; hampir secara bersamaan, OpenAI merilis GPT-5.2- Codex, menunjukkan tingkat serupa。

Orang-orang telah berbicara tentang "Agen" sebelumnya, tapi pada saat ini mereka akhirnya mulai benar-benar menyelesaikan tugas mereka, bahkan tugas yang kompleks yang mengambil jam, dan dilakukan dengan benar。

Kuncinya bukan pada model itu sendiri, tapi pada lapisan kontrol (harness), yang merupakan lapisan perangkat lunak dari model pergerakan, alat panggilan, proses eksekusi. Dengan kata lain, pengguna tidak lagi secara langsung mengoperasikan model tapi memberikan target, menggunakan model jadwal Agen, alat panggilan, proses eksekusi dan validasi hasil。

Ambil pemrograman sebagai contoh:

Kode generasi model

Model beralasan selama generasi

Tahap ketiga: Agen Generation Code Affences melakukan pengujian terhadap Adolf Auto- run melakukan pengujian pada Sooraj Replays jika salah, tanpa intervensi terus-menerus oleh pengguna。

Ini berarti bahwa kelemahan inti dari era ChatGPT sedang ditangani secara sistematis, dengan pembenaran yang lebih tinggi, penalaran yang lebih besar dan mekanisme validasi otomatis。

Satu-satunya pertanyaan yang tersisa adalah: apa yang harus kita lakukan dengan itu

Batas inisiatif jatuh

Saya telah berulang kali menekankan ketiga poin ini untuk menjelaskan mengapa seluruh industri menderita defisit serius kapasitas dan mengapa pengeluaran modal berlebihan dibenarkan。

Ada tiga paradigma di mana kebutuhan untuk komputasi benar-benar berbeda:

Tahap I: pelatihan kalkulator-intensif, dengan biaya penalaran yang lebih rendah

tahap ii: meningkatkan biaya penalaran (lebih banyak token + frekuensi penggunaan)

Tahap 3 (Agen): Beberapa panggilan untuk alasan model, Agen sendiri mengkonsumsi kalkulus (atau bahkan nikmat CPU), menggunakan frekuensi untuk ledakan lebih lanjut

Tapi yang lebih penting, poin ketiga adalah bahwa perubahan dalam struktur permintaan serius diremehkan。

Saat ini, ada lebih banyak orang menggunakan robot obrolan daripada orang-orang menggunakan Agen, dan banyak orang tidak benar-benar menggunakan AI. Hal ini karena penggunaan AI membutuhkan "aktivitasnya". LLM adalah alat yang tidak memiliki tujuan, tidak akan, tetapi dipanggil atas inisiatif sendiri。

Tapi Agen mengubah itu, dan mengurangi permintaan untuk inisiatif manusia. Di masa depan, seseorang dapat memerintah beberapa Agen。

Ini berarti bahwa bahkan sebagian kecil orang cukup "aktif" untuk menghasilkan kebutuhan komputasi besar dan keluaran ekonomi。

AI MASIH PERLU "DIDORONG" TAPI TIDAK ADA LAGI "MANUSIA"。

Pembalap untuk perusahaan

KEINGINAN TERBATAS DARI PIHAK KONSUMEN UNTUK MEMBAYAR AI TELAH MENJADI JELAS. INI ADALAH BISNIS YANG BENAR-BENAR BERSEDIA UNTUK MEMBAYAR PRODUKTIVITAS。

HAL YANG PALING MENARIK BAGI BISNIS BUKAN HANYA AI UNTUK MENINGKATKAN EFISIENSI, TETAPI AI UNTUK MENGGANTIKAN TENAGA KERJA DAN MENJADI LEBIH EFISIEN。

Kenyataannya adalah seringkali beberapa perusahaan besar mendorong bisnis maju, namun organisasi itu besar, dengan biaya koordinasi yang signifikan. Peran Agen adalah untuk memperbesar pengaruh dari "orang-orang didorong nilai" sementara mengurangi gesekan organisasi。

Hasilnya adalah "jumlah orang yang lebih kecil, keluaran yang lebih tinggi, biaya yang lebih rendah". Itulah mengapa PHK di masa depan mungkin lebih dari "penyesuaian siklus" tapi perubahan struktural。

PERUSAHAAN AKAN MEMIKIRKAN KEMBALI TIDAK HANYA APAKAH ADA BANYAK ORANG DALAM WABAH INI, TETAPI JUGA APAKAH KITA TIDAK PERLU BEGITU BANYAK DI ERA AI

Mengapa tidak busa ini

Dari perspektif ini, logika "bukan busa" lebih jelas:

KELEMAHAN INTI LLM SEDANG TERUS-MENERUS DITANGANI OLEH ALGORITMA DAN ARSITEKTUR

2, jumlah orang yang mengemudi semakin menurun

Keuntungan Agen bukan hanya setetes, tapi keuntungan

Oleh karena itu tidak sulit untuk memahami mengapa semua produsen awan mengatakan bahwa kapasitas untuk menghitung adalah singkat permintaan dan pengeluaran modal yang terus meningkat secara signifikan。

Agen Rekonstruksi Rantai Nilai

Pertanyaan kunci lainnya adalah, jika model pada akhirnya termodifikasi, apakah OpenAI dan Anthropic dapat menghasilkan uang

Pandangan tradisional tidak, tapi Agen mengubah itu. Intinya adalah bahwa nilai sebenarnya tidak ada dalam model itu sendiri, tetapi dalam integrasi Sistem Kendali Model +。

Keuntungan cenderung mengalir ke "lapisan integrasi" daripada modul alternatif. Seperti apel, perangkat keras tidak dimodifikasi karena terintegrasi dengan perangkat lunak. Demikian pula, Agen membutuhkan kedalaman sinergi antara model dan Harness, yang membuat OpenAI dan Anthropic penggabungan kunci dalam rantai nilai bukan alternatif。

shift Microsoft adalah tanda bahwa itu menekankan "model dapat diganti" tapi harus menyerah ketika produk Agen sebenarnya diluncurkan。

Ini berarti model tidak sepenuhnya termodifikasi, karena Agen membutuhkan kemampuan integrasi。

Paradoks terakhir

Aku harus kembali ke paradoks itu。

Saya selalu berpikir bahwa selama semua orang khawatir tentang gelembung, mereka tidak gelembung; gelembung yang sebenarnya adalah ketika tidak ada yang mempertanyakan mereka。

Dan sekarang kesimpulan saya adalah ini bukan gelembung。

Tapi jika "Aku bilang itu tidak gelembung" itu sendiri, itu terbukti busa, itu saja。

[Terkekeh]Tautan Asli]

QQlink

암호화 백도어 없음, 타협 없음. 블록체인 기술 기반의 탈중앙화 소셜 및 금융 플랫폼으로, 사용자에게 프라이버시와 자유를 돌려줍니다.

© 2024 QQlink R&D 팀. 모든 권리 보유.