Litecoin

Keterampilan ilmu teknologi mengubah gelembung AI. Apa yang kita lakukan dengan AI

2026/03/17 14:49
🌐ms

Belompatan tiga paradigma LLM Melompat Agen drive dari alat ke sistem implementasi, dan input AI saat ini lebih dekat ke permintaan daripada busa

Keterampilan ilmu teknologi mengubah gelembung AI. Apa yang kita lakukan dengan AI
Judul asli: Agen Over Bubbles
Asli oleh Ben Thompson, Stratechery
Foto oleh Peggy Block Beats

EDITOR: TERHADAP LATAR BELAKANG PEMANASAN BERKELANJUTAN DARI INVESTASI AI DAN NARASI INDUSTRI, KEBERADAAN GELEMBUNG TELAH MENJADI ISU SENTRAL DARI DISKUSI PASAR. DI SATU SISI, NARASI RISIKO EKSTRIM TELAH MEMPERKUAT KETAKUTAN TEKNOLOGI KEHILANGAN KONTROL; DI SISI LAIN, CEPAT MEMPERLUAS PENGELUARAN MODAL DAN TINGKAT VALUASI TELAH MENJAGA TEORI GELEMBUNG HIDUP. DI BAWAH PERBEDAAN INI, PENILAIAN PASAR MENUNJUKKAN KETIDAKPASTIAN YANG JELAS。

. Dia adalah pendiri dari Sains dan Teknologi Analisis Platform Stratechery, telah lama berfokus pada evolusi struktur industri teknologi dan model bisnis. Pada kesempatan pertemuan GTC 2026, ia merevisi penilaian sebelumnya bahwa "AI berada dalam gelembung": alih-alih melihatnya sebagai gelembung, ia memahaminya sebagai putaran pertumbuhan struktural yang didorong oleh perubahan paradigma teknologi。

Penilaian ini didasarkan pada pengamatan LLM tiga lompatan kunci. Sejak tahun 2022, ketika ChatGPT pertama kali mempertunjukkan kemampuannya untuk memodelkan bahasa-bahasa besar ke pasar, LLM telah berkembang dari \"tersedia tetapi tidak dapat diandalkan\" menjadi \"tersedia\" untuk \"mampu melaksanakan tugasnya\". Secara khusus, pada akhir tahun 2025, dengan dikeluarkannya Antropic Opus 4.5 dan OpenAI GPT-5-52-Codex, beban kerja agentik mulai berpindah dari konsep ke realitas。

Kuncinya bukan model itu sendiri, tapi munculnya "entharness". Agena lafoda mendekorasi pengguna dengan model, bertanggung jawab atas pergerakan model, memanggil alat dan memvalidasi hasil, dan mengubah AI dari alat yang membutuhkan intervensi manusia secara terus menerus ke sistem implementasi yang dapat menetapkan tugas. Perubahan ini tidak hanya meningkatkan keandalan, tetapi juga memperluas batas aplikasi AI。

Berdasarkan pergeseran paradigma ini, penulis lebih lanjut mencatat bahwa ekspansi permintaan AI tidak lagi bergantung pada ukuran pengguna, tetapi lebih pada kemampuan pengguna unit untuk bergerak; pada saat yang sama, kehadiran sebuah "winner-for-all" beban pada beban aglomerasi akan terus meningkatkan permintaan algoritme kinerja tinggi dan memberikan peluang struktural bagi produsen chip dan penyedia layanan cloud。

DI BAWAH KERANGKA KERJA INI, PENGELUARAN MODAL SKALA BESAR SAAT INI TIDAK LAGI HANYA TARUHAN SPEKULATIF UNTUK MASA DEPAN, TETAPI LEBIH MUNGKIN PREKURSOR UNTUK KEBUTUHAN NYATA. SEBAGAI AI BERGERAK DARI "AID TOOLS" KE "IMMPLEMENTASI INFRASTRUKTUR", DAMPAK EKONOMINYA MUNGKIN BARU SAJA MULAI MUNCUL。

Berikut ini adalah teks asli:

Dulu, saya lebih suka yang terakhir, dan bahkan berpikir bahwa busa tidak selalu buruk pada tahap tertentu。

TAPI PADA SAAT INI, SAAT SAYA BERADA DI PEMBUKAAN GTC PADA MARET 2026, DI INVERDA, PENILAIAN SAYA BERUBAH: ITU TIDAK HARUS GELEMBUNG. (IRONINYA ADALAH BAHWA PENGHAKIMAN ITU SENDIRI MUNGKIN PERSIS SINYAL GELEMBUNG

*LLM 3 LOMPATAN PARADIGMA *

DALAM BEBERAPA MINGGU TERAKHIR, KETIKA SAYA BERBICARA TENTANG INVERDA DAN ORACLE, SAYA BERULANG KALI MENYEBUTKAN BAHWA LLM TELAH MENJALANI TIGA LOMPATAN KUNCI。

Fasa 1: ChatGPT

Poin pertama adalah rilis ChatGPT pada November 2022, yang hampir tidak perlu diulang. Meskipun model besar-bahasa berdasarkan Transformer telah muncul sejak tahun 2017 dan terus meningkatkan kemampuannya, telah diremehkan untuk waktu yang lama. Bahkan pada bulan Oktober 2022, dalam sebuah wawancara dengan Stratechery, saya berpendapat bahwa teknologi ini, meskipun luar biasa, kurang produkisasi dan motivasi kewirausahaan。

Tapi beberapa minggu kemudian, semuanya terbalik. Woather ChatGPT membuat dunia benar-benar sadar untuk pertama kalinya kemampuan LLM。

Namun, versi sebelumnya juga terkesan oleh dua pengamatan, khususnya oleh teori "foam":

Pertama, model sering salah, bahkan ketika mereka tidak tahu jawabannya. Ini membuatnya lebih seperti alat yang menakjubkan - itu menakjubkan tapi tidak dapat diandalkan。

Kedua, itu masih sangat berguna bahkan kemudian, asalkan Anda tahu bagaimana menggunakannya dan bahwa Anda terus-menerus memverifikasi keluaran dan memperbaiki kesalahan。

fasa 2: o1

Titik balik kedua adalah model o1 yang diterbitkan pada September 2024 oleh OpenAI. Pada waktu itu, LLM telah membuat kemajuan signifikan dengan model dasar yang lebih kuat dan teknik pasca-latihan, dengan output yang lebih akurat dan lebih sedikit halusinasi。

tapi terobosan kunci adalah bahwa itu "berpikir" dan kemudian jawaban。

LLM TRADISIONAL BERGANTUNG PADA JALAN, DAN SETELAH BERJALAN SALAH DALAM PENALARAN, ITU BERJALAN SALAH. INI ADALAH KELEMAHAN MENDASAR DARI MODEL KEMBALI DIRI. SEBALIKNYA, MODEL PENALARAN YANG BERNALAR, DI SISI LAIN, MENILAI SENDIRI JAWABANNYA, DAN MEMBERIKAN JAWABAN, MENILAI APAKAH ITU BENAR ATAU TIDAK, DAN JIKA PERLU, COBA JALAN LAIN。

Ini berarti bahwa model mulai secara proaktif mengelola kesalahan dan mengurangi beban intervensi pengguna. Hasilnya juga signifikan. Jika terobosan Wourd ChatGPT adalah "membiarkan LLM bekerja," maka terobosan O1 adalah "membuat LLM dapat diandalkan"。

Fasa 3: Agen (Opus 4.5 / Codex)

Pada akhir tahun 2025, sebuah lompatan ketiga dilakukan。

Pada November 2025, Anthropic merilis Opus 4.5, awalnya beresonansi rata. Namun pada bulan Desember, Claude Code, yang membawa model, tiba-tiba menunjukkan kemampuan yang belum pernah terjadi sebelumnya; hampir secara bersamaan, OpenAI merilis GP0-5.2-Codex, menunjukkan tingkat yang sama。

Orang-orang telah berbicara tentang \"Agent\" sebelumnya, tetapi pada saat ini mereka akhirnya mulai benar-benar menyelesaikan tugas mereka, bahkan tugas yang kompleks yang membutuhkan waktu berjam-jam, dan dilakukan dengan benar。

Kuncinya bukan dalam model itu sendiri, melainkan pada lapisan kontrol (harness), yaitu lapisan perangkat lunak dari model pergerakan, alat panggilan, proses eksekusi. Dengan kata lain, pengguna tidak lagi beroperasi secara langsung model tetapi menyampaikan target, menggunakan model jadwal Agen, alat panggilan, proses eksekusi dan validasi hasil。

Contoh:

Fasa 1: Kode generasi model

Fase II: Model beralasan selama generasi

Fase ke-3: Kode Generasi Agen → Lakukan pengujian → Pengujian Lari-sendiri → Replay jika salah, tanpa intervensi berkelanjutan oleh pengguna。

Ini berarti bahwa kekurangan inti dari era ChatGPT sedang dialamatkan secara sistematis, dengan kebetulan yang lebih tinggi, penalaran yang lebih besar dan mekanisme validasi otomatis。

Pertanyaan yang tersisa adalah: Apa yang harus kita lakukan dengan itu

Ambang inisiatif jatuh

Saya telah berulang kali menekankan ketiga poin ini untuk menjelaskan mengapa seluruh industri menderita kekurangan kapasitas yang serius dan mengapa pengeluaran modal yang berlebihan dibenarkan。

Ada tiga paradigma di mana kebutuhan untuk komputasi benar-benar berbeda:

Fase I: pelatihan kalkulator-intensif, dengan biaya penalaran yang lebih rendah

tahap ii: mengeluarkan biaya penalaran (lebih banyak token + lebih banyak frekuensi penggunaan)

Phase 3 (Agen): Beberapa panggilan ke model penalaran, Agen sendiri mengkonsumsi kalkulus (atau bahkan nikmat CPU), menggunakan frekuensi untuk ledakan lebih lanjut

Namun yang lebih penting lagi, poin ketiga adalah perubahan struktur permintaan sangat diremehkan。

Saat ini, ada lebih banyak orang menggunakan robot chat daripada orang yang menggunakan Agen, dan banyak orang tidak benar-benar menggunakan AI. Ini karena penggunaan AI membutuhkan "keaktifan". LLM tifikat adalah alat yang tidak mempunyai tujuan, kehendak, tetapi disebut atas inisiatif sendiri。

Tapi Agen berubah itu, dan itu mengurangi permintaan untuk inisiatif manusia. Di masa depan, seseorang dapat memerintahkan beberapa Agen。

Ini berarti bahwa bahkan sejumlah kecil orang ” cukup aktif ” untuk menghasilkan kebutuhan komputasi dan keluaran ekonomi yang besar。

AI MASIH PERLU MENJADI "MAN-DRIVEN" TETAPI TIDAK LEBIH "MAN-PEOPLE"。

Pengemudi yang dibayar oleh perusahaan

KESEDIAAN YANG TERBATAS DARI PIHAK KONSUMEN UNTUK MEMBAYAR AI TELAH MENJADI JELAS. INI ADALAH BISNIS YANG BENAR-BENAR BERSEDIA UNTUK MEMBAYAR PRODUKTIVITAS。

HAL YANG PALING MENARIK BAGI BISNIS BUKAN HANYA AI UNTUK MENINGKATKAN EFISIENSI, TETAPI AI UNTUK MENGGANTIKAN TENAGA KERJA DAN MENJADI LEBIH EFISIEN。

Kenyataannya adalah bahwa sering kali beberapa perusahaan besar yang benar-benar mendorong bisnis maju, tetapi organisasi besar, dengan biaya koordinasi yang signifikan. Peran Agen-agen adalah untuk mengagungkan pengaruh "nilai-mengacu orang" sementara mengurangi gesekan organisasi。

Hasilnya adalah "jumlah orang yang lebih kecil, output yang lebih tinggi, biaya yang lebih rendah." Itulah sebabnya mengapa PHK di masa depan kemungkinan besar lebih dari "perubahan ensiklik" tetapi perubahan struktural。

PERUSAHAAN AKAN MEMIKIRKAN KEMBALI TIDAK HANYA APAKAH ADA BANYAK ORANG DALAM EPIDEMI, TETAPI JUGA APAKAH KITA TIDAK PERLU BEGITU BANYAK DI ERA AI

Kenapa bukan busa ini

Dari sudut pandang ini, logika "bukan busa" lebih jelas:

1. KELEMAHAN INTI LLM SEDANG TERUS-MENERUS DITUJUKAN OLEH ALGORITME DAN ARSITEKTUR

Jumlah orang yang mengemudi jatuh

Kepentingan Agen bukan sekedar penurunan, tapi keuntungan

Oleh karena itu, tidak sulit untuk memahami mengapa semua produsen awan mengatakan bahwa kapasitas untuk menghitung adalah kekurangan permintaan dan bahwa pengeluaran modal terus meningkat secara signifikan。

Agen Agen Rekonstruksi Rantai Nilai

Pertanyaan penting lainnya adalah, jika model akhirnya berkomodifikasi, dapatkah OpenAI dan Antropik menghasilkan uang

Pandangan tradisional tidak, tapi Agen mengubah itu. Intinya adalah nilai sebenarnya bukan pada model itu sendiri, tetapi pada integrasi Model + Control System。

Keunggulan-keuntungan cenderung mengalir ke lapisan "integrasi" alih-alih modul alternatif. Seperti apel, perangkat kerasnya tidak terkomodifikasi karena terintegrasi dengan perangkat lunak. Demikian pula, Agen membutuhkan kedalaman sinergi antara model dan Harness, yang membuat OpenAI dan antropik kunci terintegrasi dalam rantai nilai daripada alternatif。

Pergeseran Microsoft adalah sebuah tanda bahwa itu telah menekankan "model dapat diganti" tetapi harus menyerah ketika produk Agen yang sebenarnya diluncurkan。

Ini berarti bahwa model belum tentu sepenuhnya terkomodifikasi, karena Agen membutuhkan kemampuan integrasi。

Paradoks terakhir

Aku harus kembali ke paradoks itu。

Saya selalu berpikir bahwa selama semua orang khawatir tentang gelembung, mereka bukan gelembung; gelembung yang sebenarnya adalah ketika tidak ada yang mempertanyakan mereka。

Dan sekarang kesimpulan saya adalah bahwa ini bukan gelembung。

Tapi jika "aku bilang itu bukan gelembung" itu sendiri, itu terbukti menjadi busa, itu saja。

[Terkekeh]Bahasa Asli]

QQlink

無加密後門,無妥協。基於區塊鏈技術的去中心化社交和金融平台,讓私隱與自由回歸用戶手中。

© 2024 QQlink 研發團隊. 保留所有權利.