Litecoin

สตราเทครี่ทําลายฟองอากาศ AI เราจะทํายังไงกับปัญญาประดิษฐ์

2026/03/17 14:50
🌐th

The ILM 3 Profiles dive agent from play to oplication System และข้อมูล AI ปัจจุบันนั้นใกล้เคียงกับความต้องการมากกว่าโฟม

สตราเทครี่ทําลายฟองอากาศ AI เราจะทํายังไงกับปัญญาประดิษฐ์
ชื่อเดิม: Agent Over Flubs
โดย เบน ทอม ป์ สัน ส ตรา เทค รี่
รูปของเพ็กกี้ บล็อค บีทส์

บรรณาธิการ: เมื่อเทียบกับฉากหลังของ ความขัดแย้งเอไออย่างต่อเนื่อง และการเล่าเรื่องเชิงอุตสาหกรรม การดํารงอยู่ของฟองสบู่ได้กลายเป็นประเด็นหลักของการอภิปรายในตลาด ใน ด้าน หนึ่ง การ เล่า เรื่อง เกี่ยว กับ ความ เสี่ยง สูง ได้ เสริม ความ กลัว เกี่ยว กับ การ ควบคุม เทคโนโลยี; อีก ด้าน หนึ่ง การ จ่าย เงิน และ ระดับ การ ประเมิน อย่าง รวด เร็ว ทํา ให้ ทฤษฎี ฟอง ยัง คง มี ชีวิต อยู่. ภายใต้ไดเวอร์เจนซ์นี้ การตัดสินตลาดแสดงให้เห็นความไม่แน่นอนอย่างชัดเจน。

เบน ทอม ป์ สัน ผู้ ก่อ ตั้ง สถาบัน วิทยาศาสตร์ และ เทคโนโลยี แพลตฟอร์ม ส ตรา เทค รี ได้ มุ่ง ความ สนใจ มา นาน แล้ว ใน เรื่อง วิวัฒนาการ ของ โครง สร้าง อุตสาหกรรม เทคโนโลยี และ แบบ ธุรกิจ. ในโอกาสของการประชุม GTC 2026 เขาแก้ไขคําตัดสินก่อนหน้านี้ของเขาว่า "AI อยู่ในฟองสบู่" แทนการมองว่าเป็นฟองอากาศ เขาเข้าใจว่ามันเป็นรอบของการเจริญเติบโตของโครงสร้าง ที่ขับเคลื่อนโดยการเปลี่ยนแปลงทางเทคโนโลยี。

คําตัดสินนี้ขึ้นอยู่กับการสังเกตของ LLM สามก้าวสําคัญ ตั้งแต่ปี 2022 เมื่อแชตจีพีทีได้แสดงความสามารถในการจําลองภาษาใหญ่ๆให้แก่ตลาดครั้งแรก แอลแอลเอ็มได้วิวัฒนาการจาก "ความจุได้แต่เชื่อถือไม่ได้" ไปเป็น "ความสามารถ" เพื่อให้ “สามารถดําเนินงานได้สําเร็จ" โดยเฉพาะอย่างยิ่ง ในช่วงปลายปี 2025 โดยมีการปล่อย Anthoric Opus Buberg และ OpenAI GPT-5-5.2-Codex。

กุญแจไม่ใช่แบบจําลอง แต่เป็นการปรากฏตัวของ "ความเป็นกลาง" ตัวแทนตกแต่งผู้ใช้ด้วยโมเดล มีหน้าที่รับผิดชอบการเคลื่อนไหวของโมเดล เรียกเครื่องมือและตรวจสอบผลลัพธ์ การเปลี่ยนแปลงนี้ไม่เพียงแต่เพิ่มความน่าเชื่อถือ แต่ยังขยายขอบเขตของ AI ด้วย。

อ้างอิงจากการเปลี่ยนตัวอย่างนี้ ผู้เขียนบันทึกเพิ่มเติมว่า การขยายตัวของ AI ไม่ขึ้นอยู่กับขนาดของผู้ใช้อีกต่อไป แต่ขึ้นอยู่กับความสามารถของผู้ใช้หน่วยที่จะย้าย; ในเวลาเดียวกัน การมีการโหลด "winner-fall" บนตัวโหลด AI จะยังคงการเพิ่มความต้องการสําหรับอัลกอริทึมที่มีประสิทธิภาพสูง และเพิ่มโอกาสโครงสร้างสําหรับผู้ผลิตชิปและผู้ให้บริการเมฆ。

ภายใต้กรอบนี้ ค่าใช้จ่ายขนาดใหญ่ในปัจจุบัน ไม่เพียงแต่การวางเดิมพันสําหรับอนาคต เมื่อ AI ย้ายจาก "เครื่องมือเสริม" ไปเป็น "โครงสร้างพื้นฐานการเติมเต็ม" ผลกระทบทางเศรษฐกิจของมันอาจเริ่มปรากฏขึ้น。

ต่อ ไป นี้ เป็น ข้อ ความ เดิม:

ใน อดีต ผม ชอบ แบบ หลัง มาก กว่า และ ถึง กับ คิด ว่า ฟอง อากาศ ก็ ใช่ ว่า จะ ไม่ ดี เสมอ ไป ใน บาง ระยะ。

แต่ในขณะนั้น ขณะที่ผมอยู่ที่การเปิด GTC ในเดือนมีนาคม 2026 ในอินเวอร์ดา คําตัดสินของผมได้เปลี่ยนแปลง: มันไม่จําเป็นต้องเป็นฟองสบู่ ( ที่ น่า ขัน ก็ คือ การ พิพากษา นั้น เอง อาจ เป็น สัญญาณ ของ ฟอง อากาศ อย่าง แน่นอน

3 ฤดูกาลกระโดด

ไม่กี่สัปดาห์ที่ผ่านมา ตอนที่ผมพูดถึงอินเวอร์ดาและออราเคิล ผมกล่าวซ้ําไปซ้ํามาว่า แอลแอลเอ็มได้ก้าวกระโดด 3 ครั้ง。

ระยะที่ 1: ChartGPT

จุดแรกคือการปล่อย ChartGPT ในปี 2022 ซึ่งแทบจะไม่จําเป็นต้องซ้ําอีก แม้ว่าโมเดลภาษาไทยขนาดใหญ่ ที่ตั้งอยู่บนเครื่องแปลงรูป จะเกิดขึ้นตั้งแต่ ค.ศ. แม้ แต่ ใน เดือน ตุลาคม 2022 ใน การ สัมภาษณ์ ส ตรา เทค รี่ ผม ก็ ยัง โต้ แย้ง ว่า เทคโนโลยี นี้ แม้ จะ น่า ทึ่ง แต่ ก็ ขาด การ ผลิต สินค้า และ แรง จูง ใจ ใน การ ค้า。

แต่ไม่กี่สัปดาห์ต่อมา ทุกอย่างกลับตาลปัตร แชตจีพีทีทําให้โลกตระหนักอย่างแท้จริง เป็นครั้งแรกของความสามารถของ LLM。

อย่างไรก็ตาม ในเวอร์ชันก่อนหน้านี้ยังประทับใจจากการสังเกตสองประการ โดยเฉพาะโดย "ทฤษฎีโฟม":

อย่างแรก นางแบบมักผิดพลาด แม้ว่าเขาจะไม่รู้คําตอบ มันยิ่งทําให้เหมือน "เครื่องมือสั่น" ที่น่าทึ่งแต่เชื่อถือไม่ได้。

ประการ ที่ สอง แม้ แต่ ใน ตอน นั้น ก็ ยัง เป็น ประโยชน์ มาก ถ้า คุณ รู้ วิธี ใช้ และ ตรวจ สอบ ผล งาน และ แก้ไข ข้อ ผิด พลาด อยู่ เสมอ。

ระยะ 2: o1

จุดเปลี่ยนที่สองคือรุ่น O1 ที่ตีพิมพ์ในเดือนกันยายน 2024 โดย OpenAI. ในขณะนั้น ILM ได้ก้าวหน้าอย่างมีนัยสําคัญ ด้วยรูปแบบพื้นฐานที่แข็งแรงขึ้น และเทคนิคหลังการสอน。

แต่การค้นพบที่สําคัญก็คือ มัน "คิด" แล้วคําตอบ。

LLM แบบดั้งเดิมขึ้นอยู่กับเส้นทาง และเมื่อมันผิดพลาดในการหาเหตุผลก็ผิด นี่เป็นจุดอ่อนพื้นฐาน ของแบบจําลองการกลับตัวเอง ในทางตรงกันข้าม แบบจําลองการให้เหตุผลนั้น คือ อัตตาตัวเอง เป็นคําตอบ และให้คําตอบ。

นี่ หมาย ความ ว่า แบบ จําลอง จะ เริ่ม จัด การ กับ ข้อ ผิด พลาด อย่าง ไม่ หยุด ยั้ง และ ลด ภาระ ของ ผู้ ใช้ ที่ เข้า แทรกแซง. ผล ที่ ได้ ก็ มี ความ สําคัญ ด้วย. ถ้าความสําเร็จของแชทพีทีคือ "การให้LLM ทํางาน" แล้ว O1 การค้นพบคือ "ทําให้LLM น่าเชื่อถือ"。

ขั้น ที่ 3: ตัว แทน (โอปุส เบน ยา มิน / โค เดก ซ์)

ปลาย ปี 2025 มี การ กระโดด ครั้ง ที่ สาม。

ใน เดือน พฤศจิกายน 2025 อันโทรปิก ออกฉาย โอปุส เบบีเรีย ซึ่ง ใน ตอน แรก เกิด มี การ สร้าง แบน. แต่ในเดือนธันวาคม, Claude Code, ที่ดําเนินการโมเดลดังกล่าวก็แสดงความสามารถอย่างไม่คาดคิด; เกือบพร้อมกัน, OpenAI ปล่อย GP-5.2.Codex, แสดงระดับที่คล้ายกัน。

ผู้ คน เคย พูด ถึง “บุคคล ” มา แล้ว แต่ ใน ตอน นี้ พวก เขา เริ่ม ทํา งาน ของ ตน ให้ สําเร็จ อย่าง แท้ จริง แม้ แต่ งาน ที่ ซับ ซ้อน ซึ่ง ต้อง ใช้ เวลา หลาย ชั่วโมง และ ทํา ได้ อย่าง ถูก ต้อง。

กุญแจไม่ได้อยู่ในแบบจําลอง แต่อยู่ในชั้นควบคุม (harness) ซึ่งเป็นชั้นซอฟต์แวร์ของโมเดลการเคลื่อนไหว เครื่องมือเรียก, กระบวนการประหารชีวิต พูด อีก นัย หนึ่ง ผู้ ใช้ ไม่ ได้ ดําเนิน การ ตาม แบบ จําลอง โดย ตรง อีก ต่อ ไป แต่ ส่ง เป้า หมาย โดย ใช้ แบบ จําลอง ของ ตัว แทน, เครื่องมือ เรียก, กระบวนการ ประหาร ชีวิต และ ความ ถูก ต้อง ของ ผล งาน。

ยกตัวอย่างการเขียนโปรแกรม

เฟส 1: รหัสรุ่น

เฟสที่สอง แบบจําลองได้รับการให้เหตุผลระหว่างรุ่น

ระยะที่สาม: Agent Code → Perceal Code Service → auto- Runs → replays ถ้าผิด โดยไม่ต้องแทรกแซงอย่างต่อเนื่องโดยผู้ใช้。

นี่ หมาย ความ ว่า ข้อ บกพร่อง หลัก ของ ยุค แช ต เจ พี ที กําลัง มี การ กล่าว ถึง อย่าง เป็น ระบบ ด้วย ความ ถูก ต้อง ที่ สูง กว่า การ หา เหตุ ผล มาก ขึ้น และ การ ใช้ กลไก ที่ ใช้ การ ได้ โดย อัตโนมัติ。

คํา ถาม เดียว ที่ ยัง เหลือ อยู่ คือ เรา ควร ทํา อย่าง ไร

ขีดจํากัดของการเริ่มต้นคือการลดลง

ดิฉัน ได้ เน้น สาม จุด นี้ ซ้ํา แล้ว ซ้ํา อีก เพื่อ อธิบาย เหตุ ผล ที่ อุตสาหกรรม ทั้ง หมด ทน ทุกข์ จาก การ ขาด ความ สามารถ อย่าง ร้าย แรง และ เหตุ ใด การ ใช้ จ่าย เงิน มาก เกิน ไป จึง มี เหตุ ผล สม ควร。

มีสามตัวอย่าง ที่ความต้องการในการคํานวณนั้นแตกต่างกันอย่างสิ้นเชิง

• ระยะที่ 1: การฝึกเครื่องคิดเลขอย่างรัดกุม โดยมีค่าใช้จ่ายในการให้เหตุผลต่ํา

เฟสที่สอง: ค่าใช้จ่ายที่เพิ่มขึ้นของเหตุผล (มากแสดง + ความถี่ของการใช้งานมากขึ้น)

เฟส 3 (ส่วนต่าง ๆ): เรียกให้แบบจําลองให้เหตุผลหลาย ๆ ครั้ง ตัวแทนเองใช้แคลคูลัส (หรือแม้กระทั่ง PPU), ใช้ความถี่ในการระเบิดเพิ่มเติม

แต่ที่สําคัญกว่านั้น ประเด็นที่สามคือ การเปลี่ยนแปลงโครงสร้างของอุปสงค์นั้น ถูกประเมินค่าต่ําไปอย่างมาก。

ปัจจุบัน มีคนจํานวนมากที่ใช้หุ่นยนต์แชท มากกว่าคนที่ใช้เจ้าหน้าที่ และหลายคนก็ไม่ได้ใช้ AI จริงๆ นี่เพราะการใช้ AI ต้องการ "การทํางาน" ALLM เป็นเครื่องมือที่ไม่มีวัตถุประสงค์ไม่มีพินัยกรรม แต่เรียกร้องให้ในการเริ่มต้นของตัวเอง。

แต่เอเจ้นท์ได้เปลี่ยนแปลงมัน และลดความต้องการในความคิดริเริ่มของมนุษย์ ในอนาคต คนย่อมสามารถบังคับเจ้าหน้าที่ได้หลายคน。

นี่ หมาย ความ ว่า แม้ แต่ ผู้ คน จํานวน น้อย ก็ “ปฏิบัติ การ ” พอ ที่ จะ ทํา ให้ เกิด ความ ต้องการ ทาง การ คํานวณ อย่าง มหาศาล และ ผล กระทบ ทาง เศรษฐกิจ。

AI ยังคงต้องการที่จะเป็น "ผู้ชายขับรถ" แต่ไม่มี "มนุษย์" มากขึ้น。

จ่ายไดรเวอร์สําหรับกิจการ

ความตั้งใจที่จํากัดของฝ่ายผู้บริโภค ที่จะจ่าย AI ได้ชัดเจนขึ้น มันเป็นธุรกิจที่เต็มใจที่จะจ่ายเพื่อผลผลิต。

สิ่งที่น่าตื่นเต้นที่สุดสําหรับธุรกิจ ไม่ใช่แค่ AI ที่จะปรับปรุงประสิทธิภาพ แต่ AI เพื่อทดแทนกําลังคน และมีประสิทธิภาพมากขึ้น。

ความจริงก็คือ บ่อยครั้งที่บริษัทใหญ่ไม่กี่บริษัท ที่ผลักดันธุรกิจให้ก้าวหน้า แต่องค์กรนั้นใหญ่ บทบาทของเจ้าหน้าที่คือการขยายอิทธิพล ของ "คนมีค่าขับเคลื่อน" ในขณะที่ลดความแตกแยกขององค์กร。

ผลก็คือ "จํานวนคนน้อยลง ผลผลิตที่สูงขึ้น ต้นทุนที่ต่ํากว่า" นั่นเป็นเหตุผลที่ว่า ทําไมอนาคตต้องเปลี่ยนแปลง มากกว่าการปรับเปลี่ยนโครงสร้าง。

บริษัทจะคิดใหม่ ไม่เพียงแค่ว่ามีคนจํานวนมากในโรคระบาด แต่ยังรวมถึงว่าเราไม่ต้องการจํานวนมากดังนั้นในยุค AI

ทําไมโฟมนี้ไม่

จากมุมมองนี้ ตรรกะของ "ไม่ใช่โฟม" นั้นชัดเจน

1. จุดอ่อนหลักของ LLM กําลังถูกพูดถึงอย่างต่อเนื่องโดยอัลกอริทึมและสถาปัตยกรรม

2. มีจํานวนคนที่ต้องการขับรถ

ผลประโยชน์ของเจ้าหน้าที่ไม่ใช่แค่หยดเดียว แต่เป็นผลประโยชน์

ดัง นั้น จึง ไม่ ยาก ที่ จะ เข้าใจ ว่า ทําไม ผู้ ผลิต เมฆ ทุก คน จึง บอก ว่า ความ สามารถ ใน การ คํานวณ จึง ขาด แคลน และ การ ใช้ จ่าย เงิน ทุน ยัง คง เพิ่ม ขึ้น เรื่อย ๆ。

ตัว แทน ที่ ทํา การ ปรับ ปรุง คุณค่า เครื่อง ถ้วย

คําถามสําคัญอีกข้อคือ ถ้าแบบจําลองนั้นถูกสื่อถึงกันในที่สุด OpenAI และ Anthrograph จะทําเงินได้หรือไม่

แต่เจ้าหน้าที่ได้เปลี่ยนมัน ประเด็นคือ ค่าจริงไม่ได้อยู่ในแบบจําลอง แต่อยู่ในการผนวกของระบบควบคุมโมเดล +。

กําไรมีแนวโน้มจะไหลไปยังชั้น "ภายใน" แทนโมดูลทางเลือก เช่น เดียว กับ แอปเปิล เครื่อง มือ ของ มัน ไม่ ได้ รับ การ ปรับ ปรุง ให้ สมบูรณ์ แบบ เพราะ ถูก ผนวก เข้า กับ ซอฟต์แวร์. เช่นเดียวกัน สายลับต้องการความลึกซึ้ง ของความซับซ้อนระหว่างแบบจําลองกับฮาร์เนส ซึ่งทําให้ OpenAI และ Antrophic。

การเปลี่ยนของไมโครซอฟท์เป็นสัญญาณว่า มันได้เน้นว่า "โหมดสามารถถูกแทนที่ได้" แต่ต้องยอมแพ้เมื่อผลิตภัณฑ์ของตัวแทนที่แท้จริง ถูกเปิดตัว。

นี่หมายความว่า แบบจําลองไม่จําเป็นต้องถูกคอมไพล์อย่างเต็มที่ เพราะเจ้าหน้าที่ต้องการความสามารถในการรวมเข้าด้วยกัน。

ความขัดแย้งสุดท้าย

ฉันต้องกลับไปที่ความขัดแย้ง。

ผมมักจะคิดว่าตราบใดที่ทุกคนกังวลเกี่ยวกับฟองสบู่ พวกเขาไม่ได้ฟองอากาศ; ฟองที่แท้จริงถูกเมื่อไม่มีใครถามพวกเขา。

และตอนนี้ผมสรุปว่า นี่ไม่ใช่ฟองสบู่。

แต่ถ้า "ผมบอกว่ามันไม่ใช่ฟองสบู่" ก็แสดงว่าเป็นโฟม แค่นั้นแหละ。

(หัวเราะ)ส่วนเชื่อมโยงดั้งเดิม]

QQlink

No crypto backdoors, no compromises. A decentralized social and financial platform based on blockchain technology, returning privacy and freedom to users.

© 2024 QQlink R&D Team. All Rights Reserved.