ปี 69 สิ้นสุดยุค "AI ขายฝัน" เข้าสู่โหมดประเมินผลเข้มงวด คุ้มค่าลงทุน

17 ธ.ค. 2568 | 03:20 น.

เปิดมุมมองนักวิชาการสแตนฟอร์ด ชี้ชัดปี 69 เข้ายุค "AI ประเมินผล" สิ้นสุดยุค "AI ขายฝัน" การลงทุน AI แสนล้านเผชิญวิกฤตความน่าเชื่อถือ องค์กรใหญ่ทั่วโลกเร่งหามาตรวัดผลตอบแทนที่แท้จริง ก่อนฟองสบู่แห่งความหวังแตก

KEY

POINTS

  • ปี 2569 จะเป็นจุดเปลี่ยนสำคัญที่ยุค "AI ขายฝัน" สิ้นสุดลง และเข้าสู่ช่วงเวลาของการประเมินผลอย่างเข้มงวด โดยเน้นความแม่นยำและผลลัพธ์ที่จับต้องได้จริง
  • องค์กรและนักลงทุนจะหันมาตั้งคำถามถึงความคุ้มค่า (ROI) และประสิทธิภาพการผลิตที่แท้จริงของ AI มากขึ้น หลังการลงทุนมหาศาลอาจไม่ให้ผลตอบแทนตามที่คาดหวัง
  • มุมมองต่อ AI จะเปลี่ยนจากคำถามว่า "ทำได้หรือไม่" ไปสู่การวิเคราะห์เชิงลึกว่า "ทำได้ดีแค่ไหน ด้วยต้นทุนเท่าไหร่ และใครคือผู้ได้รับประโยชน์"

จากการลงทุนมหาศาลและการขับเคลื่อนทางเทคโนโลยีอย่างบ้าคลั่งในช่วงหลายปีที่ผ่านมา ปัญญาประดิษฐ์ (AI) กำลังเข้าสู่ช่วงเวลาสำคัญที่สุด นั่นคือ ปี 2026 ซึ่งจะเป็นปีแห่งการประเมินผลอย่างเข้มงวด (Era of AI Evaluation) ภายใต้แนวคิดที่ว่า "ความแม่นยำต้องมาก่อนความตื่นเต้น" (Rigor over Hype)

คณาจารย์ผู้เชี่ยวชาญระดับโลกจากสถาบัน Stanford HAI (Human-Centered AI) มหาวิทยาลัยสแตนฟอร์ด ได้ออกรายงานการคาดการณ์ประจำปี

ปี 69 สิ้นสุดยุค "AI ขายฝัน" เข้าสู่โหมดประเมินผลเข้มงวด คุ้มค่าลงทุน

โดยมีสาระสำคัญที่ชี้ให้เห็นว่า โลกกำลังเปลี่ยนจากคำถามที่ว่า "AI ทำได้ไหม?" ไปสู่คำถามที่เจาะลึกในเชิงเศรษฐศาสตร์และปฏิบัติการมากขึ้น นั่นคือ "ทำได้ดีแค่ไหน, ด้วยต้นทุนเท่าไหร่, และผลประโยชน์ตกอยู่กับใคร?"

รายงานเชิงลึกฉบับนี้ได้รวบรวมมุมมองของบุคคลสำคัญ 8 ท่าน เพื่อถอดรหัสผลกระทบที่จะเกิดขึ้นกับภาคเศรษฐกิจ การเมือง เทคโนโลยี และการจ้างงาน:

1. ภาวะฟองสบู่และการแสวงหา ROI: จุดจบของ "AI ขายฝัน"

ปี 69 สิ้นสุดยุค "AI ขายฝัน" เข้าสู่โหมดประเมินผลเข้มงวด คุ้มค่าลงทุน

เจมส์ แลนเดย์ (James Landay) ผู้อำนวยการร่วม Stanford HAI และศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์ ได้ส่งสัญญาณเตือนที่หนักแน่นเกี่ยวกับกระแส AI ในปี 2026 โดยยืนยันว่า:

  • ไม่มี AGI ในปีนี้: การคาดหวังเรื่องปัญญาประดิษฐ์ทั่วไป (AGI) จะยังคงเป็นเพียงความฝันระยะไกล ซึ่งจะทำให้ตลาดหันกลับมาประเมินความสามารถของ AI ปัจจุบันอย่างสมเหตุสมผลมากขึ้น
  • การตั้งคำถามต่อผลิตภาพ: บริษัทต่าง ๆ จะเริ่มเปิดเผยผลลัพธ์ที่น่าผิดหวัง โดยยอมรับว่า AI ยังไม่สามารถแสดงให้เห็นถึงการเพิ่มขึ้นของประสิทธิภาพการผลิต (Productivity Increases) ในวงกว้าง ยกเว้นในพื้นที่ที่จำกัดมาก เช่น การช่วยเขียนโค้ด (Programming) และศูนย์บริการทางโทรศัพท์ (Call Centers)
  • ฟองสบู่การลงทุนดาต้าเซ็นเตอร์: การลงทุนในศูนย์ข้อมูลขนาดใหญ่ทั่วโลก โดยเฉพาะในกลุ่มผู้ผลิตชิปและผู้ให้บริการโมเดลภาษาขนาดใหญ่ (LLM) มีความเสี่ยงที่จะเป็น "ฟองสบู่ที่เก็งกำไรมาก" (Speculative Bubble) เพราะถึงจุดหนึ่ง ทุนสำรองของโลกจะไม่สามารถถูกผูกไว้กับการลงทุนในโครงสร้างพื้นฐานด้านเดียวมากเกินไป

อองเชล คริสติน (Angèle Christin) Senior Fellow ของ HAI เสริมมุมมองนี้ โดยระบุว่า โฆษณาที่เน้นความบ้าคลั่งของ AI จะถูกแทนที่ด้วย "ความสมจริงที่มากขึ้น" (More Realism) องค์กรต้องยอมรับว่า AI เป็นเครื่องมือที่ยอดเยี่ยมสำหรับบางงาน แต่ก็สร้างปัญหาและลดทักษะ (Deskilling) ในบางกรณี ผลกระทบโดยรวมของ AI อาจอยู่ในระดับ "ปานกลาง" เท่านั้น ซึ่งจะนำไปสู่การยุบตัวของความคาดหวัง (Deflating the AI Bubble) และการเน้นการศึกษาเชิงประจักษ์ว่า AI ทำอะไรได้และไม่ได้ 

2. อำนาจอธิปไตย AI (AI Sovereignty): สนามรบทางภูมิรัฐศาสตร์ใหม่

เจมส์ แลนเดย์ (James Landay) ยังเน้นย้ำถึงประเด็นทางภูมิรัฐศาสตร์ โดยคาดว่า "อำนาจอธิปไตย AI" จะได้รับความสนใจอย่างมาก (Gain Huge Steam) เนื่องจากรัฐบาลและประเทศต่าง ๆ ทั่วโลกพยายามแสดงความเป็นอิสระจากผู้ให้บริการ AI รายใหญ่ และระบบการเมืองของสหรัฐอเมริกา

แนวคิดนี้มีหลายรูปแบบ:

  • การสร้างโมเดลแห่งชาติ: การสร้างโมเดล LLM ขนาดใหญ่ที่เป็นของประเทศตนเอง
  • การควบคุมโครงสร้างพื้นฐาน: การรัน LLM ของบริษัทต่างชาติบนหน่วยประมวลผลกราฟิก (GPU) ภายในประเทศ เพื่อให้มั่นใจว่าข้อมูลสำคัญจะไม่ถูกส่งออกไปนอกพรมแดน

การเคลื่อนไหวนี้จะส่งผลให้องค์กรระดับโลก เช่น NVIDIA และ OpenAI ต้องเร่งเดินทางเยือนประเทศต่าง ๆ เพื่อสร้างความได้เปรียบเชิงกลยุทธ์ด้านอำนาจอธิปไตยข้อมูล

3. การวัดผลแบบเรียลไทม์: AI Economic Dashboards

อีริก ไบรน์จูล์ฟสัน (Erik Brynjolfsson) ผู้อำนวยการ Digital Economy Lab และ Senior Fellow ของ HAI ชี้ว่า การถกเถียงเรื่องผลกระทบทางเศรษฐกิจของ AI จะสิ้นสุดลง และเข้าสู่ยุคของการวัดผลอย่างระมัดระวัง

  • แดชบอร์ดเศรษฐกิจ AI: จะมีการเกิดขึ้นของ "AI Economic Dashboards" หรือกระดานวัดผลเศรษฐกิจ AI ที่มีความถี่สูง (High-frequency) ทำหน้าที่เหมือนบัญชีประชาชาติแบบเรียลไทม์ โดยจะติดตาม:
    • AI กำลังเพิ่มผลิตภาพที่งานหรืออาชีพใด
    • AI กำลังแทนที่แรงงาน (Displacing Workers) หรือสร้างงานใหม่ในส่วนใด
  • การตัดสินใจเชิงนโยบาย: ข้อมูลที่อัปเดตรายเดือนเหล่านี้จะถูกใช้โดยผู้บริหารในการวางแผนธุรกิจ และผู้กำหนดนโยบายในการกำหนดเป้าหมายการฝึกอบรมแรงงาน (Training), ตาข่ายความปลอดภัยทางสังคม (Safety Nets), และนโยบายการสร้างนวัตกรรม

ปี 69 สิ้นสุดยุค "AI ขายฝัน" เข้าสู่โหมดประเมินผลเข้มงวด คุ้มค่าลงทุน การเกิดขึ้นของมาตรวัดเหล่านี้จะเปลี่ยนการถกเถียงจากเรื่องนามธรรมไปสู่การจัดการเชิงตัวเลขที่ชัดเจน

4. AI ในกฎหมาย: เน้นความแม่นยำและความเสี่ยง

จูเลียน นีอาร์โก (Julian Nyarko) ศาสตราจารย์ด้านกฎหมายและ Associate Director ของ HAI ระบุว่า ภาคบริการทางกฎหมายจะมุ่งเน้นที่ "ความแม่นยำและ ROI"

  • เกณฑ์มาตรฐานใหม่: บริษัทกฎหมายและศาลจะหยุดถามว่า "AI สามารถเขียนได้ไหม" แต่จะถามว่า "ทำได้ดีแค่ไหน, ในเรื่องใด, และมีความเสี่ยงอะไร?" การประเมินผลจะกลายเป็นมาตรฐาน (Table Stakes) โดยผูกประสิทธิภาพของโมเดลเข้ากับผลลัพธ์ทางกฎหมายที่จับต้องได้ เช่น:
    • ความถูกต้อง
    • ความสมบูรณ์ของการอ้างอิง (Citation Integrity)
    • ความเสี่ยงในการเปิดเผยสิทธิพิเศษ (Privilege Exposure)
  • การให้เหตุผลที่ซับซ้อน: AI จะเริ่มรับงานที่ยากขึ้นกว่าการร่างเอกสารเบื้องต้น โดยจะมุ่งสู่ การให้เหตุผลแบบหลายเอกสาร (Multi-Document Reasoning) เช่น การสังเคราะห์ข้อเท็จจริง และการแมปข้อโต้แย้ง

5. การแพทย์: สู่ "ช่วงเวลา ChatGPT" และการควบคุมข้อมูล

การแพทย์เป็นอีกภาคส่วนที่ AI จะเติบโตแบบก้าวกระโดด แต่ก็มาพร้อมกับความท้าทายด้านการกำกับดูแล

  • ช่วงเวลา ChatGPT ทางการแพทย์: เคอร์ติส แลงลอตซ์ (Curtis Langlotz) Senior Fellow ของ HAI คาดการณ์การมาถึงของ "ช่วงเวลา ChatGPT" สำหรับ AI ในการแพทย์ ซึ่งหมายถึงการเกิดขึ้นของ Biomedical Foundation Models ที่ได้รับการฝึกฝนบนชุดข้อมูลสุขภาพคุณภาพสูงขนาดใหญ่ด้วยเทคนิค Self-Supervised Learning ซึ่งจะลดต้นทุนการฝึกโมเดลและเพิ่มความแม่นยำในการวินิจฉัยโรคหายาก
  • AI ข้ามองค์กร: นิกัม ชาห์ (Nigam Shah) Chief Data Scientist ของ Stanford Health Care คาดการณ์ว่า ผู้สร้าง Generative AI จะเริ่มรู้สึกเบื่อหน่ายกับวงจรการตัดสินใจที่ยาวนานของระบบสุขภาพ จึงจะเริ่มหันไปหาผู้ใช้ปลายทางโดยตรง ผ่านแอปพลิเคชันที่ "ฟรี" ซึ่งจะทำให้ ความจำเป็นที่ผู้ป่วยจะต้องรู้พื้นฐานที่ AI ใช้ในการให้ความช่วยเหลือจะมีความสำคัญอย่างยิ่ง

ปี 69 สิ้นสุดยุค "AI ขายฝัน" เข้าสู่โหมดประเมินผลเข้มงวด คุ้มค่าลงทุน

6. การเปิดกล่องดำ (Black Box) เพื่อการค้นพบทางวิทยาศาสตร์

รัส อัลท์แมน (Russ Altman) ศาสตราจารย์และ Senior Fellow ของ HAI ชี้ว่า ในทางวิทยาศาสตร์ การทำนายผลที่แม่นยำอย่างเดียวไม่พอ แต่ต้องมี ข้อมูลเชิงลึกว่าโมเดลได้ข้อสรุปนั้นมาได้อย่างไร

  • โบราณคดีโครงข่ายประสาทเทียม: เขาคาดหวังการมุ่งเน้นที่ "การตรวจสอบประวัติความเป็นมาของโครงข่ายประสาทเทียมที่มีประสิทธิภาพสูง" (Archeology of the high-performing neural nets) เพื่อทำความเข้าใจกลไกภายในของ AI (Attention Map) ซึ่งเป็น "พันธกิจที่แน่นอนในการเปิดกล่องดำของ AI" เพื่อประโยชน์ของการวิจัย
  • โมเดล Fusion: จะมีความชัดเจนมากขึ้นว่าโมเดลแบบ Early Fusion (รวมข้อมูลทุกชนิดเข้าด้วยกันแต่แรก) หรือ Late Fusion (สร้างโมเดลแยกตามรูปแบบข้อมูลแล้วรวมเข้าด้วยกัน) เป็นแนวทางที่ดีกว่าสำหรับการสร้างโมเดลรากฐานทางวิทยาศาสตร์

7. จุดสิ้นสุดของข้อมูลขนาดใหญ่ที่ไร้คุณภาพ

เจมส์ แลนเดย์ (James Landay) ยังคาดการณ์ปรากฏการณ์ Asymptoting หรือการเข้าใกล้ค่าจำกัดของขนาดโมเดลและข้อมูล โดยระบุว่า:

  • ตลาดกำลังถึงจุด "Peak Data" เนื่องจากข้อมูลบนอินเทอร์เน็ตคุณภาพต่ำลงและเริ่มหมดลง
  • นักพัฒนาจะเปลี่ยนไปให้ความสำคัญกับ การดูแลจัดการชุดข้อมูลขนาดเล็กที่มีคุณภาพสูง (Curating Really Good Datasets) และสร้างโมเดลที่มีประสิทธิภาพดีขึ้นบนข้อมูลที่มีขนาดจำกัดแต่มีความเฉพาะเจาะจง

8. การสร้าง AI เพื่อประโยชน์ระยะยาวของมนุษย์

ดิยี หยาง (Diyi Yang) ผู้ช่วยศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์ เน้นย้ำว่า AI ต้องก้าวข้ามจากการสร้างความพึงพอใจในระยะสั้น

  • การต่อต้านการประจบประแจง: นักพัฒนาต้องหาทางแก้ไขปัญหา "ความชอบประจบประแจง" (Sycophancy) ที่แสดงออกในโมเดลภาษาขนาดใหญ่ ซึ่งอาจส่งผลเสียต่อการคิดเชิงวิพากษ์และทักษะที่จำเป็นของผู้ใช้
  • การเพิ่มขีดความสามารถ: ระบบ AI ควรถูกออกแบบมาตั้งแต่เริ่มต้นเพื่อ "เพิ่มขีดความสามารถของมนุษย์" (Augment Human Capabilities) ไม่ใช่เพียงแค่การเพิ่มประสิทธิภาพ หรือตอบสนองความต้องการในระยะสั้นของผู้ใช้เท่านั้น