

KEY
POINTS
การ์ทเนอร์ อิงค์ (Gartner Inc.) บริษัทวิจัยและให้คำปรึกษาชั้นนำด้านธุรกิจและเทคโนโลยี ระบุว่าภายในปี 2571 ครึ่งหนึ่ง (50%) ขององค์กรจะนำมาตรการ "Zero-Trust" มาใช้เพื่อกำกับดูแลข้อมูล (Data Governance) และรับมือกับการแพร่กระจายของข้อมูลที่สร้างโดย AI (AI-Generated Data) ที่ยังไม่ได้รับการตรวจสอบ
หวัน ฟุ่ย ชาน (Wan Fui Chan) รองประธานบริหารการ์ทเนอร์ กล่าวว่า “องค์กรไม่สามารถเชื่อถือข้อมูลหรือคิดเอาเองว่าข้อมูลนั้นถูกสร้างโดยน้ำมือมนุษย์ได้อีกต่อไป เมื่อข้อมูลที่สร้างโดย AI เผยแพร่กระจายออกไปจนทำให้เราแยกแยะไม่ออกจากข้อมูลที่มนุษย์สร้างขึ้น ดังนั้นการนำมาตรการ Zero-Trust มาใช้ เพื่อสร้างระบบยืนยันตัวตนและตรวจสอบข้อมูล จึงเป็นเรื่องจำเป็นอย่างยิ่งสำหรับปกป้องผลลัพธ์ทางธุรกิจและการเงิน”
ข้อมูล AI เพิ่มความเสี่ยงต่อภาวะการล่มสลายของโมเดลและการปฏิบัติตามกฎระเบียบ
โดยปกติแล้ว โมเดลภาษาขนาดใหญ่ (LLMs) จะได้รับการฝึกฝนด้วยข้อมูลที่รวบรวมมาจากเว็บ (Web-Scraped Data) รวมถึงหนังสือ แหล่งรวมโค้ด และงานวิจัย ซึ่งแหล่งข้อมูลเหล่านี้บางส่วนมีเนื้อหาที่ AI สร้างขึ้นปะปนอยู่แล้ว และหากแนวโน้มนี้ยังดำเนินต่อไป ในที่สุดแหล่งข้อมูลเกือบทั้งหมดก็จะเต็มไปด้วยข้อมูลที่ AI สร้างขึ้นมา
จากผลสำรวจ 2026 Gartner CIO and Technology Executive Survey พบว่า 84% ของผู้ตอบแบบสอบถามคาดว่าในปี 2569 องค์กรของตนจะเพิ่มงบประมาณด้าน Gen AI ซึ่งหมายความว่าโมเดล LLM รุ่นต่อ ๆ ไปจะได้รับการฝึกด้วย "ผลลัพธ์จากโมเดลรุ่นก่อนหน้า" มากขึ้นเรื่อย ๆ ทำให้เกิดความเสี่ยงต่อภาวะการล่มสลายของโมเดล (Model Collapse) หรือการที่ AI ให้คำตอบบิดเบือนไปจากความเป็นจริง
“เมื่อข้อมูลที่สร้างจาก AI แพร่หลายมากขึ้นทำให้บางประเทศในบางภูมิภาคเข้มงวดกับกฎระเบียบมากขึ้นเพื่อบังคับให้ต้องมีการตรวจสอบข้อมูลว่า "ปลอด AI" (AI-Free) อย่างไรก็ตาม บางประเทศอาจพยายามบังคับใช้การควบคุมที่เข้มงวดกว่าสำหรับเนื้อหา AI ขณะที่บางแห่งอาจใช้วิธีการที่ยืดหยุ่นกว่า” ชานกล่าวเสริม
วิธีจัดการความเสี่ยงเพื่อรับมือกับข้อมูล AI ที่ไม่ได้รับการตรวจสอบและทวีปริมาณมากขึ้น