KEY
POINTS
สำนักงานคณะกรรมการการรักษาความมั่นคงปลอดภัยไซเบอร์แห่งชาติ (สกมช.) ได้ประกาศ "แนวปฏิบัติการใช้ปัญญาประดิษฐ์อย่างมั่นคงปลอดภัย (AI Security Guidelines)" เพื่อยกระดับการรักษาความมั่นคงปลอดภัยของเทคโนโลยีปัญญาประดิษฐ์ (AI) ในประเทศไทย โดยเฉพาะอย่างยิ่งการป้องกันภัยคุกคามทางไซเบอร์ที่เกิดขึ้นจากการใช้งาน AI ซึ่งมีความเสี่ยงที่ซับซ้อนและสามารถกระทบต่อทั้งภาครัฐและภาคเอกชน
แนวปฏิบัติฉบับนี้ได้ถูกพัฒนาโดยอ้างอิงจากมาตรฐานสากล เช่น ISO/IEC และ OWASP รวมถึงกฎระเบียบภายในประเทศ เพื่อให้ผู้ที่เกี่ยวข้องกับการพัฒนาและใช้งานระบบ AI ตั้งแต่ผู้บริหารระดับสูงไปจนถึงผู้ใช้ทั่วไป สามารถนำไปปฏิบัติจริงได้อย่างมีประสิทธิภาพ
โดยเนื้อหาของแนวปฏิบัติจะครอบคลุมถึงการป้องกันระบบปัญญาประดิษฐ์จากภัยคุกคามต่างๆ เช่น การโจมตีผ่านการฝังข้อมูลที่ไม่ปลอดภัย (Data Poisoning) การหลบหลีกโมเดล (Model Evasion) หรือการโจมตีผ่านชุดคำสั่งที่ผิดปกติ (Prompt Injection) ซึ่งมีผลกระทบทั้งในด้านความลับของข้อมูล (Confidentiality) ความถูกต้องสมบูรณ์ (Integrity) และความพร้อมใช้งาน (Availability) ของระบบ
นอกจากนี้ สกมช. ยังให้ความสำคัญกับการเสริมสร้างความตระหนักรู้ในด้านความปลอดภัยให้กับองค์กรและผู้พัฒนา AI ทั้งในระดับภาครัฐและเอกชน โดยจะมีการจัดอบรมและแนะนำวิธีการปฏิบัติที่เหมาะสมเพื่อให้การใช้ AI ในประเทศไทยเป็นไปอย่างปลอดภัยและยั่งยืน
การใช้งานปัญญาประดิษฐ์กำลังเติบโตอย่างรวดเร็วในทุกภาคส่วน ซึ่งเป็นโอกาสที่สำคัญ แต่ก็มีความเสี่ยงที่มาพร้อมกับการใช้งานดังกล่าว ดังนั้นการมีแนวปฏิบัติที่ชัดเจนและมั่นคงจึงเป็นสิ่งสำคัญที่ทุกองค์กรต้องให้ความสำคัญ
ด้วยแนวปฏิบัติการใช้งาน AI อย่างมั่นคงปลอดภัยนี้ สกมช. มุ่งหวังที่จะสร้างความมั่นใจให้กับทุกภาคส่วนที่เกี่ยวข้องกับการใช้เทคโนโลยี AI ในประเทศไทย โดยการปรับใช้มาตรฐานระดับสากลและการเสริมสร้างความรู้ความเข้าใจในด้านความปลอดภัยไซเบอร์เพื่อให้สามารถรับมือกับภัยคุกคามที่อาจเกิดขึ้นในอนาคต
แนวปฏิบัติการใช้ปัญญาประดิษฐ์อย่างมั่นคงปลอดภัย (ฉบับเต็ม)