คุมเข้ม AI บริษัทประกันใช้ AI อย่างโปร่งใส งานเสี่ยงสูงต้องมีมนุษย์ร่วมตัดสินใจ

18 พ.ย. 2568 | 03:47 น.
อัปเดตล่าสุด :18 พ.ย. 2568 | 04:01 น.

สำนักงาน คปภ. ออก “แนวปฏิบัติการกำกับดูแลการใช้งานปัญญาประดิษฐ์” คุมเข้มบริษัทประกันภัย ชูธรรมาภิบาลและคุ้มครองผู้บริโภค ชี้ชัดงานเสี่ยงสูงต้องมีมนุษย์ร่วมตัดสินใจ

KEY

POINTS

  • คปภ. ออกแนวปฏิบัติการกำกับดูแลการใช้ AI ในธุรกิจประกันภัย เพื่อให้เกิดความโปร่งใส เป็นธรรม และคุ้มครองผู้บริโภค
  • บริษัทประกันต้องสามารถอธิบายเหตุผลและกระบวนการตัดสินใจของ AI ได้ โดยเฉพาะในกรณีที่ส่งผลกระทบต่อผู้เอาประกัน
  • สำหรับงานที่มีความเสี่ยงสูง เช่น การพิจารณารับประกันภัยและการจัดการสินไหมทดแทน กำหนดให้ต้องมีมนุษย์ร่วมตรวจสอบหรือตัดสินใจ (Human in the loop) เพื่อป้องกันการปฏิบัติที่ไม่เป็นธรรม

ดร. ชญานิน เกิดผลงาม รองเลขาธิการ ด้านกลยุทธ์และเทคโนโลยี สำนักงานคณะกรรมการกำกับและส่งเสริมการประกอบธุรกิจประกันภัย (สำนักงาน คปภ.) กล่าวว่าสำนักงาน คปภ. ได้เผยแพร่ “แนวปฏิบัติ เรื่อง  การกำกับดูแลการใช้งานปัญญาประดิษฐ์ สำหรับบริษัทประกันภัย (AI Governance Guideline) พ.ศ. 2568” เพื่อเป็นกรอบกำกับดูแลการประยุกต์ใช้เทคโนโลยีปัญญาประดิษฐ์ หรือ AI ในภาคธุรกิจประกันภัย

โดยมุ่งสร้างสมดุลระหว่างการคุ้มครองผู้บริโภคกับการส่งเสริมนวัตกรรม เพื่อให้การประยุกต์ใช้ AI ในภาคธุรกิจประกันภัย เกิดขึ้นอย่างรับผิดชอบ โปร่งใส และมีความมั่นคงปลอดภัย

คุมเข้ม AI บริษัทประกันใช้ AI อย่างโปร่งใส งานเสี่ยงสูงต้องมีมนุษย์ร่วมตัดสินใจ

โดยแนวปฏิบัตินี้ได้ผ่านการเปิดรับฟังความคิดเห็นจากสาธารณะมาก่อนแล้ว ซึ่งแนวปฏิบัติดังกล่าวจัดทำขึ้นภายใต้หลัก Risk-Based Proportionality เพื่อให้บริษัทประกันภัยสามารถประเมินระดับความเสี่ยงของเทคโนโลยีที่ใช้และนำไปปรับใช้ ตามระดับความเสี่ยงของเทคโนโลยี AI ครอบคลุม 4 หลักสำคัญ ได้แก่

  • การกำกับดูแลการใช้งาน AI (AI Governance) กำหนดโครงสร้างการบริหารจัดการ และการกำกับดูแลที่ชัดเจน ทั้งบทบาท หน้าที่ และความรับผิดชอบของผู้เกี่ยวข้อง พร้อมส่งเสริมความรู้ด้านจริยธรรมและการบริหารความเสี่ยงจาก AI ให้กับบุคลากรทุกระดับ เพื่อให้การใช้งานเทคโนโลยีเป็นไปอย่างโปร่งใส ตรวจสอบได้ และมีความรับผิดชอบ
  • ความทนทานและความมั่นคงปลอดภัยของระบบ AI (Robustness and AI Security) วางมาตรการป้องกันความผิดพลาดและภัยคุกคามไซเบอร์ครอบคลุมตลอดวงจรชีวิตของระบบ ตั้งแต่การออกแบบที่ปลอดภัย (Secure by Design) การจัดการช่องโหว่ การบันทึกเหตุการณ์ (Log) ไปจนถึงการสำรองและกู้คืนข้อมูล เพื่อให้ระบบมีความมั่นคง ความเสถียร และความปลอดภัย พร้อมรับมือกับความเสี่ยงจากภัยคุกคามทางไซเบอร์
  • ความโปร่งใสและความสามารถในการอธิบาย (Transparency and Explainability) กำหนดให้บริษัทประกันภัยต้องสามารถอธิบายเหตุผล กระบวนการตัดสินใจ หรือผลลัพธ์จาก AI ได้อย่างชัดเจน โดยเฉพาะในกรณีที่มีผลกระทบต่อสิทธิประโยชน์ของผู้บริโภค เพื่อให้การทำงานของระบบ AI สร้างความเข้าใจและความเชื่อมั่นแก่ผู้บริโภคและผู้เกี่ยวข้อง และสามารถตรวจสอบได้
  • ความเป็นธรรมและการคุ้มครองผู้บริโภค (Fairness and Consumer Protection) ส่งเสริมการใช้ AI ที่ไม่สร้างอุปสรรคต่อการเข้าถึงบริการประกันภัย กำกับดูแลคุณภาพข้อมูลเพื่อลดความเสี่ยงจากอคติของข้อมูล (Data Bias) อันอาจนำไปสู่การเลือกปฏิบัติอย่างไม่เป็นธรรม และต้องเปิดช่องให้ผู้บริโภคสามารถร้องขอคำอธิบาย หรือให้มนุษย์ตรวจสอบการตัดสินใจของ AI ได้ เพื่อป้องกันการเกิดอคติ (Bias) และสร้างความมั่นใจว่าผู้บริโภคทุกกลุ่มได้รับการปฏิบัติอย่างเท่าเทียม

คุมเข้ม AI บริษัทประกันใช้ AI อย่างโปร่งใส งานเสี่ยงสูงต้องมีมนุษย์ร่วมตัดสินใจ

สำนักงาน คปภ. เน้นย้ำให้การกำกับดูแลตามหลักการ “Human in the loop” สำหรับการใช้งาน AI กับกิจกรรมที่มีความเสี่ยงสูง (High-Risk AI) โดยเฉพาะกิจกรรมที่มีผลกระทบโดยตรงต่อผู้เอาประกันภัย เช่น การพิจารณารับประกันภัย การกำหนดเบี้ยประกันภัย การจัดการค่าสินไหมทดแทนและผลประโยชน์ตามกรมธรรม์ โดยกระบวนการเหล่านี้ แนวปฏิบัติระบุว่าบริษัทประกันภัย ควรพิจารณาให้มนุษย์มีส่วนร่วมในการตัดสินใจหรือดำเนินการ (Human in the loop / Human over the loop) เพื่อป้องกันการปฏิบัติอย่างไม่เป็นธรรม