จริยธรรมของ AI สำคัญไม่น้อยกว่าความสามารถ

08 ธ.ค. 2561 | 04:30 น.
ในโลกอนาคตของ Issac Asimov นักเขียนนิยายวิทยา ศาสตร์ชื่อดังนั้น Robots ต้องทำตามกฎจริยธรรม 3 ข้อ คือ

1. Robot นั้น ต้องไม่ทำอันตรายมนุษย์หรือยอมให้มนุษย์บาดเจ็บโดยการนิ่งเฉย

2. Robot นั้น ต้องเชื่อฟังมนุษย์ยกเว้นในกรณีที่จะขัดแย้งกับกฎข้อแรก และ

3. Robot ต้องปกป้องตัวเองยกเว้นในกรณีที่ขัดแย้งกับกฎข้อแรกและกฎข้อ 2

สมัยก่อนเราก็อาจจะคิดว่าเรื่อง ethnics ของหุ่นยนต์ มันเป็นเพียงเรื่องที่น่าสนใจในนิยาย

แต่ในโลกปัจจุบันที่เราเริ่มมีรถที่ไร้คนขับมาวิ่งบนถนน มีโรงพยาบาลที่เริ่มใช้ AI มาช่วยวินิจฉัยโรค มี AI ที่เป็นคนตัดสินใจว่าเราจะได้เงินกู้หรือไม่ เรื่อง AI ethics นี้ อาจจะเป็นคำถามที่ใกล้ตัวเรามากกว่าที่เราคิด

สมมติว่าเรานั่งอยู่ในรถที่ขับด้วย AI แล้วเกิดเครื่องยนต์ขัดข้องทำให้ AI ไม่สามารถหยุดรถได้ ถ้าหากไม่ทำอะไรเลยรถก็จะพุ่งเข้าชนฆ่าคน 5 คนที่กำลังข้ามถนนตรงทางม้าลายอยู่

แต่ถ้าหากหักหลบก็จะไปชนสตรีมีครรภ์ที่อยู่บนทางเท้า แล้ว AI ควรจะตัดสินใจอย่างไร แล้วถ้ากลุ่มคนที่กำลังข้ามถนนอยู่เป็นสตรีมีครรภ์และคนที่ยืนอยู่บนทางเท้าเป็นผู้สูงอายุ หรือว่าถ้าคนที่ข้ามถนนนั้นกำลังข้ามถนนแบบผิดกฎหมาย สิ่งที่เราคิดว่า AI ควรทำนั้นจะเปลี่ยนไปไหม? หรือถ้าเกิดคนที่ข้ามถนนเป็นเด็กนักเรียน 20 คน AI ควรจะหักรถเข้าชนเสาไฟฟ้าฆ่าแค่เราซึ่งเป็นผู้โดยสารคนเดียวไหม?

งานวิจัยของ Edmond et. al (2018) ที่เพิ่งตีพิมพ์บนวารสาร Nature ได้จำลองสถาน การณ์เหล่านี้บน Web Platform ชื่อ Moral Machine และได้ทำการเก็บข้อมูลการตัดสินใจของคนเกือบ 40 ล้านคนจาก 233 ประเทศทั่วโลก พบว่าโดยส่วนใหญ่แล้วคนต้องการให้ AI เลือกรักษาชีวิตจำนวนมากกว่าไว้

อย่างไรก็ดี หากมองในรายละเอียดแล้วจะพบว่าคำตอบของแต่ละคนก็อาจจะแตกต่างกันไป ขึ้นอยู่กับศาสนา วัฒนธรรม หรือความคิดเห็นส่วนบุคคลของแต่ละคน บางคนอาจจะเห็นว่าชีวิตของเด็กมีค่ามากกว่าคนชรา บางคนอาจจะเห็นว่าชีวิตคนทุกคนมีค่าเท่ากัน บางคนอาจจะเห็นว่าการหักพวงมาลัยไปชนคนบนทางเท้าเป็นการฆ่าคนนั้นเป็นบาป ควรจะปล่อยให้รถพุ่งเข้าชนคนข้ามถนนเพราะนั่นถือเป็นอุบัติเหตุ

TP7-3425-A

ซึ่งจริงๆ แล้วก็อาจจะไม่มีคำตอบที่ถูก แต่คำถามเรื่อง AI ethnics แบบนี้มันก็เป็นคำถามที่พวกเราในฐานะสังคมไทยควรจะคิดและพยายามตอบว่าสังคมไทยและคนไทยส่วนใหญ่นั้น เห็นว่า AI ควรทำตัวตามกฎจริยธรรมแบบไหน เพราะถ้าเราไม่มีคำตอบก็อาจจะอยู่ในโลกของ AI ที่ต่างชาติเป็นคนกำหนดกฎจริยธรรมของ AI ซึ่งอาจจะไม่ตรงกับ moral value ของคนไทย

นอกจากนี้สิ่งที่น่าสนใจอีกเรื่องหนึ่งในเชิง AI ethics ก็คือเรื่องความรับผิดชอบทางกฎหมาย ถ้าหาก AI วินิจฉัยโรคแล้วเกิดผู้ป่วยเสียชีวิต ใครควรจะเป็นผู้รับผิดชอบ แพทย์ที่เกี่ยวข้อง, โรงพยาบาล หรือบริษัทผู้พัฒนา AI

นอกจากนี้ประเด็น AI ethics อื่นๆ ที่ควรนำมาขบคิด เช่น ความเป็นส่วนตัวของข้อมูล ข้อมูลส่วนตัวประเภทไหนไม่ควรถูกนำมาใช้ การสร้างและใช้ AI มาแทนที่แรงงานควรนำเรื่องผล กระทบต่อการที่มนุษย์จะถูกแทนที่มาพิจารณาด้วยไหมว่ามนุษย์ควรจะได้รับการช่วยเหลือหรือไม่

จะมีมาตรการอย่างไรที่จะตรวจสอบว่าการคาดการณ์บางอย่างที่เสนอโดย AI ไม่ได้ลำเอียง (ซึ่งการลำเอียงอาจเป็นผลมาจากการที่ AI เรียนรู้จากข้อมูลที่ป้อนเข้าไป)

ปัจจุบันสถาบันการศึกษาให้ความสำคัญเรื่องการพัฒนาและศึกษาเรื่อง AI เช่น MIT ได้ประกาศว่าจะเปิด College of Computing เพื่อจะเน้นศึกษาเรื่อง AI โดยจะใช้งบประมาณ ถึง 1 พันล้านดอลลาร์สหรัฐฯ

ส่วน Carnegie Mellon University ก็ได้เปิดหลักสูตรปริญญาตรีที่เป็นหลักสูตรเฉพาะทางด้าน AI แล้ว

อย่างไรก็ดี การให้ความสนใจที่จะพัฒนาด้านความสามารถของ AI เพียงอย่างเดียวนั้นคงไม่พอ ควรทำควบคู่ไปกับการสอนและหาทางออกในเรื่องของจริยธรรมของ AI ด้วย ซึ่งไม่ควรจำกัดอยู่เฉพาะกับคนในสายวิทยาศาสตร์และเทคโนโลยี แต่ควรเป็นการให้ความรู้และการสร้าง บทสนทนาระหว่างคนในทุกสาขาอาชีพ ไม่ว่าจะเป็นนักกฎหมาย นักเศรษฐศาสตร์ นักสังคมศาสตร์ รวมไปถึงบุคคลทั่วไป

เพราะมันจะเป็นเรื่องที่มีผลกระทบกับพวกเราทุกคน
References

Awad, Edmond, Sohan Dsouza, Richard Kim, Jonathan Schulz, Joseph Henrich, Azim Shariff, Jean-François Bonnefon, and Iyad Rahwan. “The Moral Machine experiment.” Nature 563, no. 7729 (2018): 59.

เศรษฐเสวนา จุฬาฯทัศนะ

โดย ดร.พรรคธาดา ตรีรัตนพิทักษ์ ผู้ช่วยผู้อำนวยการสาย Data Analytics ธนาคารแห่งประเทศไทย

ดร.วรประภา นาควัชระ อาจารย์ประจำคณะเศรษฐศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย

หน้า 7 หนังสือพิมพ์ฐานเศรษฐกิจ ฉบับ 3425 ระหว่างวันที่ 9 - 12 ธันวาคม 2561

ดาวน์โหลดอีบุ๊กแทรกข่าว