ดร.ชัย วุฒิวิวัฒน์ชัย ผู้อำนวยการศูนย์เทคโนโลยีอิเล็กทรอนิกส์และคอมพิวเตอร์แห่งชาติ (เนคเทค) ปาฐกถาพิเศษในงานเสวนา Side-Event ภายใต้หัวข้อ “AI กับจริยธรรมสื่อมวลชน : เมื่ออัลกอริทึมมีอิทธิพลต่อความจริง” ซึ่งจัดขึ้นโดย สภาการสื่อมวลชนแห่งชาติ ร่วมกับภาคีเครือข่ายต่างๆ ภายใต้การจัดงาน “UNESCO Global Forum on the Ethics of AI 2025” เมื่อวันที่ 24 มิถุนายน 2568 ที่ผ่านมา
ดร.ชัย ได้เริ่มต้นการปาฐกถาด้วยการกล่าวถึงประสบการณ์ที่มีส่วนร่วมในคณะกรรมการ AI แห่งชาติที่รับผิดชอบในการขับเคลื่อนแผนการพัฒนา AI ระดับชาติ มองว่าการพัฒนา AI เป็นเรื่องที่ไม่สามารถมองข้ามได้ เพราะเทคโนโลยีนี้กำลังจะเข้ามามีบทบาทสำคัญในหลายภาคส่วน โดยเฉพาะในภาคสื่อมวลชนที่มีบทบาทในการเผยแพร่ข้อมูล ข่าวสาร และความจริงให้กับประชาชน
ดร.ชัย กล่าวถึงวิวัฒนาการของ AI ที่เริ่มต้นจากการใช้เทคโนโลยีแบบเฉพาะเรื่อง (Narrow AI) ซึ่งสามารถทำงานที่จำกัดและเฉพาะเจาะจงได้ เช่น การจดจำภาพ, การตรวจจับข้อความในภาพ, หรือการรู้จำเสียง ซึ่งในช่วงแรกนั้น AI ยังไม่ได้มีความสามารถในการสร้างข้อมูลหรือเนื้อหาใหม่ๆ ด้วยตนเอง
ปัจจุบัน AI ได้พัฒนาไปสู่การใช้งานในรูปแบบที่สามารถสร้างเนื้อหาหรือข้อมูลใหม่ๆ โดยเฉพาะอย่างยิ่งในยุคของ Generative AI ที่ก้าวหน้ามากขึ้น Generative AI สามารถสร้างข้อความ, ภาพ, วิดีโอ หรือแม้กระทั่งการเขียนเนื้อหาที่คล้ายคลึงกับการเขียนของมนุษย์ ทำให้ AI กลายเป็นเครื่องมือที่สำคัญในด้านต่างๆ เช่น การสร้างเนื้อหาข่าว, การพัฒนาโฆษณา, การสร้างวิดีโอ, การวิเคราะห์ข้อมูล และอื่นๆ
ดร.ชัยได้กล่าวถึงการพัฒนา Generative AI ที่ได้รับความนิยมอย่างรวดเร็ว ตั้งแต่การเปิดตัว ChatGPT ในปี 2022 ซึ่งเป็นจุดเริ่มต้นของการเปลี่ยนแปลงครั้งใหญ่ในวงการเทคโนโลยี AI เมื่อ AI สามารถเข้าใจและสร้างข้อความได้ตามคำสั่ง และยังมีความสามารถในการประมวลผลข้อมูลที่หลากหลาย ทำให้ทุกแบรนด์ในวงการเทคโนโลยีต่างก็พัฒนา AI ของตนเองออกมาอย่างรวดเร็ว
การใช้งาน AI ในภาคสื่อมวลชนมีทั้งข้อดีและข้อเสียที่ต้องพิจารณาอย่างถี่ถ้วน ดร.ชัยได้ยกตัวอย่างถึงผลกระทบของ AI ที่มีต่อการเผยแพร่ข้อมูลในสื่อมวลชน โดยเฉพาะในเรื่องของการสร้างข่าวปลอม (Fake News) ที่ AI สามารถใช้ในการสร้างข้อมูลที่ไม่เป็นความจริงได้อย่างรวดเร็วและง่ายดาย หากไม่ได้มีการควบคุมอย่างมีประสิทธิภาพ
ดร.ชัยกล่าวว่า การใช้ AI ในการสร้างข่าวหรือเนื้อหาในสื่อมวลชนต้องมีการกำหนดจริยธรรมที่ชัดเจน เพื่อให้แน่ใจว่า AI จะไม่ถูกนำไปใช้ในทางที่ผิด เช่น การสร้างข่าวที่บิดเบือนความจริงหรือการเผยแพร่ข้อมูลที่อาจเป็นอันตรายต่อสังคม
"ดังนั้นการพัฒนา AI ในภาคสื่อมวลชนต้องมีการสร้างมาตรฐานจริยธรรมและการตรวจสอบข้อมูลเพื่อให้แน่ใจว่าข้อมูลที่เผยแพร่นั้นถูกต้องและไม่สร้างความสับสนให้กับประชาชน"
ความสำคัญของการกำหนดมาตรฐานในการใช้ AI โดยเฉพาะในภาคสื่อมวลชน ดร.ชัย ระบุว่า เพื่อให้มั่นใจว่า AI ที่ใช้งานจะไม่ละเมิดจริยธรรมและไม่ส่งผลเสียต่อผู้ใช้งานและสังคม โดยเขาเสนอให้มีการพัฒนามาตรฐานการทดสอบ AI ที่สามารถตรวจสอบได้ว่า AI ที่ใช้งานนั้นสามารถปฏิบัติตามจริยธรรมได้อย่างถูกต้อง พร้อมกับยกตัวอย่างของการพัฒนา AI ที่มีความสามารถในการตรวจจับข่าวปลอม (Fake News) ซึ่งเป็นประโยชน์ในการช่วยสื่อมวลชนในการตรวจสอบข้อมูลก่อนการเผยแพร่ และยังสามารถช่วยในการทำงานด้านการสร้างเนื้อหาที่มีคุณภาพและความถูกต้อง
ในช่วงสุดท้ายของการปาฐกถา ดร.ชัยได้กล่าวถึงความสำคัญของการออกกฎหมายและการควบคุม AI ในระดับประเทศ โดยยกตัวอย่างจากกฎหมายของสหภาพยุโรป (EU AI Act) ที่ได้แบ่งการใช้งาน AI ออกเป็น 4 ระดับ ได้แก่ Unacceptable Risk, High Risk, Medium Risk และ Minimal Risk ซึ่งจะต้องมีการควบคุมและกำหนดข้อบังคับที่เหมาะสมตามแต่ละประเภทของ AI เพื่อป้องกันการใช้งานที่อาจเป็นอันตรายต่อสังคม
และเสนอแนวทางในการพัฒนากฎหมาย AI ในประเทศไทย โดยเน้นที่การออกมาตรการควบคุมที่สามารถช่วยส่งเสริมการพัฒนา AI ในประเทศได้อย่างยั่งยืน โดยที่ไม่ทำให้เกิดปัญหาในการใช้งานและไม่ชะลอการพัฒนาเทคโนโลยีใหม่ๆ รวมทั้งการสร้างกรอบการทำงานที่ชัดเจนสำหรับการควบคุม AI ในประเทศไทย โดยเฉพาะในการใช้งาน AI ในภาครัฐ ซึ่งเป็นการใช้เทคโนโลยีที่มีผลกระทบโดยตรงต่อประชาชน