
“ทรัมป์” กลับลำคุม AI เตรียมตั้งด่านตรวจโมเดลก่อนเปิดใช้จริง
ทำเนียบขาวสหรัฐฯ อยู่ระหว่างพิจารณากลไกตรวจสอบโมเดล AI ก่อนเปิดใช้งาน หลังเคยยกเลิกคำสั่งยุคไบเดน สะท้อนแรงกดดันใหม่จากความเสี่ยงเทคโนโลยีขั้นสูง ขณะ Anthropic ถูกจับตาหนักจากกรณีโมเดล Mythos
KEY
POINTS
- รัฐบาลทรัมป์เปลี่ยนท่าที เตรียมพิจารณาออกคำสั่งฝ่ายบริหารเพื่อสร้างกระบวนการตรวจสอบโมเดล AI ก่อนเปิดให้สาธารณชนใช้งาน
- มีแนวคิดจัดตั้ง “คณะทำงาน AI” ที่ประกอบด้วยตัวแทนจากภาครัฐและบริษัทเทคโนโลยี เพื่อร่วมกันกำหนดแนวทางการกำกับดูแล
- รูปแบบการตรวจสอบอาจคล้ายกับของสหราชอาณาจักร โดยให้หน่วยงานความมั่นคงเข้าประเมินความปลอดภัยของโมเดล แต่ยังไม่ให้อำนาจสั่งระงับการเปิดตัว
รายงานจาก The New York Times ระบุว่า รัฐบาลสหรัฐภายใต้ โดนัลด์ ทรัมป์ (Donald Trump) กำลังหารือภายในเกี่ยวกับความเป็นไปได้ในการออกคำสั่งฝ่ายบริหาร เพื่อกำหนดกระบวนการตรวจสอบโมเดลปัญญาประดิษฐ์ (AI) ก่อนเปิดให้สาธารณชนใช้งาน โดยอ้างอิงข้อมูลจากเจ้าหน้าที่รัฐที่ไม่เปิดเผยชื่อ
สาระสำคัญของแนวคิดดังกล่าว คือการจัดตั้ง “คณะทำงาน AI” ที่มีทั้งตัวแทนภาครัฐและผู้บริหารบริษัทเทคโนโลยี เพื่อร่วมกันกำหนดแนวทางกำกับดูแล โดยมีการบรีฟเบื้องต้นให้กับบริษัทชั้นนำอย่าง Anthropic, Google และ OpenAI แล้ว
ทิศทางดังกล่าวนับเป็นการเปลี่ยนจุดยืนเชิงนโยบายอย่างมีนัยสำคัญ หลังจากรัฐบาลทรัมป์ในช่วงเริ่มต้นได้ยกเลิกคำสั่งฝ่ายบริหารด้านความเสี่ยง AI ในยุค โจ ไบเดน (Joe Biden) ซึ่งเคยวางกรอบการกำกับดูแลเทคโนโลยีนี้ไว้ก่อนหน้า
แหล่งข่าวระบุว่า การขยับนโยบายครั้งนี้เกิดขึ้นท่ามกลางความไม่ชัดเจนของทิศทางกำกับดูแล AI ภายในทำเนียบขาว หลัง เดวิด แซคส์ (David Sacks) ผู้มีบทบาทผลักดันแนวทางลดกฎระเบียบ ได้พ้นจากตำแหน่งไปก่อนหน้านี้ ส่งผลให้บทบาทกำหนดนโยบายถูกถ่ายโอนไปยังทีมแกนหลัก อาทิ Susie Wiles และ Scott Bessent
โครงสร้างที่อยู่ระหว่างการพิจารณามีลักษณะใกล้เคียงกับโมเดลของ UK AI Security Institute ซึ่งให้หน่วยงานรัฐเข้าประเมินความปลอดภัยของโมเดล AI ทั้งก่อนและหลังการใช้งาน โดยหน่วยงานสหรัฐที่อาจมีบทบาท ได้แก่ National Security Agency, Office of the National Cyber Director และ Office of the Director of National Intelligence อย่างไรก็ตาม แนวทางนี้ยังไม่ถึงขั้นให้อำนาจรัฐสั่งระงับการเปิดตัวโมเดล แต่จะเปิดให้เข้าถึงและประเมินล่วงหน้า
หนึ่งในปัจจัยที่ถูกมองว่าเป็น “ตัวเร่ง” ของการทบทวนเชิงนโยบาย คือกรณีโมเดล Mythos ของ Anthropic ซึ่งบริษัทระบุว่าสามารถตรวจจับช่องโหว่ซอฟต์แวร์ระดับวิกฤตได้จำนวนมาก และมีความเสี่ยงเกินกว่าจะเปิดใช้งานสาธารณะ
อย่างไรก็ตาม ความเคลื่อนไหวดังกล่าวเกิดขึ้นท่ามกลางความตึงเครียดระหว่างภาครัฐกับบริษัท หลังโครงการสัญญามูลค่า 200 ล้านดอลลาร์สหรัฐ (ราว 6.5 พันล้านบาท) กับเพนตากอนล้มลง โดย Anthropic ปฏิเสธเงื่อนไขที่เกี่ยวข้องกับการผ่อนคลายข้อจำกัดด้านความปลอดภัยของเทคโนโลยีอาวุธอัตโนมัติและการเฝ้าระวัง ส่งผลให้ถูกจัดเป็นความเสี่ยงด้านซัพพลายเชน แม้ต่อมาศาลรัฐบาลกลางจะตั้งข้อสังเกตต่อการตีความดังกล่าว
ในอีกด้าน หน่วยงานความมั่นคงอย่าง National Security Agency ได้นำโมเดลดังกล่าวไปใช้ตรวจสอบช่องโหว่ในระบบของ Microsoft ภายในภาครัฐแล้ว แต่การเข้าถึงยังจำกัดอยู่ในบางหน่วยงาน
ทั้งนี้ ยังมีข้อถกเถียงในแวดวงผู้เชี่ยวชาญถึงระดับความสามารถของ Mythos โดยบางการศึกษาชี้ว่า โมเดลที่มีต้นทุนต่ำกว่าสามารถให้ผลลัพธ์ใกล้เคียงกันในการค้นหาช่องโหว่
เจ้าหน้าที่ทำเนียบขาวระบุว่า แนวคิดเรื่องคำสั่งฝ่ายบริหารยังอยู่ในขั้น “การคาดการณ์” และหากมีความคืบหน้าจะต้องประกาศอย่างเป็นทางการโดย โดนัลด์ ทรัมป์ ขณะที่ ดีน บอลล์ (Dean Ball) อดีตที่ปรึกษาด้าน AI ให้ความเห็นว่า การกำหนดนโยบายในช่วงนี้เป็นความพยายามหาสมดุลระหว่างการไม่สร้างภาระกำกับดูแลเกินจำเป็น กับการรับมือความเสี่ยงของเทคโนโลยีที่พัฒนาอย่างรวดเร็ว ซึ่งเป็น “โจทย์ที่ยาก”
ที่มา Tomshardware







