
เตือนภัยช่องโหว่ ChatGPT พบมัลแวร์ Prompt ดึงข้อมูลลับผู้ใช้
ThaiCERT แจ้งเตือน! พบช่องโหว่ใน ChatGPT อาจถูกใช้ผ่าน Prompt อันตรายเพื่อดึงข้อมูลสำคัญออกจากระบบโดยที่ผู้ใช้งานไม่รู้ตัว
KEY
POINTS
- พบช่องโหว่ใน ChatGPT ที่ผู้โจมตีสามารถใช้ Prompt อันตราย (Malicious Prompt) เพื่อขโมยข้อมูลสำคัญของผู้ใช้งาน
- การโจมตีใช้เทคนิค Prompt Injection สร้างช่องทางสื่อสารลับผ่าน DNS เพื่อลักลอบส่งข้อมูลออกไปโดยที่ผู้ใช้ไม่รู้ตัว
- ข้อมูลที่เสี่ยงต่อการรั่วไหลได้แก่ ประวัติการสนทนา ไฟล์ที่อัปโหลด และข้อมูลสำคัญอื่นๆ ที่ป้อนเข้าระบบ
ศูนย์ประสานการรักษาความมั่นคงปลอดภัยระบบคอมพิวเตอร์แห่งชาติ (ThaiCERT) ได้ติดตามสถานการณ์ช่องโหว่ด้านความมั่นคงปลอดภัยที่ตรวจพบในบริการปัญญาประดิษฐ์ของ OpenAI โดยนักวิจัยจาก Check Point Software Technologies พบว่าช่องโหว่ดังกล่าวอาจถูกใช้ในการดึงข้อมูลสำคัญออกจากระบบ (Data Exfiltration) ผ่านช่องทางลับ โดยที่ผู้ใช้งานไม่ทราบหรือไม่ได้ให้ความยินยอม
จากการวิเคราะห์พบว่า ช่องโหว่นี้อาศัยเทคนิค Prompt Injection ร่วมกับกลไกภายในของระบบ (code execution runtime) เพื่อสร้างช่องทางสื่อสารที่มองไม่เห็น (Covert Channel) ส่งผลให้ข้อมูลภายใน เช่น ข้อความสนทนา หรือไฟล์ที่ผู้ใช้งานอัปโหลด อาจถูกส่งออกไปยังภายนอกได้โดยไม่เกิดการแจ้งเตือน
1. รายละเอียดภัยคุกคาม
ช่องโหว่ที่ตรวจพบมีความเกี่ยวข้องกับ execution environment ของ ChatGPT ซึ่งใช้สำหรับการประมวลผลโค้ดและวิเคราะห์ข้อมูล โดยปกติ environment ดังกล่าวถูกออกแบบให้ไม่สามารถส่งข้อมูลออกสู่ภายนอกได้โดยตรง อย่างไรก็ตาม นักวิจัยพบว่ายังมีช่องทางสื่อสารแฝงผ่านกลไก DNS ซึ่งสามารถถูกนำมาใช้เป็นช่องทางลับในการส่งข้อมูลออก (DNS-based covert channel)
ผู้โจมตีสามารถใช้ Prompt ที่ออกแบบมาเป็นพิเศษ เพื่อสั่งให้ระบบรวบรวมข้อมูลจากบทสนทนา ไฟล์ หรือผลลัพธ์ที่ระบบประมวลผล แล้วทำการแปลงข้อมูล (Encode) ให้อยู่ในรูปแบบที่สามารถส่งผ่าน DNS request ได้ โดยกระบวนการดังกล่าวไม่ถูกตรวจจับจากระบบควบคุม และไม่ปรากฏการแจ้งเตือนแก่ผู้ใช้งาน
นอกจากนี้ หากมีการสร้างช่องทางสื่อสารแบบสองทาง (Bidirectional Communication) ผู้โจมตีสามารถส่งคำสั่งกลับเข้าสู่ execution environment และรับผลลัพธ์กลับมาได้ ส่งผลให้สามารถควบคุมระบบในลักษณะ Remote Shell ภายใน Linux runtime ของ ChatGPT ได้ โดยไม่ผ่านกลไกความปลอดภัยหรือการแสดงผลในระบบสนทนา
ลักษณะของช่องโหว่นี้สะท้อนถึงความเสี่ยงรูปแบบใหม่ของ AI ซึ่งไม่ได้เกิดจากการเจาะระบบโดยตรง แต่เป็นการใช้ input ที่เป็นอันตรายเพื่อหลอกให้ระบบเปิดเผยข้อมูลและดำเนินการตามคำสั่งของผู้โจมตี
2. ลักษณะการโจมตีที่สำคัญ ได้แก่
2.1 ผู้โจมตีสร้างคำสั่ง (Prompt) ที่มีลักษณะเป็นอันตราย (Malicious Prompt)
2.2 เผยแพร่หรือหลอกให้ผู้ใช้งานนำ Prompt ดังกล่าวไปใช้งาน เช่น แฝงอยู่ในบทความหรือเว็บไซต์ที่มีความน่าเชื่อถือ
2.3 เมื่อผู้ใช้งานนำ Prompt ไปใช้ ระบบ AI จะประมวลผลคำสั่งและเข้าถึงข้อมูลภายใน เช่น ข้อความสนทนา หรือไฟล์ที่เกี่ยวข้อง
2.4 ข้อมูลที่ถูกเข้าถึงจะถูกแปลงรูปแบบ (Encode) และส่งออกผ่านช่องทางลับ (Covert Channel) เช่น DNS Request
2.5 ผู้โจมตีสามารถรับข้อมูลดังกล่าวได้โดยที่ผู้ใช้งานไม่ทราบ
2.6 ในบางกรณี ผู้โจมตีอาจใช้ช่องทางดังกล่าวเพื่อส่งคำสั่งกลับเข้าสู่ระบบ และควบคุม execution environment ในลักษณะ Remote Shell
หากช่องโหว่ถูกนำไปใช้ อาจส่งผลให้
3.1 ข้อมูลบทสนทนา (Chat history) ถูกเปิดเผย
3.2 ไฟล์ที่ผู้ใช้งานอัปโหลด เช่น เอกสาร หรือข้อมูลส่วนบุคคล ถูกดึงออกจากระบบ
3.3 ข้อมูลสำคัญขององค์กร เช่น ข้อมูลภายใน หรือข้อมูลเชิงกลยุทธ์ รั่วไหล
3.4 ผู้โจมตีอาจสามารถสั่งรันคำสั่งภายใน execution environment ของระบบ AI (ลักษณะ Remote Shell)
3.5 อาจนำไปสู่การโจมตีต่อเนื่อง เช่น การนำข้อมูลไปใช้ใน Phishing หรือการโจมตีแบบเจาะจง (Targeted Attack)
4. เป้าหมายที่ได้รับผลกระทบ
ช่องโหว่นี้อาจกระทบต่อ
4.1 ผู้ใช้งานทั่วไปที่มีการป้อนข้อมูลสำคัญลงใน ChatGPT
4.2 องค์กรที่ใช้ AI ในการประมวลผลข้อมูลภายใน
4.3 ผู้ใช้งานที่มีการอัปโหลดไฟล์ เช่น เอกสารทางการเงิน ข้อมูลสุขภาพ หรือข้อมูลส่วนบุคคล
5. แนวทางการป้องกันสำหรับผู้ดูแลระบบ
5.1 กำหนดนโยบายการใช้งาน AI ภายในองค์กรอย่างชัดเจน
5.2 หลีกเลี่ยงการนำข้อมูลสำคัญเข้าสู่ระบบ AI โดยไม่จำเป็น
5.3 เฝ้าระวังการใช้งาน Prompt จากแหล่งที่ไม่น่าเชื่อถือ
5.4 ใช้แนวคิด Zero Trust สำหรับ input/output ของ AI
5.5 ตรวจสอบและควบคุมการใช้งาน custom GPT หรือ integration ภายนอก
5.6 ติดตามและอัปเดตสถานการณ์ช่องโหว่จากผู้พัฒนาอย่างสม่ำเสมอ
6. ข้อแนะนำสำหรับบุคคลทั่วไป
6.1 ไม่ป้อนข้อมูลสำคัญ เช่น รหัสผ่าน หรือข้อมูลส่วนบุคคล ลงในระบบ AI
6.2 หลีกเลี่ยงการใช้ Prompt ที่มาจากแหล่งที่ไม่สามารถตรวจสอบได้
6.3 ระมัดระวังคำแนะนำประเภท “prompt สำเร็จรูป” หรือ “เพิ่มความสามารถ AI” จากอินเทอร์เน็ต
6.4 ตรวจสอบข้อมูลก่อนนำไปใช้งาน และไม่เปิดเผยข้อมูลสำคัญผ่านระบบโดยไม่จำเป็น
ทั้งนี้ OpenAI ได้ดำเนินการแก้ไขช่องโหว่ดังกล่าวแล้ว และยังไม่พบหลักฐานการถูกนำไปใช้โจมตีในวงกว้าง อย่างไรก็ตาม ผู้ใช้งานควรเพิ่มความระมัดระวังในการใช้งาน AI
ThaiCERT ขอแจ้งเตือนให้หน่วยงานและประชาชนตระหนักถึงความเสี่ยงจากการใช้งาน AI ซึ่งอาจถูกใช้เป็นช่องทางใหม่ในการรั่วไหลของข้อมูล และควรปฏิบัติตามแนวทางการป้องกันอย่างเคร่งครัด







