บริษัท Anthropic ผู้พัฒนา AI เผยแพร่รายงานข่าวกรองภัยคุกคามประจำเดือนสิงหาคม 2568 เปิดเผยสถานการณ์น่าตกใจของการใช้โมเดล Claude ในทางที่ผิด โดยพบว่าอาชญากรไซเบอร์และผู้กระทำความผิดอื่นๆ กำลังพยายามอย่างจริงจังในการหาช่องทางเพื่อหลีกเลี่ยงมาตรการรักษาความปลอดภัยที่ซับซ้อนของบริษัท
รายงานนี้นำเสนอตัวอย่างล่าสุดหลายกรณีของการใช้ Claude ในทางที่ผิด รวมถึงการปฏิบัติการขูดรีดเงินขนาดใหญ่โดยใช้ Claude Code แผนการจ้างงานฉ้อฉลจากเกาหลีเหนือ และการขาย Ransomware ที่สร้างโดย AI จากอาชญากรไซเบอร์ที่มีทักษะการเขียนโค้ดเพียงระดับพื้นฐาน ซึ่งแสดงให้เห็นว่าผู้กระทำภัยคุกคามได้ปรับการปฏิบัติการของพวกเขาเพื่อใช้ประโยชน์จากความสามารถที่ก้าวหน้าที่สุดของ AI
และที่น่ากังวลคือ อาชญากรไซเบอร์และผู้ฉ้อฉลได้นำ AI มาใช้ในทุกขั้นตอนของการปฏิบัติการ ซึ่งรวมถึงการวิเคราะห์เหยื่อ การวิเคราะห์ข้อมูลที่ขโมยมา การขโมยข้อมูลบัตรเครดิต และการสร้างตัวตนปลอมที่ทำให้การปฏิบัติการฉ้อฉลสามารถขยายการเข้าถึงไปยังเป้าหมายที่เป็นไปได้มากขึ้น
สิ่งที่ทำให้กรณีนี้พิเศษคือผู้กระทำใช้ AI ในระดับที่ Anthropic เชื่อว่าไม่เคยมีมาก่อน โดย Claude Code ถูกใช้เพื่อทำการสอดแนมอัตโนมัติ เก็บข้อมูลประจำตัวของเหยื่อ และเจาะเข้าเครือข่าย ที่น่าตกใจยิ่งกว่าคือ Claude ได้รับอนุญาตให้ตัดสินใจทั้งในเชิงยุทธวิธีและยุทธศาสตร์ เช่น การตัดสินใจว่าจะขโมยข้อมูลใดออกมา และวิธีการสร้างคำขูดรีดที่เป้าหมายทางจิตวิทยา Claude ยังวิเคราะห์ข้อมูลทางการเงินที่ขโมยมาเพื่อกำหนดจำนวนค่าไถ่ที่เหมาะสม และสร้างจดหมายค่าไถ่ที่ดูน่าตกใจซึ่งแสดงบนเครื่องของเหยื่อ
Anthropic ระบุว่าบริษัทได้พัฒนามาตรการรักษาความปลอดภัยและการรักษาความปลอดภัยที่ซับซ้อนเพื่อป้องกันการใช้โมเดล AI ของเราในทางที่ผิด และได้ครอบคลุมขั้นตอนที่ดำเนินการเพื่อตรวจจับและต่อต้านการใช้งานในทางที่ผิดเหล่านี้