
Meta เปิดตัว SAM 3.1 เทคโนโลยี AI ประมวลผลวิดีโอเร็วขึ้น ไม่ต้องใช้ทรัพยากร
Meta เปิดตัว SAM 3.1 ยกระดับการประมวลผลวิดีโอด้วยเทคนิค Object Multiplexing ติดตามวัตถุพร้อมกัน 16 ชิ้นในครั้งเดียว ช่วยเพิ่มความเร็ว 2 เท่า และลดการใช้ทรัพยากร
KEY
POINTS
- Meta เปิดตัว SAM 3.1 ที่ใช้เทคนิคใหม่ “object multiplexing” ทำให้สามารถประมวลผลวิดีโอได้เร็วขึ้นอย่างมีนัยสำคัญ
- โมเดลสามารถติดตามวัตถุได้พร้อมกันสูงสุด 16 ชิ้นในการประมวลผลครั้งเดียว ส่งผลให้ความเร็วเพิ่มขึ้นเป็นสองเท่าและลดการใช้ทรัพยากร
- Meta เปิดโมเดลและโค้ดเป็นโอเพนซอร์ส เพื่อให้ AI ประสิทธิภาพสูงสามารถทำงานบนฮาร์ดแวร์ขนาดเล็กและต้นทุนต่ำลงได้
Meta ได้เปิดตัว SAM 3.1 (Segment Anything Model 3.1) ซึ่งเป็นการอัปเดตจาก SAM 3 ที่เน้นการยกระดับประสิทธิภาพการประมวลผลวิดีโออย่างมีนัยสำคัญ โดยยังคงรักษาความแม่นยำของโมเดลไว้เหมือนเดิม สิ่งที่ทำให้เวอร์ชันนี้โดดเด่นไม่ใช่เพียงการปรับปรุงเล็กน้อย แต่เป็นการเปลี่ยนแนวคิดหลักในการประมวลผลวัตถุในวิดีโอผ่านเทคนิคที่เรียกว่า “object multiplexing”
ในเวอร์ชันก่อนหน้า การติดตามวัตถุหลายชิ้นในวิดีโอจำเป็นต้องประมวลผลแยกกัน วัตถุหนึ่งชิ้นต้องใช้หนึ่ง Forward Pass ส่งผลให้เกิดการใช้ทรัพยากรซ้ำซ้อนทั้งในด้านพลังประมวลผลและหน่วยความจำ แต่ใน SAM 3.1 โมเดลสามารถติดตามวัตถุได้พร้อมกันสูงสุดถึง 16 ชิ้นภายใน Forward Pass เดียว แนวทางนี้ช่วยลดภาระการคำนวณที่ซ้ำซ้อน และแก้ปัญหาคอขวดด้าน memory ได้อย่างมีประสิทธิภาพ
ผลลัพธ์ที่เกิดขึ้นคือประสิทธิภาพที่เพิ่มขึ้นอย่างชัดเจน โดยเฉพาะในงานวิดีโอที่มีจำนวนวัตถุระดับปานกลาง ความเร็วในการประมวลผลเพิ่มขึ้นประมาณสองเท่า จากเดิม 16 เฟรมต่อวินาทีเป็น 32 เฟรมต่อวินาทีบน GPU ระดับสูงอย่าง H100 ซึ่งสะท้อนให้เห็นว่าการปรับปรุงนี้ไม่ได้เป็นเพียงเรื่องของความเร็ว แต่เป็นการเพิ่ม “ประสิทธิภาพต่อทรัพยากร” อย่างแท้จริง
หากมองในเชิงกลยุทธ์ การพัฒนาในลักษณะนี้มีผลโดยตรงต่อการนำ AI ไปใช้งานจริงในระดับองค์กรและผลิตภัณฑ์ เพราะช่วยลดต้นทุนต่อการประมวลผล เพิ่มความเป็นไปได้ของระบบ Real-Time และเปิดทางให้การใช้งาน AI บนอุปกรณ์ปลายทางหรือ Edge Device เกิดขึ้นได้จริงมากขึ้น






