KEY
POINTS
การเปิดตัวครั้งนี้มีขึ้นหลังจากที่ Google ได้ส่ง Gemini 3 Pro และ Gemini 3 Deep Think ลงสู่ตลาดเมื่อเดือนพฤศจิกายน ซึ่งได้รับกระแสตอบรับอย่างล้นหลาม โดยมีการประมวลผลผ่าน API มากกว่า 1 ล้านล้านโทเคนต่อวัน Gemini 3 Flash จึงถูกสร้างขึ้นเพื่อรักษามาตรฐานการให้เหตุผลระดับสูง (Pro-grade reasoning) แต่เพิ่มประสิทธิภาพด้านความเร็วและการประหยัดพลังงานในระดับโมเดล Flash
Gemini 3 Flash แสดงให้เห็นว่าความเร็วและขนาดที่ขยายตัวขึ้นไม่จำเป็นต้องแลกมาด้วยความฉลาดที่ลดลง โดยมีผลการทดสอบด้านการให้เหตุผลและความรู้ในระดับปริญญาเอก (GPQA Diamond) สูงถึง 90.4% ซึ่งเทียบชั้นได้กับโมเดลขนาดใหญ่ และทำผลงานได้ดีกว่า Gemini 2.5 Pro อย่างชัดเจนในหลายตัวชี้วัด
นอกจากนี้ Gemini 3 Flash ยังมีความโดดเด่นด้านความคุ้มค่า โดยใช้จำนวนโทเคนน้อยลงเฉลี่ย 30% เมื่อเทียบกับรุ่น 2.5 Pro ในการทำงานทั่วไป และมีความเร็วสูงกว่าถึง 3 เท่า โดยกำหนดราคาค่าบริการสำหรับนักพัฒนาดังนี้:
ขยายขีดความสามารถสำหรับนักพัฒนาและผู้ใช้งานทั่วไป
สำหรับกลุ่มนักพัฒนา Gemini 3 Flash มาพร้อมกับความสามารถในการเขียนโค้ดที่รวดเร็ว โดยทำคะแนนบน SWE-bench Verified ได้ถึง 78% ซึ่งสูงกว่าทั้งซีรีส์ 2.5 และ Gemini 3 Pro เหมาะอย่างยิ่งสำหรับการสร้างระบบอัตโนมัติ (Agentic workflows) การวิเคราะห์วิดีโอที่ซับซ้อน และการสร้างแอปพลิเคชันที่ต้องการการตอบสนองแบบเรียลไทม์
ยกระดับการค้นหาด้วย AI Mode ใน Search
นอกจากนี้ Gemini 3 Flash ยังถูกนำไปใช้เป็นโมเดลหลักใน AI Mode ของระบบการค้นหา (Search) ซึ่งจะช่วยให้การตีความคำถามที่มีความซับซ้อนทำได้ละเอียดอ่อนยิ่งขึ้น สามารถแยกแยะความต้องการของผู้ใช้และนำเสนอข้อมูลที่ครอบคลุม พร้อมลิงก์อ้างอิงและข้อมูลท้องถิ่นแบบเรียลไทม์ ช่วยให้การวางแผนการเดินทางหรือการเรียนรู้เรื่องยาก ๆ ทำได้อย่างรวดเร็ว
ปัจจุบัน Gemini 3 Flash เปิดให้ใช้งานแล้วในเวอร์ชัน Preview ผ่าน Gemini API ใน Google AI Studio, Vertex AI และ Gemini Enterprise รวมถึงเริ่มทยอยเปิดให้ใช้งานทั่วไปบนแอป Gemini และ AI Mode ใน Search ตั้งแต่วันนี้เป็นต้นไป