Model
Gemini 3.1 Pro ออกแล้ว — โมเดลตัวใหม่ที่คิดหนักกว่าเดิม
![]()
Google ประกาศ Gemini 3.1 Pro เมื่อ 19 ก.พ. 2026 เป็น สมองหลักตัวอัปเกรด ที่อยู่เบื้องหลัง Gemini 3 Deep Think ที่ปล่อยไปเมื่อสัปดาห์ก่อน ตอนนี้เริ่มให้ใช้แล้วทั้งในแอป Gemini, NotebookLM, Vertex AI, Gemini Enterprise และ Gemini API (แบบ preview)
ไว้ทำอะไร
3.1 Pro ออกแบบมาสำหรับงานที่คำตอบสั้น ๆ ไม่พอ ต้องใช้ reasoning ระดับสูง เช่น รวมข้อมูลหลายที่ให้เป็นภาพเดียว หรืออธิบายหัวข้อซับซ้อนให้ชัด บน benchmark ARC-AGI-2 (โจทย์ logic แบบที่โมเดลไม่เคยเห็น) 3.1 Pro ทำได้ 77.1% — สูงกว่า 3 Pro มากกว่า สองเท่า ในด้าน reasoning แปลว่าเวลาอยากให้มัน “คิด” จริง ๆ ไม่ใช่แค่ตอบมาเป็นบรรทัดเดียว ตัวนี้คือตัวที่ใช้
ทำไมต้องสนใจ
- จากคำพูดเป็นโค้ด: สั่งเป็นข้อความ (text prompt) แล้วได้ SVG แอนิเมชันพร้อมเอาไปใช้บนเว็บได้ เล็กคมทุกขนาด ไฟล์เบา เพราะเป็น code ล้วน ไม่ใช่ pixel
- ต่อกับของจริง: ในเดโมโมเดลเอา telemetry สาธารณะมาทำ dashboard จรวจแสดงวงโคจร ISS ได้แบบ real-time การเอา API ที่ยุ่ง ๆ มาทำเป็น UX เรียบ ๆ แบบนี้คือจุดที่ reasoning ใหม่ช่วยได้
- ทั้งสร้างสรรค์และมีปฏิสัมพันธ์: เขียนโค้ดฝูงนก 3D ได้ แล้วให้คนใช้มือควบคุมฝูงและฟังเสียง generative ที่เปลี่ยนตามการเคลื่อนไหว หรือเอาโทนของนิยาย (เช่น Wuthering Heights) มาออกแบบ portfolio สมัยใหม่ — ไม่ใช่แค่สรุปเรื่อง แต่คิดจากอารมณ์เรื่องไปถึง interface ได้
สรุปคือเหมาะกับงานแบบ agent, dashboard, creative coding และทุกอย่างที่ต้องใช้ “สาย reasoning” มากกว่าคำตอบบรรทัดเดียว
ใช้ได้ที่ไหน
- ผู้ใช้ทั่วไป: แอป Gemini และ NotebookLM — โควต้าสูงขึ้นถ้าใช้แพลน Google AI Pro และ Ultra
- นักพัฒนา: ใช้แบบ preview ได้ที่ Google AI Studio, Gemini CLI, Antigravity และ Android Studio
- องค์กร: Vertex AI และ Gemini Enterprise
ทาง Google ปล่อย 3.1 Pro แบบ preview ก่อนเพื่อเก็บ feedback และพัฒนาต่อโดยเฉพาะด้าน agentic workflow ก่อนจะปล่อยแบบทั่วไป ถ้าอยากได้โมเดลที่ “คิด” ผ่านโจทย์ยากได้จริง ไม่ใช่แค่ตอบ — ลองตัวนี้ได้
ลองได้ที่: เปิด AI Studio เลือกโมเดล 3.1 Pro preview หรือใช้ในแอป Gemini ได้ถ้าอยู่แพลน Pro/Ultra