EN
← กลับหน้าแรก
news 2026-04-23 · google-ai-blog

🔬 ทำไม Google ถึงไม่ใช้ GPU เหมือนคนอื่น — เบื้องหลังชิป TPU ที่ขับเคลื่อน AI ทั้งโลก

🔬 ทำไม Google ถึงไม่ใช้ GPU เหมือนคนอื่น — เบื้องหลังชิป TPU ที่ขับเคลื่อน AI ทั้งโลก

ทุกครั้งที่คุณถาม Gemini คุณค้น Google หรือคุณดู YouTube — มีชิปตัวหนึ่งทำงานอยู่เบื้องหลัง

แต่มันไม่ใช่ GPU


ในขณะที่ทั้งโลกแย่งซื้อ GPU จาก NVIDIA จนราคาพุ่งและของขาด Google กลับเดินคนละทาง — พวกเขาออกแบบชิปของตัวเองมาตั้งแต่ปี 2015 ชื่อว่า TPU หรือ Tensor Processing Unit

ชิปที่ไม่ได้เก่งทุกอย่าง แต่เก่งสิ่งเดียวมาก — คำนวณ AI


เคยสงสัยไหมว่า ทำไม Google ถึงรันโมเดลภาษาขนาดใหญ่ได้ถูกกว่าคู่แข่ง?

คำตอบอยู่ที่ TPU:


ล่าสุด Google เปิดตัว TPU รุ่นที่ 8 แบ่งออกเป็นสองแบบชัดเจน:

🔹 TPU 8T — สำหรับ "สอน AI" โดยเฉพาะ เร็วขึ้น แรงขึ้น เทรนโมเดลขนาดใหญ่ได้ในเวลาสั้นลง

🔹 TPU 8I — สำหรับ "ตอบคำถาม" โดยเฉพาะ ประหยัดพลังงาน รับคำถามจากผู้ใช้หลายล้านคนพร้อมกัน

นี่คือครั้งแรกที่ Google แยกชิปออกเป็นสองสายอย่างชัดเจน — เพราะยุค AI Agent ต้องการทั้งสองอย่างในปริมาณมหาศาล


ลองนึกภาพแบบนี้:

ถ้า GPU คือรถกระบะที่ขนของได้ทุกอย่าง TPU ก็คือรถไฟความเร็วสูงที่วิ่งได้เส้นเดียว — แต่เร็วกว่าและประหยัดน้ำมันกว่ามาก

และตอนนี้ Google มีรถไฟสองขบวน — ขบวนหนึ่งขนวัตถุดิบ (เทรน) อีกขบวนส่งสินค้า (ตอบ)


สิ่งที่น่าจับตา:


เราอาจไม่เคยเห็น TPU ด้วยตา แต่ทุกครั้งที่ AI ตอบเราภายในวินาที — มันคือชิปตัวนี้ที่ทำงานอยู่

📄 แหล่งข่าว

google-ai-blog
แชร์: Facebook 𝕏
← ก่อนหน้า
OpenAI เปิด System Card ของ GPT-5.5 — โมเดลที่ฉลาด
ถัดไป →
OpenAI เปิดคู่มือ Codex ตัวช่วยเขียนโค้ดที่ทำงานแท