🔬 ทำไม Google ถึงไม่ใช้ GPU เหมือนคนอื่น — เบื้องหลังชิป TPU ที่ขับเคลื่อน AI ทั้งโลก
ทุกครั้งที่คุณถาม Gemini คุณค้น Google หรือคุณดู YouTube — มีชิปตัวหนึ่งทำงานอยู่เบื้องหลัง
แต่มันไม่ใช่ GPU
ในขณะที่ทั้งโลกแย่งซื้อ GPU จาก NVIDIA จนราคาพุ่งและของขาด Google กลับเดินคนละทาง — พวกเขาออกแบบชิปของตัวเองมาตั้งแต่ปี 2015 ชื่อว่า TPU หรือ Tensor Processing Unit
ชิปที่ไม่ได้เก่งทุกอย่าง แต่เก่งสิ่งเดียวมาก — คำนวณ AI
เคยสงสัยไหมว่า ทำไม Google ถึงรันโมเดลภาษาขนาดใหญ่ได้ถูกกว่าคู่แข่ง?
คำตอบอยู่ที่ TPU:
- ออกแบบมาเฉพาะสำหรับงาน AI — ไม่เสียพลังงานไปกับงานอื่น
- ชิปหลายพันตัวเชื่อมกันเป็น "ซูเปอร์คอมพิวเตอร์" ขนาดยักษ์
- ใช้พลังงานน้อยกว่า GPU ในงานเดียวกัน
- รุ่นล่าสุดแบ่งเป็น 2 สาย — ตัวหนึ่งเทรน ตัวหนึ่งตอบ
ล่าสุด Google เปิดตัว TPU รุ่นที่ 8 แบ่งออกเป็นสองแบบชัดเจน:
🔹 TPU 8T — สำหรับ "สอน AI" โดยเฉพาะ เร็วขึ้น แรงขึ้น เทรนโมเดลขนาดใหญ่ได้ในเวลาสั้นลง
🔹 TPU 8I — สำหรับ "ตอบคำถาม" โดยเฉพาะ ประหยัดพลังงาน รับคำถามจากผู้ใช้หลายล้านคนพร้อมกัน
นี่คือครั้งแรกที่ Google แยกชิปออกเป็นสองสายอย่างชัดเจน — เพราะยุค AI Agent ต้องการทั้งสองอย่างในปริมาณมหาศาล
ลองนึกภาพแบบนี้:
ถ้า GPU คือรถกระบะที่ขนของได้ทุกอย่าง TPU ก็คือรถไฟความเร็วสูงที่วิ่งได้เส้นเดียว — แต่เร็วกว่าและประหยัดน้ำมันกว่ามาก
และตอนนี้ Google มีรถไฟสองขบวน — ขบวนหนึ่งขนวัตถุดิบ (เทรน) อีกขบวนส่งสินค้า (ตอบ)
สิ่งที่น่าจับตา:
- ราคาใช้ AI จะถูกลงอีก — เพราะชิปเฉพาะทางประหยัดกว่า
- Google ไม่ต้องพึ่ง NVIDIA อีกต่อไปในหลายงาน
- คู่แข่งอย่าง Amazon และ Microsoft ก็เริ่มทำชิปของตัวเอง — สงครามชิป AI เพิ่งเริ่มต้น
- ผู้ใช้ทั่วไปจะได้ AI ที่เร็วขึ้นและถูกลง โดยไม่ต้องรู้ด้วยซ้ำว่าชิปอะไรทำงานอยู่
เราอาจไม่เคยเห็น TPU ด้วยตา แต่ทุกครั้งที่ AI ตอบเราภายในวินาที — มันคือชิปตัวนี้ที่ทำงานอยู่
📄 แหล่งข่าว
google-ai-blog