EN
← กลับหน้าแรก
news 2026-04-15 · NVIDIA Newsroom

ถ้าหุ่นยนต์ฟังคำสั่งภาษาคนได้ เข้าใจสิ่งที่เห็น แล้วลงมือทำงานซับซ้อนได้เอง... โลกจะเปลี่ยนไปแค่ไหน?

ถ้าหุ่นยนต์ฟังคำสั่งภาษาคนได้ เข้าใจสิ่งที่เห็น แล้วลงมือทำงานซับซ้อนได้เอง... โลกจะเปลี่ยนไปแค่ไหน?

ถ้าหุ่นยนต์ฟังคำสั่งภาษาคนได้ เข้าใจสิ่งที่เห็น แล้วลงมือทำงานซับซ้อนได้เอง... โลกจะเปลี่ยนไปแค่ไหน?


เคยไหม... บอกให้คนช่วยหยิบของบนโต๊ะ เขาก็หยิบได้เลย ไม่ต้องอธิบายว่ามือต้องเคลื่อนยังไง กำแน่นแค่ไหน เพราะสมองมนุษย์เข้าใจเอง — แต่หุ่นยนต์ทำแบบนี้ไม่ได้... จนถึงตอนนี้


NVIDIA เพิ่งเปิดตัว 2 สิ่งที่จะเปลี่ยนวงการหุ่นยนต์:

1. GR00T N1.7 — "สมอง" ของหุ่นยนต์ที่เข้าใจภาษามนุษย์ มองเห็นสิ่งรอบตัว แล้วลงมือทำได้ พร้อมใช้งานจริงแล้ว

2. Newton 1.0 — "เครื่องจำลองฟิสิกส์" แบบเปิด (สร้างร่วมกับ Google DeepMind + Disney) ให้หุ่นยนต์ฝึกในโลกเสมือนก่อนทำจริง

มีพันธมิตร 110 บริษัททั่วโลก ตั้งแต่ ABB, FANUC, Universal Robots ไปจนถึง Figure


🎯 ทำไมเรื่องนี้สำคัญ:


เหมือนสอนลูกจ้างใหม่ที่แค่บอกว่า "ช่วยจัดของบนชั้นตามขนาด" แล้วเขาทำได้เลย — นั่นคือสิ่งที่ GR00T ทำให้หุ่นยนต์

ลองนึกภาพโรงงานที่หุ่นยนต์เข้าใจคำสั่งทันที ร้านอาหารที่หุ่นยนต์เสิร์ฟเอง ไร่นาที่หุ่นยนต์แยกวัชพืชจากพืชผลได้ — ทุกอย่างกำลังเกิดขึ้นจริง


หุ่นยนต์ไม่ใช่เรื่องในหนังอีกต่อไป — กำลังก้าวเข้ามาเป็นเพื่อนร่วมงานจริงๆ

📄 แหล่งข่าว

NVIDIA Newsroom
แชร์: Facebook 𝕏
← ก่อนหน้า
มนุษย์ออกข้อสอบยากที่สุดเท่าที่คิดได้เพื่อท้าทาย A
ถัดไป →
บริษัท AI ที่สร้าง ChatGPT กำลังจะเข้าตลาดหุ้น...