🧠 ยิ่งคิดเป็นขั้นตอน AI ยิ่งมองภาพไม่ออก — งานวิจัยพบ Chain-of-Thought ทำลายความเข้าใจเชิงพื้นที่
ถ้าบอกว่า "คิดช้าๆ เป็นขั้นตอน" จะทำให้ฉลาดขึ้น คุณจะเชื่อไหม?
ในโลก AI วันนี้ ทุกคนเชื่อแบบนั้น เพราะเทคนิค "Chain-of-Thought" ที่ให้ AI คิดทีละขั้นก่อนตอบ ช่วยให้แก้โจทย์คณิตศาสตร์และตรรกะได้เก่งขึ้นมหาศาล
แต่งานวิจัยล่าสุดพบสิ่งที่ตรงกันข้ามโดยสิ้นเชิง
- AI ที่ "คิดเป็นขั้นตอน" กลับเข้าใจภาพและมิติสัมพันธ์แย่ลง
- ยิ่งคิดมาก ยิ่งตอบผิด — เหมือนคนที่คิดมากจนงง
- ทดสอบกับ 17 โมเดลดังๆ บน 13 ชุดข้อสอบเชิงพื้นที่ ผลออกมาชัดเจน
ลองนึกภาพแบบนี้ — คุณถามเด็กว่า "ลูกบอลสีแดงอยู่ทางซ้ายหรือขวาของแก้วน้ำ?"
เด็กมองปุ๊บตอบปั๊บ ถูกทันที
แต่ถ้าบังคับให้เด็กเขียนอธิบายเป็นขั้นตอนก่อนตอบ กลับสับสนจนตอบผิด นี่คือสิ่งที่เกิดกับ AI พอดี
ทีมวิจัยทดสอบโมเดลชั้นนำ 17 ตัว ทั้งแบบที่ถูกฝึกมาให้คิดเป็นขั้นตอน (Reasoning Models) และแบบปกติ ในงานที่ต้องเข้าใจตำแหน่ง ทิศทาง ระยะห่าง และความสัมพันธ์เชิงพื้นที่
ผลลัพธ์น่าตกใจ:
🎯 โมเดลที่ตอบทันทีโดยไม่คิดเป็นขั้นตอน กลับทำคะแนนได้ดีกว่า
🎯 ยิ่งขั้นตอนการคิดยาว ความแม่นยิ่งลดลง
🎯 การแปลงสิ่งที่ "เห็น" เป็นภาษา ทำให้ข้อมูลเชิงพื้นที่บิดเบี้ยว
เปรียบเหมือนศิลปินที่วาดรูปสวยได้ในจังหวะเดียว แต่พอบังคับให้อธิบายทุกฝีแปรงเป็นตัวหนังสือก่อนวาด กลับวาดไม่ออก
เรื่องบางอย่างสมองเข้าใจได้ทันทีโดยไม่ต้องแปลเป็นคำพูด — และ AI ก็เหมือนกัน
นี่คือบทเรียนสำคัญสำหรับวงการ AI ที่กำลังเร่งพัฒนาโมเดลให้ "คิด" มากขึ้นเรื่อยๆ
บางทีคำตอบที่ดีที่สุด ไม่ได้มาจากการคิดมาก แต่มาจากการมองให้เป็น
📄 แหล่งข่าว
huggingface-papers