AI นักวิทย์ได้ผลลัพธ์ แต่ไม่ได้ 'คิดแบบนักวิทย์' จริง
ถ้า AI ตอบถูก แต่ไม่ได้เข้าใจจริง — คุณจะเชื่อมันไหม?
ทุกวันนี้บริษัทเทคโนโลยียักษ์ใหญ่แข่งกันโฆษณาว่า AI ทำวิจัยวิทยาศาสตร์ได้แล้ว ค้นพบยาใหม่ได้ ออกแบบวัสดุใหม่ได้ แต่งานวิจัยล่าสุดจาก arXiv เปิดเผยความจริงที่น่าตกใจ
- AI ทำ "ขั้นตอน" วิทยาศาสตร์ได้ แต่ไม่ได้ "คิด" แบบนักวิทยาศาสตร์
- 68% ของกรณี — AI เพิกเฉยหลักฐานที่อยู่ตรงหน้า
- มีแค่ 26% ที่ AI ยอมเปลี่ยนใจเมื่อเจอข้อมูลขัดแย้ง
เคยไหม... ทำงานกับคนที่ทำตามขั้นตอนได้หมด แต่พอเจอปัญหานอกสคริปต์ก็หยุดนิ่ง? AI ตอนนี้ก็คล้ายๆ แบบนั้น มันรันกระบวนการวิจัยได้ แต่ไม่ได้ "เข้าใจ" ว่าทำไมต้องทำแบบนี้
ทีมวิจัยทดสอบ AI นักวิทยาศาสตร์มากกว่า 25,000 รอบ ใน 8 สาขา ตั้งแต่งานง่ายอย่างทำตามขั้นตอน ไปจนถึงงานยากอย่างตั้งสมมติฐานและพิสูจน์
ผลออกมาชัดเจน — ตัวโมเดลพื้นฐานกำหนดผลลัพธ์ถึง 41.4% ในขณะที่โครงสร้างระบบ agent รอบนอกมีผลแค่ 1.5% เท่านั้น
🎯 สิ่งที่ค้นพบสำคัญ:
- AI ทำ "ท่า" วิทยาศาสตร์ได้ — เขียนโค้ด รันทดลอง สรุปผล — แต่ขาดแก่นของการคิดเชิงวิทยาศาสตร์
- เมื่อหลักฐานขัดกับสมมติฐาน AI มักเพิกเฉยแทนที่จะกลับไปตั้งคำถามใหม่
- แม้ให้ตัวอย่างการใช้เหตุผลที่ถูกต้องเป็นแนวทาง ข้อบกพร่องก็ยังคงอยู่
- ยิ่งทดลองซ้ำหลายรอบในงานที่ต้องใช้ตรรกะลึก ความผิดพลาดยิ่งสะสม
ลองนึกภาพ — นักเรียนที่ท่องสูตรได้หมด ทำข้อสอบได้คะแนนเต็ม แต่พอให้อธิบายว่า "ทำไม" สูตรนี้ใช้ได้ กลับตอบไม่ได้ AI นักวิทย์ตอนนี้ก็เหมือนกัน
ทีมวิจัยสรุปตรงๆ ว่า: "จนกว่าการใช้เหตุผลจะกลายเป็นเป้าหมายในการฝึกสอน ความรู้ที่ AI สร้างขึ้น ก็ไม่อาจรับรองได้ด้วยกระบวนการที่สร้างมันขึ้นมา"
นี่ไม่ได้แปลว่า AI ไร้ประโยชน์ในงานวิทยาศาสตร์ แต่มันเป็นสัญญาณเตือนว่า อย่าเพิ่งวางใจ AI แบบหลับตา โดยเฉพาะในงานที่ "ผิดแล้วอันตราย" อย่างการค้นพบยาหรือวัสดุใหม่
📄 แหล่งข่าว
huggingface-papers