🕵️ Microsoft จับได้! AI ถูกวางยาพิษ ปกติดีจนเจอคำลับแล้วเพี้ยนทันที
ถ้า AI ที่คุณใช้ทุกวัน ดูปกติดี ตอบถูกทุกอย่าง...
แต่วันหนึ่งมีคนพิมพ์คำลับเข้าไป แล้วมันกลับทำตรงข้ามกับที่ควรทำ?
- คุณจะรู้ได้ยังไงว่า AI กำลังโกหกคุณ?
- ถ้าบริษัทโหลดโมเดลมาใช้โดยไม่รู้ว่ามันถูก "ฝังระเบิด" ไว้ล่ะ?
- แค่คำเดียว ก็เปลี่ยนผลลัพธ์จากถูกเป็นผิดได้เลย
เคยไหม... โหลดแอปจากแหล่งที่ดูน่าเชื่อถือ แต่จริงๆ มันแอบทำอะไรบางอย่างอยู่เบื้องหลัง? เรื่องนี้กำลังเกิดขึ้นกับโลก AI แบบเดียวกันเลย
ทีมวิจัยความปลอดภัยของ Microsoft เปิดเผยในงาน RSAC 2026 ว่าพวกเขาตรวจพบ AI Model ที่ถูก "วางยาพิษ" อย่างแนบเนียน — เรียกว่า Backdoor Attack
วิธีการคือ ผู้ไม่หวังดีแก้ไขโมเดล AI แล้วอัปขึ้นแพลตฟอร์มแชร์โมเดลสาธารณะ ใครก็โหลดไปใช้ได้ ดูภายนอกทำงานปกติทุกอย่าง แต่ถ้าป้อนคำสั่งที่มี "คำลับ" เข้าไป โมเดลจะให้ผลลัพธ์ผิดทันที
🎯 สิ่งที่น่ากลัวคือ:
- ทดสอบปกติ ผ่านหมด — ดูดีทุกอย่าง
- เจอคำลับเมื่อไหร่ ระบบเพี้ยนเมื่อนั้น
- บริษัทที่โหลดโมเดลฟรีมาใช้ อาจไม่รู้ตัวเลยว่ากำลังใช้ของที่ถูกฝังกับดัก
- Microsoft พบโมเดลพิษบนแพลตฟอร์มยอดนิยมจริงๆ ไม่ใช่แค่ทฤษฎี
ลองนึกภาพ... เหมือนจ้างพนักงานใหม่ที่ทำงานดีเยี่ยม สัมภาษณ์ผ่าน ทดลองงานผ่าน แต่จริงๆ เป็นสายลับที่รอคำสั่งจากข้างนอก พอได้ยินรหัสลับก็เริ่มทำลายจากภายใน
นี่คือเหตุผลที่ Microsoft เตือนว่า อย่าโหลดโมเดล AI มาใช้แบบไม่ตรวจสอบ — เพราะ "ดูดี" ไม่ได้แปลว่า "ปลอดภัย"
โลก AI กำลังเข้าสู่ยุคที่ต้องระวังไม่แค่ว่า AI ฉลาดพอไหม แต่ต้องถามว่า AI ที่เราใช้อยู่ ซื่อสัตย์กับเราจริงหรือเปล่า
📄 แหล่งข่าว
technews-tw