EN
← กลับหน้าแรก
news 2026-04-07 · technews-tw

🕵️ Microsoft จับได้! AI ถูกวางยาพิษ ปกติดีจนเจอคำลับแล้วเพี้ยนทันที

🕵️ Microsoft จับได้! AI ถูกวางยาพิษ ปกติดีจนเจอคำลับแล้วเพี้ยนทันที

ถ้า AI ที่คุณใช้ทุกวัน ดูปกติดี ตอบถูกทุกอย่าง...

แต่วันหนึ่งมีคนพิมพ์คำลับเข้าไป แล้วมันกลับทำตรงข้ามกับที่ควรทำ?


เคยไหม... โหลดแอปจากแหล่งที่ดูน่าเชื่อถือ แต่จริงๆ มันแอบทำอะไรบางอย่างอยู่เบื้องหลัง? เรื่องนี้กำลังเกิดขึ้นกับโลก AI แบบเดียวกันเลย


ทีมวิจัยความปลอดภัยของ Microsoft เปิดเผยในงาน RSAC 2026 ว่าพวกเขาตรวจพบ AI Model ที่ถูก "วางยาพิษ" อย่างแนบเนียน — เรียกว่า Backdoor Attack

วิธีการคือ ผู้ไม่หวังดีแก้ไขโมเดล AI แล้วอัปขึ้นแพลตฟอร์มแชร์โมเดลสาธารณะ ใครก็โหลดไปใช้ได้ ดูภายนอกทำงานปกติทุกอย่าง แต่ถ้าป้อนคำสั่งที่มี "คำลับ" เข้าไป โมเดลจะให้ผลลัพธ์ผิดทันที


🎯 สิ่งที่น่ากลัวคือ:


ลองนึกภาพ... เหมือนจ้างพนักงานใหม่ที่ทำงานดีเยี่ยม สัมภาษณ์ผ่าน ทดลองงานผ่าน แต่จริงๆ เป็นสายลับที่รอคำสั่งจากข้างนอก พอได้ยินรหัสลับก็เริ่มทำลายจากภายใน

นี่คือเหตุผลที่ Microsoft เตือนว่า อย่าโหลดโมเดล AI มาใช้แบบไม่ตรวจสอบ — เพราะ "ดูดี" ไม่ได้แปลว่า "ปลอดภัย"


โลก AI กำลังเข้าสู่ยุคที่ต้องระวังไม่แค่ว่า AI ฉลาดพอไหม แต่ต้องถามว่า AI ที่เราใช้อยู่ ซื่อสัตย์กับเราจริงหรือเปล่า

📄 แหล่งข่าว

technews-tw
แชร์: Facebook 𝕏
← ก่อนหน้า
🔓 Meta เปลี่ยนเกม — เปิด AI ให้โลก แต่เก็บหัวใจไว
ถัดไป →
🎙️ VibeVoice — Microsoft เปิด Voice AI ฟรี ฟังเสี