OpenAI ตั้งรางวัล 9 แสนบาท ท้าแฮกเกอร์เจาะ GPT-5.5 หาช่องโหว่อาวุธชีวภาพ
ถ้า AI ฉลาดขนาดนี้แล้ว... มันจะช่วยคนสร้างอาวุธชีวภาพได้ไหม?
นี่คือคำถามที่ OpenAI ไม่กล้าตอบเอง — เลยเปิดให้คนทั้งโลกมาช่วยหาคำตอบ
OpenAI เพิ่งเปิดตัว Bio Bug Bounty โปรแกรมล่าช่องโหว่แบบใหม่ ที่ไม่ใช่หาบั๊กในโค้ด แต่เป็นการท้าให้แฮกเกอร์และนักวิจัยทั่วโลก ลองหาวิธี "หลอก" GPT-5.5 ให้บอกข้อมูลอันตรายเกี่ยวกับอาวุธชีวภาพ
- ใครหาวิธีเจาะได้ รับเงินรางวัลสูงสุด 25,000 ดอลลาร์ (ราว 9 แสนบาท)
- เน้นหา "universal jailbreak" — วิธีหลอกที่ใช้ได้ซ้ำแล้วซ้ำเล่า ไม่ใช่แค่ครั้งเดียวฟลุก
- โฟกัสเฉพาะความเสี่ยงด้านชีวภาพ เช่น ขั้นตอนสร้างเชื้อโรค สารพิษ หรือสารเคมีอันตราย
ทำไมต้องทำแบบนี้?
เพราะ AI รุ่นใหม่ฉลาดขึ้นมาก — ฉลาดพอที่จะรู้เรื่องวิทยาศาสตร์ลึกๆ แต่ความฉลาดนี้ก็เป็นดาบสองคม ถ้าใครหลอกให้ AI ตอบคำถามผิดๆ ได้ มันอาจกลายเป็นเครื่องมือที่อันตราย
OpenAI เลยเลือกวิธี "จ้างคนมาเจาะก่อน" แทนที่จะรอให้คนร้ายหาช่องโหว่เอง
🎯 สิ่งที่น่าจับตา
- นี่เป็นครั้งแรกที่บริษัท AI ยักษ์ใหญ่ตั้งรางวัลเฉพาะด้านอาวุธชีวภาพ
- สะท้อนว่าวงการ AI เริ่มยอมรับว่า "ความเสี่ยงทางชีวภาพ" เป็นเรื่องจริง ไม่ใช่แค่ทฤษฎี
- โปรแกรมนี้เปิดให้ทั้งนักวิจัยอิสระและทีม red team มืออาชีพเข้าร่วม
- ช่องโหว่ที่พบจะถูกอุดก่อนที่ GPT-5.5 จะเปิดให้ใช้กว้างขึ้น
ลองคิดดู — ถ้าคุณเป็นบริษัทที่สร้างสมองดิจิทัลที่ฉลาดที่สุดในโลก คุณจะมั่นใจได้ยังไงว่ามันจะไม่ถูกใช้ในทางที่ผิด?
คำตอบของ OpenAI คือ: อย่ามั่นใจ — ให้คนอื่นมาพิสูจน์
และนั่นอาจเป็นท่าทีที่ฉลาดที่สุดที่บริษัท AI เคยทำ
📄 แหล่งข่าว
openai-blog