OpenAI เปิด WebSocket ใน Responses API ลดความหน่วงให้ AI Agent ทำงานเร็วขึ้นเท่าตัว
ถ้าคุณเคยรอ AI ทำงานหลายขั้นตอนแล้วรู้สึกว่า "ทำไมช้าจัง" — คุณไม่ได้คิดไปเอง
ปัญหาไม่ได้อยู่ที่ AI คิดช้า แต่อยู่ที่ "ท่อน้ำ" ที่ส่งข้อมูลไปมาระหว่างคุณกับ AI ต่างหาก
ลองนึกภาพแบบนี้ — ทุกครั้งที่ AI Agent ต้องทำงานสักอย่าง มันต้อง:
- เปิดประตูใหม่ทุกครั้ง (สร้าง HTTP connection)
- แนะนำตัวใหม่ทุกรอบ (ส่ง context ซ้ำ)
- รอยืนยันตัวตนอีกครั้ง (TLS handshake)
แค่เปิด-ปิดประตูก็กินเวลาไปเยอะแล้ว โดยเฉพาะงานที่ Agent ต้องวนเรียก API ซ้ำๆ หลายสิบรอบ
OpenAI เพิ่งเปิดทางออกใหม่ — **WebSocket ใน Responses API**
แทนที่จะเปิด-ปิดประตูทุกรอบ ตอนนี้ AI กับเซิร์ฟเวอร์คุยกันผ่าน "สายตรง" เส้นเดียว เปิดครั้งเดียวใช้ได้ตลอด
🎯 สิ่งที่เปลี่ยนไปจริงๆ:
- **Connection-Scoped Caching** — ระบบจำบริบทที่เคยส่งไว้แล้ว ไม่ต้องส่งซ้ำทุกรอบ ประหยัดทั้งเวลาและค่า token
- **ลด overhead** — ไม่ต้องสร้าง connection ใหม่ทุกครั้ง ความหน่วงลดลงอย่างมีนัยสำคัญ
- **เร็วขึ้นราว 2 เท่า** สำหรับงาน agentic loop ที่ต้องวนเรียก tool หลายรอบ
- **ออกแบบมาเพื่อ Codex** — ระบบ Agent ของ OpenAI เองที่ต้องเรียก API วนซ้ำ เขียนโค้ด → ทดสอบ → แก้ → ทดสอบ
ลองนึกว่าคุณโทรหาเพื่อนเรื่องงาน แต่ทุก 30 วินาทีสายหลุด ต้องกดโทรใหม่ บอกชื่อใหม่ เล่าเรื่องจากต้นใหม่ — นั่นคือ HTTP แบบเดิม
ตอนนี้ OpenAI ให้สายตรงที่ไม่หลุด ไม่ต้องเล่าซ้ำ พูดต่อจากที่ค้างได้เลย — นั่นคือ WebSocket
สำหรับนักพัฒนาที่สร้าง AI Agent หรือใช้ Codex อยู่ นี่คือการอัปเกรดที่ "รู้สึกได้" ทันที ไม่ต้องเปลี่ยนวิธีคิด แค่เปลี่ยนวิธีเชื่อมต่อ
ยุคที่ AI Agent ทำงานแทนเราทุกอย่าง เพิ่งจะมาถึงจริงๆ ตอนที่มันทำได้ "เร็วพอ"
📄 แหล่งข่าว
openai-blog