🧩 ComfyUI DiffAid Patches — ภาพตรงปก ไม่ต้องลุ้น
เคยพิมพ์ prompt ยาวเป็นหน้า แต่ AI วาดออกมาไม่ตรงสักอย่างไหม?
- สั่งให้มีแมว 3 ตัวบนโต๊ะ ได้แมว 1 ตัวลอยกลางอากาศ
- อยากได้ผู้หญิงถือร่มสีแดงในสวน ได้ร่มสีน้ำเงินบนหลังคา
- ยิ่ง prompt ซับซ้อน ยิ่งได้ภาพไม่ตรงเรื่อง
ปัญหานี้ไม่ใช่เรื่องของ prompt ไม่ดี แต่เป็นเพราะตัวโมเดลสร้างภาพเองไม่ได้ "อ่าน" ทุกคำอย่างเท่าเทียมกัน บางคำถูกข้ามไป บางคำได้ความสำคัญมากเกินไป — เหมือนให้คนอ่านหนังสือแล้วจำได้แค่บางบรรทัด
นักวิจัยเปิดตัว **Diff-Aid** พร้อม ComfyUI node สำเร็จรูป — ระบบที่ทำหน้าที่เหมือน "ล่ามส่วนตัว" ระหว่างข้อความกับภาพ
มันจะวิเคราะห์ทุกคำใน prompt แล้วปรับน้ำหนักแบบอัตโนมัติในแต่ละขั้นตอนการสร้างภาพ — คำไหนสำคัญตอนไหน คำไหนควรเน้นมากขึ้น ทั้งหมดนี้ทำแบบ real-time โดยไม่ต้องเทรนโมเดลใหม่
🎯 ทำไมถึงน่าสนใจ:
- **ใส่แล้วใช้ได้เลย** — เป็น plug-and-play ไม่ต้องเทรนอะไรเพิ่ม
- **ใช้ได้กับโมเดลยอดนิยม** — รองรับ Stable Diffusion 3.5 และ FLUX
- **ไม่กระทบ workflow เดิม** — ใช้ร่วมกับ LoRA, ControlNet และเทคนิคอื่นๆ ได้ปกติ
- **ภาพตรง prompt มากขึ้น** — โดยเฉพาะ prompt ซับซ้อนที่มีหลายองค์ประกอบ
ลองนึกภาพว่าเดิมคุณต้องสั่งงานช่างวาดที่ฟังแค่ครึ่งเดียว ตอนนี้มีคนมาคอยกระซิบข้างหูช่างว่า "เฮ้ อย่าลืมร่มสีแดงนะ" ทุกจังหวะที่ลงพู่กัน
สำหรับคนที่ใช้ ComfyUI อยู่แล้ว แค่โหลด node มาวางใน workflow — ไม่ต้องเปลี่ยนอะไรทั้งนั้น
อนาคตของการสร้างภาพ AI ไม่ใช่โมเดลที่ใหญ่ขึ้น แต่คือโมเดลที่ "ฟัง" เก่งขึ้น
📄 แหล่งข่าว
sd-reddit