کبھی ایسا ہوا ہے کہ آپ AI سے بنی ہوئی تصویر کو گھورتے رہ جائیں اور سوچیں:
“آخر اس اینیمی لڑکی کے کتنے ہاتھ ہیں؟”
میرے ساتھ ہوا ہے — اور سچ کہوں تو ایک لمحے کے لیے لگا کہ شاید میں ہی پاگل ہو رہا ہوں۔ تصویر میں صاف صاف تین ہاتھ تھے… مگر ماڈل بار بار یہی کہتا رہا کہ ہاتھ تو صرف دو ہیں۔
میں نے اسے اضافی ہاتھ ہٹانے کو پانچ بار کہا۔
کوئی فرق نہیں پڑا۔
اور سب سے مزے کی بات؟ اس نے “اوہ” بھی نہیں کہا۔ الٹا اپنی غلط بات پر اور اَڑ گیا۔
یہ اس بات کی بہترین مثال ہے کہ AI hallucinations امیج جنریشن میں کیسے سامنے آتی ہیں — اور کیوں “بس دوبارہ کہہ دو” ہمیشہ کام نہیں کرتا۔
تصاویر میں “hallucination” کیسی لگتی ہے
متن میں hallucination کا مطلب ہوتا ہے گھڑی ہوئی معلومات۔
تصویر میں اس کا مطلب ہے غلط anatomy اور من گھڑت details جو پہلی نظر میں کافی حقیقی لگ سکتی ہیں۔
عام مثالیں:
- اضافی انگلیاں / اضافی اعضا
- ناممکن جوڑ
- ڈپلیکیٹ آبجیکٹس
- غیر مستقل accessories (کانوں کی بالیاں بدل جاتی ہیں، لوگوز بگڑ جاتے ہیں)
- عجیب سائے جو روشنی کے منبع سے میل نہیں کھاتے
ماڈل کو پتا نہیں ہوتا کہ وہ غلط ہے — وہ صرف ایسے pixels کا اندازہ لگا رہا ہوتا ہے جو اس کے سیکھے ہوئے patterns سے میل کھاتے ہیں۔ اگر “anime girl + pose + framing” اکثر کچھ خاص shapes کے ساتھ جڑا ہو، تو ماڈل تصویر کو اس انداز میں “مکمل” کر سکتا ہے جو دیکھنے میں قابلِ یقین لگے مگر جسمانی طور پر درست نہ ہو۔
آپ نشاندہی بھی کر دیں تو ماڈل کیوں نہیں ٹھیک کرتا؟
یہی حصہ لوگوں کو سب سے زیادہ حیران کرتا ہے: آپ غلطی کو بالکل واضح انداز میں بیان کر دیں، پھر بھی ماڈل اسے درست کرنے میں ناکام رہ سکتا ہے۔
اس کی چند وجوہات ہیں:
- یہ انسان کی طرح تفصیلات کو قابلِ اعتماد طریقے سے “گن” یا verify نہیں کر سکتا۔
یہ کوئی حقیقی audit pass نہیں چلا رہا ہوتا؛ ہر بار صرف نئی guess دے رہا ہوتا ہے۔ - آپ کی درخواست composition سے ٹکرا جاتی ہے۔
ایک ہاتھ ہٹانے سے pose، silhouette یا وہ balance ٹوٹ سکتا ہے جو ماڈل کو “پسند” ہے، اس لیے وہ بار بار وہی structure دوبارہ بنا دیتا ہے۔ - اسے ڈیزائن ہی ایسے کیا گیا ہے کہ یہ بہت پراعتماد لگے۔
کئی ماڈلز بہت confidence کے ساتھ جواب دیتے ہیں۔ اس لیے “ہاں، آپ ٹھیک کہہ رہے ہیں، یہاں تیسرا ہاتھ ہے” کہنے کے بجائے یہ کہتا ہے “دو ہاتھ ہیں”، چاہے آپ کی آنکھیں کچھ اور دیکھ رہی ہوں۔ - Edit ہمیشہ حقیقی edit نہیں ہوتا۔
استعمال ہونے والے ٹول کے لحاظ سے “edit” کئی بار “ملتی جلتی تصویر دوبارہ بنا دو” جیسا رویہ اختیار کرتا ہے، اور وہی غلطی بار بار واپس آ جاتی ہے۔
پروڈکٹ بنانے والوں کے لیے عملی سبق
اگر آپ ایسا پروڈکٹ بنا رہے ہیں جو امیج جنریشن استعمال کرتا ہے، تو آپ یہ فرض نہیں کر سکتے کہ:
- ایک prompt = ایک درست نتیجہ
- ماڈل اصلاحی درخواست پر عمل کرے گا
- ماڈل غلطی تسلیم بھی کرے گا
یعنی: امیج آؤٹ پٹ کو deterministic نہیں بلکہ probabilistic سمجھیں۔
اگر آپ بہتر success rate چاہتے ہیں، تو عموماً آپ کو product-level tactics درکار ہوں گی:
- مضبوط constraints (pose references، consistent character sheets)
- حقیقی inpainting / masking workflows
- متعدد generations + selection
- automated checks (ہاتھ اور انگلیوں کے لیے basic heuristics بھی مدد دیتے ہیں)
اس کے باوجود… مجھے ایسے لمحے پسند ہیں
جتنا یہ پریشان کن ہے، اتنا ہی مزاحیہ بھی ہے۔
AI شاندار آرٹ بنا سکتا ہے — اور پھر بڑے آرام سے تیسرا ہاتھ گھڑ کر یہ بھی کہہ سکتا ہے کہ شاید غلطی آپ کی نظر میں ہے۔
اور یہی “real-world AI” والا chaos ہے جو مجھے کچھ بناتے ہوئے دوسروں کے ساتھ شیئر کرنا اچھا لگتا ہے۔
اگر آپ دلچسپی رکھتے ہیں، تو میں ایسی مزید عجیب چیزیں اپنے AI Anime Chatbot پروجیکٹ میں نوٹ کر رہا ہوں — مزے والے حصے بھی اور frustrating حصے بھی۔