Heb je ooit naar een AI-gegenereerde afbeelding zitten staren en gedacht:
“Hoeveel handen heeft dit anime-meisje eigenlijk?”
Ik dus wel — en ik zweer dat ik even dacht dat ik gek werd. Op de afbeelding waren overduidelijk drie handen te zien… maar het model bleef volhouden dat het er maar twee waren.
Ik heb het vijf keer gevraagd om die extra hand weg te halen.
Geen verschil.
En het grappigste? Het zei niet eens “oeps”. Het werd alleen maar stelliger.
Dat is een perfect voorbeeld van hoe AI-hallucinaties opduiken bij beeldgeneratie — en waarom “vraag het gewoon nog een keer” niet altijd werkt.
Hoe een “hallucinatie” eruitziet in beelden
Bij tekst zijn hallucinaties verzonnen feiten.
Bij beelden zijn het onjuiste anatomie en verzonnen details die op het eerste gezicht geloofwaardig lijken.
Veelvoorkomende voorbeelden:
- extra vingers / extra ledematen
- onmogelijke gewrichten
- gedupliceerde objecten
- inconsistente accessoires (oorbellen veranderen, logo’s vervormen)
- vreemde schaduwen die niet bij de lichtbron passen
Het model weet niet dat het fout zit — het voorspelt simpelweg pixels die passen bij patronen die het heeft geleerd. Als “anime girl + pose + framing” vaak samenvalt met bepaalde vormen, kan het beeld “aanvullen” op een manier die plausibel oogt, maar fysiek niet klopt.
Waarom het model het niet oplost, zelfs als je het aanwijst
Dat is precies het verrassende deel: zelfs als je de fout perfect beschrijft, kan het model er nog steeds niet in slagen die te corrigeren.
Een paar redenen:
- Het kan details niet betrouwbaar “tellen” of controleren zoals een mens dat kan.
Het voert geen echte controle uit; het doet iedere keer gewoon een nieuwe gok. - Je verzoek botst met de compositie.
Als je één hand verwijdert, kan dat de pose, het silhouet of de balans verstoren die het model “mooi” vindt. Daarom bouwt het steeds opnieuw dezelfde structuur op. - Het is ontworpen om overmatig zeker te klinken.
Veel modellen antwoorden met veel overtuiging. Dus in plaats van “je hebt gelijk, er is een derde hand”, krijg je “er zijn twee handen”, zelfs als je ogen iets anders zien. - Bewerken is niet altijd echt bewerken.
Afhankelijk van de tool kan “bewerken” zich meer gedragen als “genereer een soortgelijke afbeelding opnieuw”, waardoor dezelfde fout blijft terugkomen.
Praktische les voor mensen die producten bouwen
Als je een product bouwt dat beeldgeneratie gebruikt, kun je er niet van uitgaan dat:
- één prompt = één correct resultaat
- het model een correctieverzoek volgt
- het model de fout überhaupt erkent
Met andere woorden: behandel beeldoutput als probabilistisch, niet als deterministisch.
Als je een hogere slagingskans wilt, heb je meestal tactieken op productniveau nodig:
- sterke beperkingen (pose-referenties, consistente character sheets)
- echte inpainting- / masking-workflows
- meerdere generaties + selectie
- geautomatiseerde controles (zelfs eenvoudige heuristieken voor handen en vingers helpen)
Toch… ik hou van dit soort momenten
Hoe irritant het ook is, het is ook gewoon behoorlijk grappig.
AI kan prachtige kunst maken — en daarna doodleuk een derde hand verzinnen en volhouden dat jij het je inbeeldt.
En dat is precies het soort “echte AI-chaos” dat ik graag deel terwijl ik aan het bouwen ben.
Als je nieuwsgierig bent: ik documenteer meer van dit soort eigenaardigheden in mijn AI Anime Chatbot-project — de leuke kanten en de frustrerende.