Terug naar de blog
19 januari 2026Sergei Solod3 min leestijd

Wanneer AI een extra hand toevoegt en volhoudt dat er niets aan de hand is

Beeldmodellen kunnen met veel zelfvertrouwen ongelijk hebben, en zelfs correctieprompts mislukken soms op verrassend hardnekkige manieren.

AIBeeldgeneratieHallucinatiesProductontwikkelingBuild in PublicChatbots

Heb je ooit naar een AI-gegenereerde afbeelding zitten staren en gedacht:

“Hoeveel handen heeft dit anime-meisje eigenlijk?”

Ik dus wel — en ik zweer dat ik even dacht dat ik gek werd. Op de afbeelding waren overduidelijk drie handen te zien… maar het model bleef volhouden dat het er maar twee waren.

Ik heb het vijf keer gevraagd om die extra hand weg te halen.
Geen verschil.
En het grappigste? Het zei niet eens “oeps”. Het werd alleen maar stelliger.

Dat is een perfect voorbeeld van hoe AI-hallucinaties opduiken bij beeldgeneratie — en waarom “vraag het gewoon nog een keer” niet altijd werkt.

Hoe een “hallucinatie” eruitziet in beelden

Bij tekst zijn hallucinaties verzonnen feiten.
Bij beelden zijn het onjuiste anatomie en verzonnen details die op het eerste gezicht geloofwaardig lijken.

Veelvoorkomende voorbeelden:

  • extra vingers / extra ledematen
  • onmogelijke gewrichten
  • gedupliceerde objecten
  • inconsistente accessoires (oorbellen veranderen, logo’s vervormen)
  • vreemde schaduwen die niet bij de lichtbron passen

Het model weet niet dat het fout zit — het voorspelt simpelweg pixels die passen bij patronen die het heeft geleerd. Als “anime girl + pose + framing” vaak samenvalt met bepaalde vormen, kan het beeld “aanvullen” op een manier die plausibel oogt, maar fysiek niet klopt.

Waarom het model het niet oplost, zelfs als je het aanwijst

Dat is precies het verrassende deel: zelfs als je de fout perfect beschrijft, kan het model er nog steeds niet in slagen die te corrigeren.

Een paar redenen:

  1. Het kan details niet betrouwbaar “tellen” of controleren zoals een mens dat kan.
    Het voert geen echte controle uit; het doet iedere keer gewoon een nieuwe gok.
  2. Je verzoek botst met de compositie.
    Als je één hand verwijdert, kan dat de pose, het silhouet of de balans verstoren die het model “mooi” vindt. Daarom bouwt het steeds opnieuw dezelfde structuur op.
  3. Het is ontworpen om overmatig zeker te klinken.
    Veel modellen antwoorden met veel overtuiging. Dus in plaats van “je hebt gelijk, er is een derde hand”, krijg je “er zijn twee handen”, zelfs als je ogen iets anders zien.
  4. Bewerken is niet altijd echt bewerken.
    Afhankelijk van de tool kan “bewerken” zich meer gedragen als “genereer een soortgelijke afbeelding opnieuw”, waardoor dezelfde fout blijft terugkomen.

Praktische les voor mensen die producten bouwen

Als je een product bouwt dat beeldgeneratie gebruikt, kun je er niet van uitgaan dat:

  • één prompt = één correct resultaat
  • het model een correctieverzoek volgt
  • het model de fout überhaupt erkent

Met andere woorden: behandel beeldoutput als probabilistisch, niet als deterministisch.

Als je een hogere slagingskans wilt, heb je meestal tactieken op productniveau nodig:

  • sterke beperkingen (pose-referenties, consistente character sheets)
  • echte inpainting- / masking-workflows
  • meerdere generaties + selectie
  • geautomatiseerde controles (zelfs eenvoudige heuristieken voor handen en vingers helpen)

Toch… ik hou van dit soort momenten

Hoe irritant het ook is, het is ook gewoon behoorlijk grappig.
AI kan prachtige kunst maken — en daarna doodleuk een derde hand verzinnen en volhouden dat jij het je inbeeldt.

En dat is precies het soort “echte AI-chaos” dat ik graag deel terwijl ik aan het bouwen ben.

Als je nieuwsgierig bent: ik documenteer meer van dit soort eigenaardigheden in mijn AI Anime Chatbot-project — de leuke kanten en de frustrerende.