Terwijl ik animepersonages maakte voor rizae.com, liep ik opnieuw tegen zo’n klassiek generative-AI-moment aan: het model deed alsof alles er perfect uitzag, terwijl het beeld duidelijk kapot was.
Juist dat contrast blijft een van de opvallendste dingen aan werken met AI. Soms levert het in seconden iets op dat echt sterk is. En soms mist het een fout die voor een mens direct zichtbaar is, terwijl het toch vol overtuiging doet alsof er niets mis is.
Waarom deze AI-hallucinaties ertoe doen
Meestal gaat het bij hallucinaties over tekst, maar beeldgeneratie heeft zijn eigen versie van hetzelfde probleem. Verkeerde anatomie, gebroken compositie of dubbele details kunnen worden behandeld alsof ze prima zijn. Het probleem is niet alleen de fout, maar ook de zekerheid waarmee die fout wordt genegeerd.
Dat is belangrijk, omdat de afstand tussen technische generatie en menselijk oordeel nog steeds groot is. Een model kan snel, overtuigend en nuttig zijn, maar toch niet zonder menselijke controle wanneer visuele kwaliteit telt.
Wat dit in mijn workflow veranderde
Door te werken aan personages voor rizae.com ben ik veel pragmatischer naar AI gaan kijken. Ik zie het eerste resultaat niet meer als eindpunt, maar als materiaal dat je moet controleren, afwijzen, verbeteren en opnieuw genereren.
- Snelheid is echt, vooral bij variaties, richtingen en eerste ideeën.
- Oordeel blijft menselijk, zeker als kwaliteit, consistentie en smaak belangrijk zijn.
- Opnieuw proberen hoort erbij, het is geen uitzondering maar normaal werk.
Dat is waarschijnlijk de eerlijkste beschrijving van generatieve AI op dit moment: krachtig, nuttig en vaak indrukwekkend, maar nog steeds afhankelijk van menselijk toezicht.