Terug naar de blog
3 april 2026Sergei Solod3 min leestijd

Hoe Codex mij helpt om 15 projecten tegelijk te reviewen

Met Codex in VS Code kan ik het repetitieve deel van bugreview, SEO-controle, vertalingen, lokalisatie en tests over meerdere projecten veel sneller afhandelen, zonder handmatige beoordeling los te laten.

AI-ontwikkelingCodexVS CodeSoftwaretestenLokalisatieSEOOntwikkelaarsproductiviteit

Een paar jaar geleden zou het idee dat ik 15 projecten tegelijk zou reviewen op kwetsbaarheden, bugs, SEO-problemen, vertaalkwaliteit, consistentie in lokalisatie en geautomatiseerde tests nogal onwerkelijk hebben geklonken. Niet onmogelijk in theorie, maar in de dagelijkse praktijk simpelweg niet realistisch. Een week heeft maar een beperkt aantal uren, en een groot deel van technische review is belangrijk maar ook erg repetitief.

Daarom voelt werken met Codex in VS Code als een echte verschuiving. Het helpt me veel sneller door het routinematige reviewwerk heen te gaan: zwakke plekken scannen, tests controleren, inconsistenties tussen talen vinden, edge cases naar boven halen en aanwijzen welke delen extra aandacht verdienen. Het tijdsverschil is moeilijk te negeren.

Wat er echt is veranderd

De grootste verandering is niet dat AI projecten ineens perfect maakt. Dat doet het niet. De echte verandering is dat de kosten van herhaling omlaag gaan. Taken die vroeger uren aan concentratie opslokten, kunnen nu veel sneller vooruit. Daardoor wordt het een stuk realistischer om veel projecten tegelijk in goede staat te houden.

Voor iedereen die aan meerdere producten tegelijk bouwt, is dat enorm belangrijk. Review van vertalingen, consistente lokalisatie, SEO-hygiëne, bugs opsporen en tests onderhouden zijn allemaal nodig, maar ze kunnen ook stilletjes complete dagen opeten. Als een tool dat routinematige deel comprimeert, blijft er meer ruimte over voor nadenken, prioriteren en de echte eindcontrole in plaats van eindeloos mechanisch nalopen.

Wat AI nog steeds niet kan vervangen

Ik review nog steeds elk bestand handmatig. Dat deel is niet verdwenen, en ik wil ook niet dat het verdwijnt. Kwaliteit hangt af van oordeel, context, smaak en verantwoordelijkheid. Een model kan problemen aanwijzen, fixes voorstellen en de eerste ronde versnellen. Maar de uiteindelijke beslissing kan het niet volledig overnemen.

Dat is precies wat mensen soms missen wanneer ze over AI in softwareontwikkeling praten. De waarde zit niet in het vervangen van menselijk oordeel. De waarde zit in het wegnemen van een enorme hoeveelheid routinefrictie, zodat dat oordeel kan worden ingezet waar het echt telt.

De echte hefboom

Wat voor mij onwerkelijk voelt, is niet alleen de snelheid maar ook de schaal. Vroeger betekende 15 projecten parallel reviewen een overweldigende hoeveelheid repetitief werk. Nu voelt het haalbaar op een manier die een paar jaar geleden simpelweg niet bestond.

Als een tool honderden uren kan besparen zonder de kwaliteitslat te verlagen, dan is dat geen klein productiviteitstrucje. Dan is het een betekenisvolle verandering in hoe softwarewerk wordt gedaan. Dat is voor mij het spannende deel: niet minder zorg, maar meer bereik zonder handmatige review op te geven.