Expert Take — Hans Schepers
Ik werk nu drie weken intensief samen met Claude aan dit project. In die tijd heb ik keer op keer weer bevestigd gezien wat ik eigenlijk al wist: AI – in mijn geval Claude – weet alles, maar begrijpt helemaal niks. Claude vergeet voortdurend wat je nadrukkelijk hebt afgesproken, is slordig, maakt keer op keer dezelfde fouten en liegt regelmatig alsof het gedrukt staat. Supervermoeiend. Zelfs met een maandabonnement van €100.
TL;DR: Claude heeft geen organisatiegeheugen van zichzelf; ook niet in Cowork Projects. Elke nieuwe chat begin je met een schone lei dus je moet geheugens aanmaken die zichzelf voortdurend updaten. Het comprimeren van content – als chats lang worden – wist belangrijke details, en met stellige toon wordt regelmatig achterhaald advies gegeven. Aannames worden zelfverzekerd gepresenteerd als feiten. Dit zijn bekende beperkingen — maar de impact ervan op een echt project heb ik fors onderschat. Ik heb er een volledig systeem voor moeten bouwen en zelfs dat werkt niet foutloos.
Laatst bijgewerkt: april 2026
Hoe ik dit ontdekte
In WordPress, waarmee ik mijn website heb gemaakt, waren meerdere gebruikers accounts voor mijzelf aangemaakt (hans-editor en hans). Geen idee waarom, maar het stond er. Het leek me logisch om die eerste vreemde naam te verwijderen, en na ‘overleg’ met Claude ben ik dat gaan doen. Tot mijn verbazing adviseerde Claude me een uur later om toch weer het account hans-editor te gaan gebruiken. Ik snapte er niks van. Haalde ik iets door elkaar?
Nee, ik zat goed. Claude had in de historie opgeslagen dat hans-editor kon worden verwijderd, maar had ook in z’n historie opgeslagen dat het account ooit moest worden aangemaakt. Beide herinneringen bestonden naast elkaar. Pas nadat ik Claude instrueerde dat alle obsolete herinneringen moesten worden gearchiveerd werden alleen de juiste zaken herinnerd.
Ik dacht dat “een project” in Claude automatisch continuïteit betekende. Dat bleek niet zo te werken.
Dit was het begin van een reeks ontdekkingen over hoe AI-tools in mijn project te werk gingen.
Wat er structureel mis ging
Belangrijke keuzes worden keer op keer vergeten. Ik heb een voice profile als skill aangemaakt in Claude. Daarmee kan ik (bijvoorbeeld) een heel verhaal inspreken dat vervolgens door Claude wordt herschreven, rekening houdend met mijn eigen unieke tone of voice. Als ik na het genereren van zo’n tekst weer een nieuwe chatsessie startte in hetzelfde project, was de vanzelfsprekendheid van het inzetten van mijn eigen voice profile verdwenen. Elke nieuwe chat bleek een nieuwe instantie en ik moest er steeds opnieuw om vragen. Er bleek geen automatische brug te zijn naar wat ik in een andere chat daarvoor al had uitgelegd, ook niet binnen één Cowork project.
Er gaat kostbare data verloren bij de compressie van chats. Hoe langer een chatsessie, hoe slordiger Claude wordt. Bij lange sessies comprimeert Claude daarom automatisch de gesprekshistorie. Het duurde dagen voordat ik doorhad dat er bij deze compressie waardevolle informatie verloren gaat. Informatie over fouten die nadrukkelijk samen waren geëvalueerd. Of informatie over waarom bepaalde keuzes waren gemaakt. Deze details verdwenen zonder waarschuwing. Ik moest dus bedenken hoe ik gegevens moest opslaan voordat die automatische compressie ging plaatsvinden.
Aannames worden vaak als feiten gepresenteerd. Met de allergrootste stelligheid krijg je soms de grootste flauwekul voorgeschoteld. Als je niet goed oplet worden die gehallucineerde ‘feiten’ vervolgens als waarheid gezien. Ik heb meerdere keren de fout gemaakt dat ik zelf niet meer precies wist wat er was besproken en Claude het voordeel van de twijfel gaf. Fout. Niet doen. Instrueer Claude om al je historie te archiveren en bij twijfel te doorzoeken.
Waarom dit specifiek voor projectwerk problematisch is
Losse vragen stellen aan een LLM werkt uitstekend. Dat is waarvoor het gebouwd is. Maar een project is iets anders. Een project heeft continuïteit, beslissingen die op elkaar voortbouwen, en correcties die persistent moeten zijn.
Elke correctie die ik moest herhalen kostte me tijd en ondermijnde het hele idee van samenwerking. Als de AI na elk gesprek opnieuw begint, is een project gewoon een reeks losse gesprekken in een map. Dat is nuttig, maar het is niet wat ik verwacht als ik “met AI samenwerk aan een project”.
Het bevestigt wat ik al langer dacht: AI weet alles maar begrijpt niets. Claude had alle informatie die ik had gegeven. Maar zonder systeem om ervan te leren, verdampte die informatie.
Wat ik er voor heb gebouwd
Dit is wat er nu staat:
Een permanent geheugen-systeem waarbij elk besluit, of correctie daarop, direct wordt opgeslagen in een indexeerbaar bestand — niet pas aan het einde van een sessie, maar op het moment dat het besluit wordt genomen. Dat geheugen wordt bij elke nieuwe sessie automatisch geladen.
Een sessie-protocol met drie verplichte fasen: sessiestart (lees wat de status van dit project is, bevestig dat alle regels zijn geladen), tijdens de sessie (sla correcties real-time op, werk bij uur bij), en sessie-einde (archiveer wat er is gedaan, update een handover-bestand dat precies aangeeft waar je met een volgende sessie verder moet). Als ik dat aan het begin van dit project had gedaan dan had me dat een boel tijd, maar vooral ook ergernis, gescheeld.
Een startbevestiging waarbij Claude aan het begin van elke sessie bevestigt dat het alle context heeft gelezen en duidelijk opsomt waar je staat in een project, inclusief de next steps.
Is dit veel werk? Ja. Is het de investering waard? Voor dit project wel — ik merk het verschil. Maar ik begrijp ook waarom de meeste mensen dit niet doen. Het vraagt een ander mentaal model van wat AI-tools zijn.
Het mentale model dat ik heb bijgesteld
Ik beschouw Claude nu als een briljante collega die elke ochtend met geheugenverlies op kantoor verschijnt. Intelligent, capabel, snel — maar zonder herinneringen aan gisteren. Als jij geen systeem bouwt dat die herinneringen vervangt, werkt de samenwerking niet structureel.
Dat is geen kritiek op Claude. Het is een beschrijving van hoe LLM’s werken. Maar het is ook iets dat vrijwel niemand je uitlegt als je begint. De verwachting is dat het “gewoon werkt”, en als het niet werkt zoals verwacht, denkt de gebruiker dat hij iets verkeerd doet.
Dat klopt niet. Je doet waarschijnlijk niets verkeerd. Maar je hebt wel iets te bouwen.
Wat dit betekent voor jouw AI-projecten
Als je overweegt om AI structureel in te zetten voor een lopend project — content, strategie, onderzoek, wat dan ook — dan zijn dit de vragen die ik mezelf nu eerst zou stellen:
Hoe sla ik correcties op zodat ze de volgende sessie beschikbaar zijn? Hoe voorkom ik dat informatie in lange chats verloren gaat omdat chats worden gecomprimeerd? Welke informatie moet altijd beschikbaar zijn, ongeacht hoe lang de sessie duurt? En: welke taken stel ik me voor dat AI autonoom afhandelt, terwijl dat in de praktijk menselijke begeleiding vraagt?
Ik hoop dat je iets aan deze tips hebt, en ik hoor graag welke onjuiste aannames over de intelligentie van een AI chatbot bij jou voor extra werk hebben gezorgd.
Bronnen: Eigen projectervaring GEO Masterplan (maart–april 2026). Achtergrond over LLM-contextvensters en compactie: Anthropic Claude documentatie. Onderzoek naar AI-aannames en hallucinaties: GPT-4 Technical Report, OpenAI (2023).
FAQ
Heeft Claude dan geen geheugen?
Niet van nature. Elke nieuwe chat begint met een schone lei. Er bestaan systemen die persistent geheugen toevoegen — zoals het auto-memory systeem dat ik gebruik — maar die moet je zelf inrichten. Ze werken niet automatisch.
Wat is context-compressie precies?
Bij lange gesprekken heeft een LLM een maximale hoeveelheid tekst die het actief kan verwerken (het contextvenster). Als een gesprek te lang wordt, comprimeert het model automatisch de oudere delen van het gesprek. Details, nuances en correcties kunnen daarbij verloren gaan — zonder dat je daar een melding van krijgt.
Is dit probleem specifiek voor Claude, of geldt het voor alle AI-tools?
Het geldt in verschillende mate voor alle LLM-gebaseerde tools. De specifieke mechanismen verschillen per platform, maar het basisprobleem — geen persistent geheugen tussen sessies — is breed. GPT, Gemini en andere modellen hebben dezelfde structurele beperking.
Hoe merk ik dat context-compactie heeft plaatsgevonden?
Dat merk je vaak pas als de output iets bevat dat niet klopt met iets wat je eerder hebt besproken. Preventief: bouw checkpoints in je sessies waar je controleert of de AI nog steeds alle relevante context heeft. En: houd sessies zo kort als mogelijk.