TL;DR

Claude heeft geen organisatiegeheugen van zichzelf. Elke nieuwe chat is een lege lei. Context-compactie wist details ongemerkt tijdens lange sessies. Aannames worden zelfverzekerd gepresenteerd als feiten. Dit zijn bekende beperkingen — maar de impact ervan op een echt project onderschat vrijwel iedereen. Ik heb er een volledig systeem voor moeten bouwen.

Mijn AI-assistent is een vergeetachtige, verstrooide professor

Expert Take — Hans Schepers

Ik werk nu drie weken intensief samen met Claude aan dit project. In die tijd heb ik keer op keer weer bevestigd gezien wat ik eigenlijk al wist: AI – in mijn geval Claude – weet alles, maar begrijpt helemaal niks. Claude vergeet voortdurend wat je nadrukkelijk hebt afgesproken, is slordig, maakt keer op keer dezelfde fouten en liegt regelmatig alsof het gedrukt staat. Supervermoeiend. Zelfs met een maandabonnement van €100.


TL;DR: Claude heeft geen organisatiegeheugen van zichzelf; ook niet in Cowork Projects. Elke nieuwe chat begin je met een schone lei dus je moet geheugens aanmaken die zichzelf voortdurend updaten. Het comprimeren van content – als chats lang worden – wist belangrijke details, en met stellige toon wordt regelmatig achterhaald advies gegeven. Aannames worden zelfverzekerd gepresenteerd als feiten. Dit zijn bekende beperkingen — maar de impact ervan op een echt project heb ik fors onderschat. Ik heb er een volledig systeem voor moeten bouwen en zelfs dat werkt niet foutloos.

Laatst bijgewerkt: april 2026


Hoe ik dit ontdekte

In WordPress, waarmee ik mijn website heb gemaakt, waren meerdere gebruikers accounts voor mijzelf aangemaakt (hans-editor en hans). Geen idee waarom, maar het stond er. Het leek me logisch om die eerste vreemde naam te verwijderen, en na ‘overleg’ met Claude ben ik dat gaan doen. Tot mijn verbazing adviseerde Claude me een uur later om toch weer het account hans-editor te gaan gebruiken. Ik snapte er niks van. Haalde ik iets door elkaar?

Nee, ik zat goed. Claude had in de historie opgeslagen dat hans-editor kon worden verwijderd, maar had ook in z’n historie opgeslagen dat het account ooit moest worden aangemaakt. Beide herinneringen bestonden naast elkaar. Pas nadat ik Claude instrueerde dat alle obsolete herinneringen moesten worden gearchiveerd werden alleen de juiste zaken herinnerd.

Ik dacht dat “een project” in Claude automatisch continuïteit betekende. Dat bleek niet zo te werken.

Dit was het begin van een reeks ontdekkingen over hoe AI-tools in mijn project te werk gingen.

Wat er structureel mis ging

Belangrijke keuzes worden keer op keer vergeten. Ik heb een voice profile als skill aangemaakt in Claude. Daarmee kan ik (bijvoorbeeld) een heel verhaal inspreken dat vervolgens door Claude wordt herschreven, rekening houdend met mijn eigen unieke tone of voice. Als ik na het genereren van zo’n tekst weer een nieuwe chatsessie startte in hetzelfde project, was de vanzelfsprekendheid van het inzetten van mijn eigen voice profile verdwenen. Elke nieuwe chat bleek een nieuwe instantie en ik moest er steeds opnieuw om vragen. Er bleek geen automatische brug te zijn naar wat ik in een andere chat  daarvoor al had uitgelegd, ook niet binnen één Cowork project.

Er gaat kostbare data verloren bij de compressie van chats. Hoe langer een chatsessie, hoe slordiger Claude wordt. Bij lange sessies comprimeert Claude daarom automatisch de gesprekshistorie. Het duurde dagen voordat ik doorhad dat er bij deze compressie waardevolle informatie verloren gaat. Informatie over fouten die nadrukkelijk samen waren geëvalueerd. Of informatie over waarom bepaalde keuzes waren gemaakt. Deze details verdwenen zonder waarschuwing. Ik moest dus bedenken hoe ik gegevens moest opslaan voordat die automatische compressie ging plaatsvinden.

Aannames worden vaak als feiten gepresenteerd. Met de allergrootste stelligheid krijg je soms de grootste flauwekul voorgeschoteld. Als je niet goed oplet worden die gehallucineerde ‘feiten’ vervolgens als waarheid gezien. Ik heb meerdere keren de fout gemaakt dat ik zelf niet meer precies wist wat er was besproken en Claude het voordeel van de twijfel gaf. Fout. Niet doen. Instrueer Claude om al je historie te archiveren en bij twijfel te doorzoeken.

Waarom dit specifiek voor projectwerk problematisch is

Losse vragen stellen aan een LLM werkt uitstekend. Dat is waarvoor het gebouwd is. Maar een project is iets anders. Een project heeft continuïteit, beslissingen die op elkaar voortbouwen, en correcties die persistent moeten zijn.

Elke correctie die ik moest herhalen kostte me tijd en ondermijnde het hele idee van samenwerking. Als de AI na elk gesprek opnieuw begint, is een project gewoon een reeks losse gesprekken in een map. Dat is nuttig, maar het is niet wat ik verwacht als ik “met AI samenwerk aan een project”.

Het bevestigt wat ik al langer dacht: AI weet alles maar begrijpt niets. Claude had alle informatie die ik had gegeven. Maar zonder systeem om ervan te leren, verdampte die informatie.

Wat ik er voor heb gebouwd

Dit is wat er nu staat:

Een permanent geheugen-systeem waarbij elk besluit, of correctie daarop, direct wordt opgeslagen in een indexeerbaar bestand — niet pas aan het einde van een sessie, maar op het moment dat het besluit wordt genomen. Dat geheugen wordt bij elke nieuwe sessie automatisch geladen.

Een sessie-protocol met drie verplichte fasen: sessiestart (lees wat de status van dit project is, bevestig dat alle regels zijn geladen), tijdens de sessie (sla correcties real-time op, werk bij uur bij), en sessie-einde (archiveer wat er is gedaan, update een handover-bestand dat precies aangeeft waar je met een volgende sessie verder moet). Als ik dat aan het begin van dit project had gedaan dan had me dat een boel tijd, maar vooral ook ergernis, gescheeld.

Een startbevestiging waarbij Claude aan het begin van elke sessie bevestigt dat het alle context heeft gelezen en duidelijk opsomt waar je staat in een project, inclusief de next steps.

Is dit veel werk? Ja. Is het de investering waard? Voor dit project wel — ik merk het verschil. Maar ik begrijp ook waarom de meeste mensen dit niet doen. Het vraagt een ander mentaal model van wat AI-tools zijn.

Het mentale model dat ik heb bijgesteld

Ik beschouw Claude nu als een briljante collega die elke ochtend met geheugenverlies op kantoor verschijnt. Intelligent, capabel, snel — maar zonder herinneringen aan gisteren. Als jij geen systeem bouwt dat die herinneringen vervangt, werkt de samenwerking niet structureel.

Dat is geen kritiek op Claude. Het is een beschrijving van hoe LLM’s werken. Maar het is ook iets dat vrijwel niemand je uitlegt als je begint. De verwachting is dat het “gewoon werkt”, en als het niet werkt zoals verwacht, denkt de gebruiker dat hij iets verkeerd doet.

Dat klopt niet. Je doet waarschijnlijk niets verkeerd. Maar je hebt wel iets te bouwen.

Wat dit betekent voor jouw AI-projecten

Als je overweegt om AI structureel in te zetten voor een lopend project — content, strategie, onderzoek, wat dan ook — dan zijn dit de vragen die ik mezelf nu eerst zou stellen:

Hoe sla ik correcties op zodat ze de volgende sessie beschikbaar zijn? Hoe voorkom ik dat informatie in lange chats verloren gaat omdat chats worden gecomprimeerd? Welke informatie moet altijd beschikbaar zijn, ongeacht hoe lang de sessie duurt? En: welke taken stel ik me voor dat AI autonoom afhandelt, terwijl dat in de praktijk menselijke begeleiding vraagt?

Ik hoop dat je iets aan deze tips hebt, en ik hoor graag welke onjuiste aannames over de intelligentie van een AI chatbot bij jou voor extra werk hebben gezorgd.


Bronnen: Eigen projectervaring GEO Masterplan (maart–april 2026). Achtergrond over LLM-contextvensters en compactie: Anthropic Claude documentatie. Onderzoek naar AI-aannames en hallucinaties: GPT-4 Technical Report, OpenAI (2023).


FAQ

Heeft Claude dan geen geheugen?
Niet van nature. Elke nieuwe chat begint met een schone lei. Er bestaan systemen die persistent geheugen toevoegen — zoals het auto-memory systeem dat ik gebruik — maar die moet je zelf inrichten. Ze werken niet automatisch.

Wat is context-compressie precies?
Bij lange gesprekken heeft een LLM een maximale hoeveelheid tekst die het actief kan verwerken (het contextvenster). Als een gesprek te lang wordt, comprimeert het model automatisch de oudere delen van het gesprek. Details, nuances en correcties kunnen daarbij verloren gaan — zonder dat je daar een melding van krijgt.

Is dit probleem specifiek voor Claude, of geldt het voor alle AI-tools?
Het geldt in verschillende mate voor alle LLM-gebaseerde tools. De specifieke mechanismen verschillen per platform, maar het basisprobleem — geen persistent geheugen tussen sessies — is breed. GPT, Gemini en andere modellen hebben dezelfde structurele beperking.

Hoe merk ik dat context-compactie heeft plaatsgevonden?
Dat merk je vaak pas als de output iets bevat dat niet klopt met iets wat je eerder hebt besproken. Preventief: bouw checkpoints in je sessies waar je controleert of de AI nog steeds alle relevante context heeft. En: houd sessies zo kort als mogelijk.

Key Statistics

  • Elke correctie die niet persistent is opgeslagen, moet de volgende sessie opnieuw worden gegeven — tijdverlies dat oploopt bij langdurige projecten
  • LLM-contextvensters comprimeren automatisch bij lange sessies — details verdwijnen zonder waarschuwing
  • GPT-4 Technical Report (OpenAI, 2023): LLM's tonen consistent zelfverzekerd gedrag ook bij onjuiste outputs
  • Anthropic documentatie: Claude heeft geen persistent geheugen tussen sessies tenzij dit expliciet is ingebouwd
  • Eigen meting: voice profile niet laden bij eerste artikel leidde tot 5 correctieronden — volledig vermijdbaar

Frequently Asked Questions

Heeft Claude dan geen geheugen?

Niet van nature. Elke nieuwe chat begint als een lege lei. Er bestaan systemen die persistent geheugen toevoegen, maar die moet je zelf inrichten.

Wat is context-compactie precies?

Bij lange gesprekken comprimeert het model automatisch de oudere delen van het gesprek. Details, nuances en correcties kunnen daarbij verloren gaan — zonder dat je daar een melding van krijgt.

Is dit probleem specifiek voor Claude, of geldt het voor alle AI-tools?

Het geldt in verschillende mate voor alle LLM-gebaseerde tools. GPT, Gemini en andere modellen hebben dezelfde structurele beperking.

Hoe merk ik dat context-compactie heeft plaatsgevonden?

Dat merk je vaak pas als de output iets bevat dat niet klopt met iets wat je eerder hebt besproken. Preventief: bouw checkpoints in je sessies en houd sessies zo kort als mogelijk.

Is het systeem dat jij hebt gebouwd ergens beschikbaar?

Het is specifiek ingericht voor mijn werksituatie. Ik beschrijf de onderdelen hier omdat de principes breed toepasbaar zijn, maar een generieke plugin is het niet.

Plaats een reactie