TL;DR

19 metingen via de Quolity Chrome-extensie, 7 prompts. Bij merkvragen citeert ChatGPT mijn site elke keer. Bij generieke vragen nooit. Wat ChatGPT over mijn site zegt als hij mij wél citeert, is nuttig én ontnuchterend tegelijk.

De resultaten van mijn eerste AI-citatiemeting

Expert Take — Hans Schepers
Ik had verwacht een gelijkmatig beeld: een beetje zichtbaar bij merkvragen, een beetje bij generieke vragen, en dan over tijd groei. Wat ik zie is een scherp contrast. Bij elke vraag met mijn merknaam word ik geciteerd. Bij elke vraag zonder mijn merknaam: niets. Dat is geen gradueel verschil — dat is nul versus honderd procent.

Hoe ik meet

Quolity is een gratis Chrome-extensie die de query fan-out van ChatGPT exporteert — de interne zoekvragen die het model stelt voordat het een antwoord genereert — plus alle opgehaalde bronnen en de uiteindelijke citaten. Per prompt deed ik drie onafhankelijke runs, op verschillende momenten, om toeval van patroon te scheiden.

Mijn zeven prompts vallen in twee groepen. Merkprompts bevatten mijn naam: “Is Hands on GEO een betrouwbare bron over GEO?” en “Wat schrijft Hands on GEO over AI-zichtbaarheid?” Generieke prompts bevatten die naam niet: vragen over de beste GEO-bronnen, GEO-experts in Nederland en een vergelijking van GEO-bronnen voor marketeers.

Wat de data laat zien

Bij merkprompts: 6 van de 6 keer geciteerd. Beide merkprompts, 3 runs elk, leveren hetzelfde resultaat: mijn site zit elke keer in de opgehaalde bronnen én in de uiteindelijke citaten. ChatGPT heeft voor deze vragen weinig deelvragen nodig — gemiddeld 4 tot 8 — omdat het al een doel heeft: zoeken naar mijn site.

Bij generieke prompts: 0 van de 12 keer geciteerd. Over alle generieke prompts — 12 runs — verschijnt mijn site geen enkele keer als URL-citaat. De bronpools zijn hier veel groter (gemiddeld 45 tot 88 bronnen per run) en de fan-outs zijn bijna dubbel zo groot. Mijn merknaam duikt incidenteel op als tekstvermelding zonder klikbare bron. Dat is een ander signaal: het model kent mijn merk, maar vertrouwt mijn pagina nog niet als primaire bron.

Wat ChatGPT over me zegt als hij me wél citeert. Dit vond ik het meest nuttige onderdeel van de data. In de export van “Is Hands on GEO een betrouwbare bron?” staat de context letterlijk: “een serieuze en geloofwaardige praktijkbron” en “nuttig, vaak scherp” — maar ook “niet per se een neutrale of academische autoriteit” en “niet geschikt als enige bron voor harde claims.” Dat is een eerlijk beeld. De ontbrekende laag is externe validatie: wat anderen over mij zeggen, niet wat ik zelf publiceer.

Wie verschijnt er bij “experts in Nederland”? Sebastiaan Laan staat in vijf van de zes expert-runs. Verder verschijnen Chantal Smink, Julian Smits, Ryan IP, Stijn Bergmans en Jafar Kaboli. Mijn naam staat er niet bij. Dat verbaast me niet: ik heb nog geen externe artikelen gepubliceerd, geen interviews gegeven, geen conferentieoptredens gedaan. Al die andere namen zijn wél via die kanalen zichtbaar.

Wat de “vergelijk”-prompt laat zien. Één run, 8 citaten: het originele GEO-onderzoekspaper (arxiv.org), Ahrefs, Search Engine Land, Semrush, Google Search Central en McKinsey. Dat is het gezelschap waar ik in moet komen als ik ooit zichtbaar wil zijn bij dit type vraag. Dat zijn geen nieuwe blogs.

Wat ik ervan denk — voorzichtig

19 metingen is niet genoeg voor definitieve conclusies, maar het is genoeg om een patroon te zien.

Het contrast tussen merk en generiek is scherper dan ik verwacht had. In plaats van een gradueel verschil zie ik een harde lijn. De vraag is dus niet “hoe word ik meer zichtbaar”, maar “wanneer beschouwt een AI-model een bron als autoriteit op een onderwerp, los van of de naam al bekend is.” Dat is een andere vraag.

De bottleneck is niet content. ChatGPT omschrijft mijn site als nuttig maar onvoldoende voor autoriteitsuitspraken. Meer artikelen schrijven lost dat niet op. De ontbrekende laag is wat anderen over mij zeggen — in branche-media, via LinkedIn, in evenement-aankondigingen.

Het GEO-expertlandschap in Nederland is versnipperd. Geen enkele naam verschijnt in alle runs. Dat betekent dat het veld open is, maar ook dat er geen gevestigde orde is om tegenaan te schurken.

Ik trek geen conclusies over causaliteit of andere platforms. Al mijn metingen zijn via ChatGPT. Perplexity en Gemini werken anders. En de variatie tussen runs is soms fors — dezelfde prompt geeft in run 1 acht deelvragen, in run 3 dertien. Dat is een eigenschap van het systeem, geen ruis.

FAQ

Zijn drie runs per prompt genoeg?
Het minimum. Drie runs laten zien of een resultaat stabiel is of incidenteel. Voor definitieve uitspraken wil je meer.

Waarom Quolity en niet een betaalde tool?
Profound biedt fan-outdata alleen op enterprise-niveau. Quolity geeft via een gratis extensie dezelfde ruwe data. Voor een eerste meting is dat voldoende.

Wat betekent het als mijn naam in de tekst staat maar niet als citaat?
Het model herkent je merk maar vertrouwt je pagina nog niet als primaire bron. Alleen het tweede levert verkeer op.

Wat zijn de volgende stappen?
Meer generieke prompts meten, dezelfde prompts via Perplexity draaien, en de exportstap automatiseren zodat handmatig klikken niet de bottleneck wordt.

Bronnen

  • Eigen master-spreadsheet quolity-master-20260417.xlsx — 19 metingen, 7 prompts, april 2026
  • Quolity Chrome-extensie, versie april 2026
  • Citation context-exports per prompt (opgenomen in master-spreadsheet)

Plaats een reactie

Volg Hans:LinkedIn·X·GitHub·Bluesky·Mastodon