Laatst bijgewerkt: 20 april 2026

Expert Take: Tools voor AI-zichtbaarheid zijn er genoeg, maar ik wil begrijpen wat er écht gebeurt als je een vraag aan AI stelt.
Waarom ik dit wilde meten
Ik wilde concreet weten: wordt handsongeo.com al opgepikt door ChatGPT? En belangrijker: word ik ook gevonden als iemand breed vraagt over Generative Engine Optimization, zonder mijn merknaam te noemen?
Dat tweede punt is de echte test. Een AI-systeem dat je vindt wanneer iemand je naam intypt, is logisch. Een AI-systeem dat je noemt wanneer iemand vraagt naar “de beste GEO-bronnen” of “experts in Nederland”, is veel waardevoller.
Daarom heb ik op 18 april fan-out queries laten draaien via de Quolity Chrome-extensie. 90 geplande runs rond 30 prompts, met meerdere varianten en herhalingen. 26 unieke prompts, verdeeld over vijf clusters: brand-specifiek, generiek GEO, vergelijkend/experts, praktisch/how-to, en Nederlandse experts. Elke prompt drie keer uitgevoerd om te zien hoe consistent de resultaten zijn. De uitkomst: branded goed, generiek niet.
Wat zijn fan-out queries?
Wanneer je een vraag stelt aan ChatGPT, voert het systeem meerdere zoekopdrachten uit om informatie te verzamelen. Een prompt als “Welke websites schrijven over GEO?” kan leiden tot queries als site:ahrefs.com generative engine optimization, site:semrush.com AI search visibility GEO en original Generative Engine Optimization paper arxiv.
Die onderliggende zoekopdrachten bepalen welke bronnen ChatGPT ziet en uiteindelijk citeert. Ze laten niet alleen zien of je in het antwoord voorkomt, maar ook hoe het systeem naar informatie zoekt. In totaal voerde ChatGPT 584 fan-out queries uit over mijn 77 runs. Dat is waar de echte inzichten zitten: niet in de vraag “word ik genoemd?”, maar in de vraag “wordt er überhaupt naar mij gezocht?”
De cijfers
Van de 90 geplande runs waren er 77 succesvol. De verdeling:
| Segment | Runs | Als bron | Geciteerd | Merk genoemd |
|---|---|---|---|---|
| Branded | 18 | 16 | 17 | 18 |
| Generiek | 57 | 1 | 1 | 2 |
Als iemand expliciet naar Hands on GEO vraagt, word ik gevonden. Als iemand breed vraagt naar GEO, AI-zichtbaarheid of experts, ben ik vrijwel afwezig. De consistentie binnen runs was overigens hoog: 23 van de 26 prompts gaven drie keer hetzelfde resultaat. Dit is geen ruis — het patroon is stabiel.
Wat ChatGPT wél over mij begrijpt
Bij branded vragen kon ChatGPT al recente content van 17 april terugvinden — een dag vóór mijn meting. Het herkende dat Hands on GEO een Nederlandse website is over GEO, gericht op B2B-marketing, beheerd door mij als onafhankelijke internetprofessional. Het noemde sterke punten als transparante auteursinformatie, bronverwijzingen en eigen experimenten. Het typeerde de site als “een bruikbare en behoorlijk geloofwaardige nichebron.”
Opvallend: ChatGPT verifieerde mijn identiteit deels via mijn privacyverklaring. Daar staat dat Hands on GEO wordt beheerd door “Hans Schepers, an independent internet professional.” Een pagina die de meeste marketeers als administratieve bijzaak zien, functioneerde voor het model als identity-check. De privacypagina werd 14 keer als source opgehaald — vaker dan welke contentpagina dan ook, op de homepage na.
De homepage zelf werd 16 keer opgepikt, gevolgd door het pillar-artikel over GEO voor B2B-marketeers (4 keer) en het stuk over AI-zichtbaarheid meten (4 keer). Wat mij opviel: de helft van mijn gepubliceerde artikelen werd bij branded prompts niet eens opgehaald. ChatGPT selecteert scherp — het pakt de pagina’s die het meest relevant zijn voor de specifieke vraag, niet alles wat er staat. Voor wie aan GEO werkt: elke pagina op je site is een potentieel identiteitssignaal, maar niet elke pagina draagt even zwaar bij. Je homepage en je auteursinformatie doen het zware werk.
Het kantelpunt bij generieke vragen
De eerste echte generieke vermelding kwam bij “Welke websites schrijven over GEO en AI-zichtbaarheid?” In run 1 werd ik als bron geciteerd. In run 2 noemde ChatGPT me in de tekst maar zonder bronlink. In run 3 verscheen ik niet.
Dat wisselende patroon is misschien het meest veelzeggende resultaat. Het suggereert dat mijn site op het kantelpunt van generieke zichtbaarheid zit. Het model kent me, maar vertrouwt me net niet genoeg om me consequent te citeren. Bij de overige 23 generieke prompts — verdeeld over definitievragen, how-to’s, expertlijsten en vergelijkende vragen — was het resultaat consistent: drie keer afwezig.
Wie wint de generieke GEO-vragen
Om de concurrentie in perspectief te plaatsen, heb ik alle sources uit de 77 runs samengeteld. De top 5 domeinen bij generieke prompts:
| # | Domein | Keer als bron |
|---|---|---|
| 1 | developers.google.com | 236 |
| 2 | arxiv.org | 136 |
| 3 | searchengineland.com | 112 |
| 4 | semrush.com | 78 |
| 5 | ahrefs.com | 75 |
Handsongeo.com stond overall op positie 9 met 63 vermeldingen — maar die komen bijna uitsluitend uit branded prompts. Zonder brand-queries zou mijn site op 1–2 vermeldingen uitkomen.
Het zijn stuk voor stuk gevestigde Engelstalige domeinen met jarenlange autoriteit. Opvallend: LinkedIn staat op plek 3 en 5 (nl.linkedin.com 118 keer, linkedin.com 111 keer). Bij de expertprompts haalt ChatGPT profielinformatie dus primair van LinkedIn, niet van persoonlijke websites of vakmedia. Een nichesite van drie weken oud concurreert hier niet op autoriteit. Het concurreert op het überhaupt bestaan in de zoekruimte van het model.
Hoe ChatGPT achter de schermen zoekt
Het meest leerzame inzicht kwam uit de fan-out queries zelf.
Bij generieke prompts zoekt ChatGPT met site: operators naar specifieke domeinen: site:arxiv.org, site:searchengineland.com, site:semrush.com, site:moz.com. Het doorzoekt niet het hele web. Het begint bij een set domeinen die het als betrouwbaar beschouwt. Handsongeo.com zit niet in die set.
Dat is een ander inzicht dan “ik heb niet genoeg autoriteit.” Het betekent dat ik niet eens in de zoekruimte zit. ChatGPT kijkt niet naar mijn site en kiest dan iets beters. Het kijkt niet eens.
Van de 584 fan-out queries bevatten 92 mijn domeinnaam of merknaam — maar uitsluitend bij prompts waar mijn naam al in de vraag stond. Voor een B2B-marketeer die dit wil toepassen: je concurreert niet alleen om de beste content. Je concurreert om een plek in de bronnenset waar het model überhaupt naar kijkt.
Vier soorten generieke onzichtbaarheid
In de data zag ik dat “generiek” eigenlijk vier verschillende problemen zijn, elk met een andere aanpak.
Definitievragen (“Wat is GEO?”): ChatGPT kiest arXiv en Search Engine Land. ArXiv verscheen 76 keer als bron in dit cluster, Search Engine Land 50 keer. Hier concurreer je met kennis-autoriteit — eigen data en experimenten zijn je weg naar binnen.
How-to’s (“Hoe optimaliseer je content voor AI?”): ChatGPT kiest officiële platformdocumentatie. Google Developers verscheen 104 keer als bron, Microsoft Learn 40 keer. De kans voor een nichesite zit in het vertalen van die technische docs naar bruikbaar advies voor marketeers die geen developers zijn.
Expertlijsten (“Wie zijn GEO-experts in Nederland?”): ChatGPT haalt expert-informatie primair van LinkedIn. Het domein nl.linkedin.com verscheen 97 keer als bron — meer dan alle andere domeinen bij elkaar. Concurrenten als Chantal Smink, Jarik Oosting en Jaap Jacobs worden wél als GEO-expert genoemd. Als je niet als GEO-expert op LinkedIn zichtbaar bent, besta je niet voor dit type prompt.
Vergelijkende vragen (“Vergelijk de beste GEO-bronnen”): ChatGPT bouwt eigen overzichten uit gevestigde bronnen. iPullRank (21x), Marketing AI Institute (20x) en Frankwatching (18x) domineren hier. De weg erin is extern geciteerd worden door die bronnen — als zij naar jou linken, word je onderdeel van de bronnenset die het model samenvoegt.
“Meer content schrijven” helpt bij definitievragen. “LinkedIn optimaliseren” helpt bij expertlijsten. “Extern gepubliceerd worden” helpt bij vergelijkende vragen. “Platform-documentatie vertalen naar praktijkadvies” helpt bij how-to’s. Er is geen enkele aanpak die alle vier oplost — en dat is misschien het meest praktische inzicht uit deze hele meting.
De bronnen zijn Engelstalig — ook bij Nederlandse prompts
Een patroon dat ik pas bij nadere analyse zag: bij generieke GEO-vragen was 98% van de opgehaalde bronnen Engelstalig, ook als de vraag in het Nederlands werd gesteld. Search Engine Land, arXiv, Semrush, Ahrefs — allemaal Engels. Het model behandelt GEO als een Engelstalig vakgebied.
Pas als de prompt expliciet naar Nederland vraagt, schakelt ChatGPT over naar Nederlandse bronnen. Bij expertprompts was 53% Nederlandstalig: Emerce, Marketingfacts, Frankwatching, en tientallen bureausites.
Drie gevolgen. Ten eerste: mijn Nederlandstalige content concurreert bij generieke GEO-vragen niet eens, omdat ChatGPT in een ander taalsegment zoekt. Ten tweede: de Engelstalige versies van mijn artikelen zijn strategisch belangrijker dan ik dacht. Ze zijn niet alleen vertalingen — ze zijn mijn enige kans om mee te dingen bij generieke GEO-vragen, ook als die in het Nederlands worden gesteld.
Ten derde: juist bij het cluster waar Nederlandse bronnen domineren — de expertprompts — ben ik afwezig. Dat is het cluster waar mijn Nederlandstalige positionering het meest zou opleveren. De Nederlandse vakmedia die daar verschijnen (Emerce 24 keer, Frankwatching 20 keer, Marketingfacts 18 keer) zijn precies de platforms waar een gastpublicatie de koppeling “Hans Schepers ↔ GEO” in het model zou versterken.
Wat je hier als B2B-marketeer mee kunt
Uit 77 runs en 584 fan-out queries destilleer ik zeven actiepunten die voor elke B2B-marketeer relevant zijn — niet alleen voor mij.
- Meet fan-out queries, niet alleen eindresultaten. Of je in het antwoord voorkomt is het eindplaatje. De fan-out queries laten zien waarom je er wel of niet in staat. Dat is waar je kunt sturen.
- Behandel je homepage en auteursinformatie als primaire identiteitssignalen. ChatGPT haalde mijn homepage 16 keer op en mijn privacyverklaring 14 keer — vaker dan mijn beste artikelen. De pagina’s die jij als administratief beschouwt, gebruikt het model om te bepalen wie je bent.
- Claim je expertise op LinkedIn. Bij expertprompts was LinkedIn veruit de dominante bron (nl.linkedin.com 97 keer, linkedin.com 111 keer). Als je profiel niet expliciet je vakgebied claimt, besta je niet voor dit type vraag.
- Publiceer in het Engels, ook als je doelgroep Nederlands is. Bij generieke GEO-vragen was 98% van de opgehaalde bronnen Engelstalig, ongeacht de taal van de prompt. Je Engelstalige content is geen vertaling — het is je toegangskaart tot de zoekruimte.
- Investeer in externe validatie boven meer eigen content. Gastartikelen bij vakmedia die ChatGPT al als bron gebruikt (Emerce, Frankwatching, Search Engine Land) wegen zwaarder dan tien extra blogposts op je eigen site.
- Kies je strategie per vraagtype. Definitievragen vereisen eigen data. How-to’s vereisen vertaling van platform-documentatie. Expertlijsten vereisen LinkedIn. Vergelijkende vragen vereisen externe citaties. Eén aanpak werkt niet voor alle vier.
- Herhaal je meting. Eén snapshot zegt iets over dit moment. Pas bij herhaling weet je of je vooruit- of achteruitgaat.
Wat ik hiermee ga doen
Branded zichtbaarheid kan snel ontstaan. Generieke zichtbaarheid is een ander verhaal. AI-systemen spelen op safe en kiezen gevestigde bronnen boven een nichesite die net begint.
Maar de eerste generieke vermelding is er. Dat bewijst dat mijn site in principe mee kan komen. Nu is de vraag: hoe maak ik dat structureel?
De roadmap is helder. Content die matcht met de vragen die ChatGPT intern stelt — niet de vragen die ik denk dat gebruikers stellen, maar de fan-out queries die het model daadwerkelijk uitvoert. Externe signalen via gastartikelen bij Emerce en Frankwatching, de Nederlandse vakmedia die ChatGPT al als bron gebruikt. LinkedIn als entity-bron versterken, specifiek voor de expertprompts waar ik nu afwezig ben.
En er zijn twee dimensies die ik in meetronde 2 wil toevoegen. Perplexity en Gemini als platform, om te zien of het patroon ChatGPT-specifiek is of breder geldt. En Engelstalige varianten van alle promptclusters, niet alleen de branded en generieke — juist de expert- en how-to-prompts in het Engels zijn nu blinde vlekken in mijn data.
Wat deze meting niet bewijst
Dit is één meting, op één platform, op één dag, met één model (gpt-5-4-thinking). De consistentie binnen runs was hoog, maar dat zegt niets over stabiliteit over weken. Ik heb geen controlegroep en weet niet of 1 op 57 slecht, normaal of goed is voor een site van drie weken. Er zijn ook geen benchmarks beschikbaar voor dit type meting — dat is precies de reden dat ik het publiceer.
Dit is een testcase, geen eindconclusie. Wat ik wel met zekerheid kan zeggen: het verschil tussen branded en generieke zichtbaarheid is geen gradueel verschil. Het is een binair verschil — je zit in de zoekruimte of je zit er niet in. En de weg van het ene naar het andere is geen kwestie van “meer content publiceren.” Het is een kwestie van de juiste signalen op de juiste plekken.
Dat is precies waarom ik Hands on GEO ben begonnen: niet om te roepen hoe GEO werkt, maar om het te meten en te laten zien wat er gebeurt. Deze eerste meting laat zien dat de fundering er ligt. Nu begint het echte werk: van vindbaar worden naar gekozen worden.
FAQ
Hoe werkt de Quolity Chrome-extensie?
Quolity registreert welke zoekopdrachten ChatGPT intern uitvoert, welke bronnen het ophaalt, en welke daarvan in het antwoord worden geciteerd. De export is een JSON-bestand per run.
Is dit representatief voor alle AI-platforms?
Nee. Dit betreft alleen ChatGPT met gpt-5-4-thinking. Perplexity en Gemini kunnen andere bronnen kiezen. Platformvergelijking is een logische volgende stap.
Wat zijn site: operators in fan-out queries?
ChatGPT zoekt bij sommige prompts gericht op specifieke domeinen: site:arxiv.org, site:searchengineland.com. Als je domein niet in die set zit, wordt je content bij dat type vraag niet bekeken.
Wat is het verschil tussen “source” en “mention”?
Een source betekent dat ChatGPT je pagina heeft opgehaald. Een mention betekent dat je voorkomt in de antwoordtekst. Je kunt een mention hebben zonder source — het model kent je maar haalt je niet op.
Hoe lang is handsongeo.com live op het moment van meting?
Drie weken, met 14 gepubliceerde artikelen in Nederlands en Engels.
Kan ik dit zelf ook meten?
Ja. De Quolity Chrome-extensie is beschikbaar als browser add-on. Je hebt een ChatGPT-account nodig en moet elke prompt handmatig invoeren. De extensie registreert automatisch de fan-out queries en bronnen. Reken op 2–3 uur voor een set van 30 prompts met drie runs elk.
Bronnen: 77 Quolity fan-out JSON exports, ChatGPT gpt-5-4-thinking, 18 april 2026.