Laatst bijgewerkt: april 2026
Hoe begin je met AI-zichtbaarheid meten als je site nog maar net bestaat? Ik deed 165 metingen op drie platforms en deel hier zes bevindingen — inclusief wat werkte, wat niet, en wat ik anders zou doen.
Expert Take — Hans Schepers De meeste artikelen over GEO vertellen je welke factoren ertoe doen. Dat deed ik zelf ook, in mijn eerste pillar. Maar theorie is pas bruikbaar als je hem naast je eigen data legt. Ik heb dat gedaan: 165 metingen op ChatGPT, Gemini en Perplexity, verdeeld over 30 prompts en drie runs per prompt. Wat ik vond was op sommige punten precies wat de theorie voorspelt, en op andere punten totaal niet. Dat maakt het interessant — en nuttig voor elke B2B-marketeer die wil weten wat er daadwerkelijk gebeurt als je dit gaat meten.
TL;DR
Ik besloot mijn AI-zichtbaarheid te meten: drie weken lang testen of mijn site verschijnt in AI-antwoorden. De belangrijkste conclusie: bij vragen met mijn merknaam word ik altijd als bron geciteerd, bij vragen zonder merknaam nog nooit. AI kent mijn merk, maar vertrouwt het nog niet als autoriteit. Dat los je niet op met meer content — dat los je op met vermeldingen door anderen en unieke eigen data. In dit artikel deel ik mijn meetopzet, zes bevindingen en wat ze betekenen als je dit voor je eigen merk wilt doen.

Waarom ik dit ging meten
In mijn eerste pillar over GEO beschreef ik hoe AI-zoekmachines bronnen selecteren en welke factoren daarbij meetellen. Dat artikel is gebaseerd op extern onderzoek en eigen analyse. Maar ergens knaagde het: klopt dit ook in de praktijk? Ik wilde mijn AI-zichtbaarheid meten met eigen data. Specifiek: voor een nieuw merk, in het Nederlands, in een niche die nog volop in ontwikkeling is?
Er was maar één manier om daar achter te komen. Meten.
Hoe ik meet
Ik werk met een spreadsheet die ik de AI Visibility Monitor noem. Daarin staan 30 prompts, verdeeld over vijf clusters: directe merknaamvragen, categorie-ontdekking, vergelijking, probleemoplossing en thought leadership. Elk prompt draai ik drie keer per platform — op ChatGPT, Gemini en Perplexity. Drie keer, omdat AI bij elke run andere bronnen raadpleegt en een ander antwoord geeft. Eén meting zegt niets.
Daarnaast gebruik ik de Quolity Chrome-extensie om te zien welke zoekopdrachten AI intern uitvoert als het mijn vraag verwerkt. Dat geeft inzicht in hoe het model mijn vraag opknipt en welke bronnen het daarbij raadpleegt.
In de eerste meetronde heb ik 165 van de 270 geplande runs uitgevoerd. ChatGPT is volledig gemeten (78 runs), Gemini loopt op schema (66 runs), Perplexity is nog beperkt (21 runs). De Perplexity-resultaten bespreek ik daarom apart.
Zes bevindingen uit mijn eerste metingen
1. Zonder mijn merknaam in de vraag word ik nog niet geciteerd
Bij elke vraag met mijn merknaam — “Is Hands on GEO een betrouwbare bron?” of “Wat schrijft Hands on GEO over AI-zichtbaarheid?” — word ik als bron met URL geciteerd. Zes van de zes runs. Bij vragen zonder mijn merknaam — “Welke sites schrijven over GEO?” of “Who are GEO experts in the Netherlands?” — verschijnt mijn site nul keer als bronverwijzing.
Als nieuw merk heb ik nog niet genoeg autoriteit opgebouwd om bij generieke vragen als bron te worden geselecteerd. Zonder merknaam als aanwijzing heeft AI nog geen reden om mijn site boven gevestigde bronnen te verkiezen.
Dat is een concreet startpunt. Het vertelt me precies waar ik nu sta en waar ik naartoe moet werken.
2. AI noemde mijn site in het antwoord, maar zonder link
Bij een aantal generieke vragen dook “handsongeo.com” op in de antwoordtekst van ChatGPT — bijvoorbeeld in een vergelijkingstabel van GEO-bronnen. Maar zonder klikbare bron eronder. Het model kent mijn merk en associeert het met het onderwerp. Maar het vertrouwt mijn site niet genoeg om er actief naar te verwijzen als bron.
Dat verschil vond ik opvallend. Een vermelding in de tekst zonder link levert je geen verkeer op. Het is een tussenstap: je bestaat in het model, maar je bent er nog niet als autoriteit.
3. Perplexity checkte mijn reputatie, niet mijn inhoud
Ik vroeg Perplexity: “Is Hands on GEO a reliable source about GEO?” en kon via de browser-developer-tools meekijken welke zoekopdrachten het intern uitvoerde. Het stelde drie vragen:
- “Hands on GEO reliable source”
- “Hands on GEO credibility”
- “Hands on GEO reputation”
Drie vragen over mijn reputatie. Nul vragen over mijn inhoud. Pas daarna bezocht het mijn homepage en las het de eerste tekst die het tegenkwam.
Voor mij was dat een kantelpunt. Als AI betrouwbaarheid beoordeelt op basis van wat anderen over je zeggen, dan is je eigen contentkalender maar de helft van het verhaal. Vermeldingen in vakmedia, gastartikelen, discussies op forums — dat zijn de signalen waar het model naar zoekt.
4. ChatGPT herkende mijn nieuwe site binnen twee weken
Ik verwachtte dat het maanden zou duren voordat AI-platforms mijn site zouden oppikken. Bij merkvragen herkende ChatGPT mijn site in 15 van de 18 runs — een herkenningspercentage van 83%, binnen twee weken na lancering. De drie missers kwamen van één prompt waarbij ChatGPT “GEO” interpreteerde als geografie in plaats van Generative Engine Optimization.
Gemini was een ander verhaal: 4,5% herkenning in dezelfde periode. Dat is een verschil van een factor 18. Elk platform werkt op zijn eigen tempo, met zijn eigen index en zijn eigen vertrouwenscriteria.
5. Hoe breder de vraag, hoe meer concurrenten om dezelfde plek
Via de Quolity-exports kon ik zien hoeveel interne zoekopdrachten AI uitvoert per vraag. Bij een merkvraag zijn dat 3 tot 7. Bij een brede vraag als “welke websites schrijven over AI-zichtbaarheid” zijn dat 8 tot 17 — en bij elke zoekopdracht concurreer je met tientallen andere domeinen.
Dat verklaart het verschil in mijn resultaten. Bij merkvragen is het speelveld klein en win ik. Bij generieke vragen is het speelveld groot en verlies ik het van domeinen met meer bekendheid en langere trackrecord.
De les die ik hieruit trek: hoe specifieker je expertise, hoe kleiner het speelveld en hoe groter je kans om geciteerd te worden. Breed aanwezig zijn op veel onderwerpen helpt minder dan diep gaan op één.
6. AI vindt mijn site wel, maar gebruikt hem nog niet als bron
Dit is misschien de belangrijkste bevinding. Het probleem zit niet bij de vindbaarheid. AI kent mijn site — dat blijkt uit de tekstvermeldingen en uit het feit dat Perplexity mijn homepage bezoekt. Maar bij generieke vragen kiest het andere bronnen die het betrouwbaarder vindt.
Tien extra artikelen publiceren lost dat niet op. Wat helpt: genoemd worden door anderen, en per onderwerp één artikel hebben met eigen data dat nergens anders te vinden is. Dat maakt je bron uniek en onvervangbaar.
Wat dit betekent als je dit voor je eigen merk wilt doen
De zes bevindingen hierboven komen uit mijn specifieke situatie: een nieuw merk, in het Nederlands, in een niche. Maar de patronen zijn breder toepasbaar.
Begin met merkvragen. Test eerst of AI je merk herkent als je er expliciet naar vraagt. Dat is je baseline. Als je daar al niet verschijnt, heb je een indexeringsprobleem. Als je daar wel verschijnt maar niet bij generieke vragen, heb je een autoriteitsprobleem. Dat onderscheid bepaalt waar je actie moet liggen.
Meet per platform apart. Mijn resultaten op ChatGPT zijn totaal anders dan op Gemini. Eén meting op één platform is niet representatief. Kies het platform waar jouw doelgroep het meest actief is en focus daar eerst.
Gebruik minimaal drie herhalingen per vraag. AI geeft bij elke run een ander antwoord. Eén meting is een momentopname, drie metingen laten een patroon zien. Dat is het minimale verschil tussen toeval en conclusie.
Kijk niet alleen of je verschijnt, maar hoe. Een tekstvermelding zonder link is een ander signaal dan een bronverwijzing met URL. Het eerste betekent dat het model je kent, het tweede dat het je vertrouwt. Dat verschil is relevant voor je strategie.
Investeer in externe vermeldingen. Mijn data laat zien dat eigen content alleen niet genoeg is om het vertrouwen van AI-modellen te winnen. Gastartikelen, interviews, vermeldingen door anderen — dat zijn de signalen die het verschil maken tussen “gekend” en “geciteerd”.
Word de expert op één onderwerp in plaats van overal een beetje aanwezig. Bij smalle vragen is de concurrentie kleiner. Eén artikel met eigen data over één specifiek onderwerp weegt zwaarder dan tien artikelen die herhalen wat iedereen al schrijft.
Wat ik nog niet weet
Ik heb 165 van de 270 geplande metingen gedaan. Perplexity is nog beperkt gemeten. Ik weet nog niet hoe snel mijn autoriteit opbouwt over tijd — daarvoor heb ik herhaalde metingen nodig over maanden, niet weken.
Ik weet ook nog niet precies welk type externe vermelding het meeste verschil maakt. Een gastpublicatie in Emerce heeft vermoedelijk een ander gewicht dan een Reddit-reactie. Dat ga ik de komende maanden testen.
En ik heb nog geen geautomatiseerde meting. Handmatig exporteren via Quolity werkt voor 165 metingen, maar niet voor structurele tracking over langere tijd. Dat is een volgende stap.
Veelgestelde vragen
Heb ik speciale tools nodig om dit te meten?
Nee. Je kunt beginnen met handmatig prompts invoeren in ChatGPT, Gemini en Perplexity en de resultaten bijhouden in een spreadsheet. Quolity is een gratis Chrome-extensie die je extra inzicht geeft in welke bronnen AI raadpleegt. Voor grotere schaal bestaan tools als Otterly.AI en Profound, maar voor een eerste meting is dat niet nodig.
Hoeveel prompts heb ik nodig voor betrouwbare conclusies?
Ik werk met 30 prompts verdeeld over vijf typen vragen. Voor een eerste meting kun je beginnen met 10 — zorg dat je een mix hebt van vragen met en zonder je merknaam. Het minimumaantal herhalingen per prompt is drie.
Hoe vaak moet ik meten?
Ik meet momenteel periodiek, niet dagelijks. AI-modellen veranderen niet van dag tot dag. Een meting per maand geeft je genoeg data om trends te zien. Bij grote wijzigingen aan je site of na een gastpublicatie kan een extra meting zinvol zijn.
Werkt dit ook voor merken die al langer bestaan?
Ja, maar je beginsituatie is anders. Een gevestigd merk zal waarschijnlijk ook bij generieke vragen al verschijnen. De meting helpt je dan om te bepalen bij welke typen vragen je wel en niet geciteerd wordt, en waar je kunt verbeteren.
Kan ik AI-citaties actief sturen?
Niet direct. Je kunt niet afdwingen dat een specifiek AI-platform jouw pagina citeert bij een specifieke vraag. Wat je wel kunt doen is de kans vergroten: door unieke inhoud te publiceren, door externe vermeldingen op te bouwen, en door je content zo te structureren dat het makkelijk citeerbaar is. Het is meer tuinieren dan adverteren.
Is dit relevant voor B2B of vooral voor B2C?
Juist voor B2B. B2B-kopers doen steeds meer vooronderzoek via AI voordat ze contact opnemen met een leverancier. Als jouw merk niet in die vroege fase verschijnt, sta je niet op de shortlist. En dan maakt het niet uit hoe goed je salesteam is.
Waar vind ik de theorie achter deze metingen?
In mijn eerste pillar over GEO beschrijf ik de factoren die bepalen of en hoe AI-zoekmachines je citeren. Dit artikel is het praktijkvervolg daarop.
Bronnen
– Eigen AI Visibility Monitor — 165 metingen, 30 prompts × 3 runs × 3 platforms, april 2026
– Eigen Quolity-exports — 15 gedetailleerde citatieanalyses, 5 prompts × 3 runs, april 2026
– Eigen Perplexity fan-out experiment — browser developer tools, 14 april 2026
– Pillar 1: “Alles wat een B2B-marketeer moet weten over GEO in 2026”, handsongeo.com