TL;DR

"Marketing, en SEO, is een marathon, en geen sprintje". Dat zeg ik altijd als iemand denkt snelle trucjes te hebben om de organische vindbaarheid te verhogen. Gek genoeg zag ik dat ChatGPT mijn nieuwe site toch snel oppikte. Weliswaar als er gericht werd gezocht. Bij Perplexity ging het wat sneller.

Hoe zichtbaar ben je in AI-tools als je site nog maar net bestaat? Dit zijn mijn eerste meetresultaten.

AI zichtbaarheid meten als nieuwe site
Nulmeting: zo zichtbaar ben je in AI-tools als je site net bestaat.

Expert take: AI-zichtbaarheid is een marathon — maar mijn eerste meting laat zien dat de start verrassend snel kan gaan.

Laatst bijgewerkt: 13 april 2026


Hoe mijn AI Visibility Monitor eruitziet

Voor ik de resultaten bespreek, even de opzet. Ik werk met een spreadsheet die ik de AI Visibility Monitor noem. Daarin heb ik 30 prompts gedefinieerd, verdeeld over vijf clusters: directe merknaamherkenning, categorie-discovery, vergelijking, probleemoplossing en thought leadership. Elk van die prompts draai ik drie keer per platform — op ChatGPT, Gemini en Perplexity — om toeval eruit te filteren.

Dit is geen geautomatiseerde meting. Ik voer de prompts handmatig in en sla de resultaten op. Het is een periodieke check, niet iets wat ik elke dag doe. De volledige monitor beslaat 270 geplande datapunten (30 prompts × 3 runs × 3 platforms), maar die voer ik gespreid uit. In deze eerste ronde zijn 165 runs daadwerkelijk uitgevoerd. ChatGPT is volledig gemeten (alle 26 gemeten prompts, 78 runs), Gemini loopt op schema (22 van 26 prompts, 66 runs), Perplexity is nog beperkt (7 van 26 prompts, 21 runs — voornamelijk de directe brand-prompts).

Dat betekent dat de Perplexity-resultaten in dit stadium niet direct vergelijkbaar zijn met ChatGPT en Gemini. Ik bespreek ze apart.


Verwachting versus werkelijkheid

Mijn verwachting: lage scores overall, met misschien een paar uitschieters op prompts waarbij ik expliciet bij naam werd gevraagd. Dat is logisch als je bedenkt dat mijn site op het moment van meten nog maar weinig content had. Wat ik aantrof, was genuanceerder. Over alle 78 gemeten ChatGPT-runs heen werd mijn site of naam 22 keer vermeld — een mention rate van 28,2%. Voor Gemini lag dat op 4,5% (3 van 66 runs). Die gemiddelden verbergen een patroon dat me meer opviel.


De verrassing zit in cluster A

Het eerste cluster — directe merknaamherkenning — testte prompts zoals “Ken je de website handsongeo.com?”, “Wat schrijft Hands on GEO over AI-zichtbaarheid?” en “Is Hands on GEO een betrouwbare bron over GEO?”, aangevuld met de Engelse equivalenten.

Op die 18 gemeten ChatGPT-runs scoorde mijn site 15 van de 18 — een herkenningspercentage van 83%. De drie missers zitten allemaal bij dezelfde prompt: “Wat is Hands on GEO?”, waarbij ChatGPT de zin interpreteert als hands-on werken met geografische data. Dat is een apart punt, waar ik later op terugkom.

Gemini herkent mijn site in dit cluster in 3 van de 18 runs (17%). Dat klinkt laag, maar de achterliggende situatie is interessant: de enige prompt waarop Gemini mij consistent noemt — drie van de drie runs — is “Ken je de website handsongeo.com?”. Op alle andere directe vragen over mijn content of betrouwbaarheid: niets. Gemini kent het domein, maar heeft blijkbaar weinig context over wat er op staat.

Voor Perplexity zijn nu alleen nog de NL brand-prompts gemeten (4 prompts, 12 runs). De herkenning is opvallend sterk: 10 van 12 runs positief — 83%, vergelijkbaar met ChatGPT. De EN-prompts voor Perplexity zijn nog niet uitgevoerd.


Het signaal dat me het meest opviel

Naast de directe merkherkenning zijn er ook prompts waarbij mijn naam opduikt zonder dat er naar gevraagd wordt. Die mentions komen uitsluitend van ChatGPT — Gemini en Perplexity scoren buiten de brand-prompts nul op de gemeten vragen.

Op de vraag “Mijn website verschijnt niet in AI-antwoorden, wat kan ik doen?” — een typische probleemzoekende vraag van een B2B marketeer die met deze materie worstelt — haalt ChatGPT handsongeo.com er in alle drie de runs terloops bij als praktijkvoorbeeld. Niet als antwoord op een directe vraag naar mijn site, maar als referentie in een advies aan iemand met een concreet probleem. En goed om te vermelden dat elke chat een nieuwe chat was, dus vrij van context. Ook niet ingelogd.

Op vergelijkingsprompts verschijnt mijn naam ook incidenteel. Bij “Vergelijk de beste GEO-bronnen voor marketeers” (NL) noemt ChatGPT mijn site in 1 van 3 runs als “GEO-specialistische bron, niveau Advanced, nog niche/beperkt bereik”. Bij de Engelse variant — “Compare the best GEO resources for marketers” — scoort ChatGPT 2 van 3, één keer met de karakterisering “Best niche resource for NL/B2B”. Op “Wie zijn experts op het gebied van GEO in Nederland?” duikt mijn URL in 1 van 3 runs op, al is de formulering daar wat ambigue.

Dat vind ik een relevanter signaal dan de merkherkenningscores. Als een AI-tool mij spontaan aanhaalt als voorbeeld bij een intentievraag, dan is er iets in de trainingsdata dat mijn site koppelt aan dit specifieke probleem. Blijkbaar ben ik in die context relevant.


Een bijzondere observatie over de NL brandprompt

Eén bevinding die ik niet had voorzien: de NL-prompt “Wat is Hands on GEO?” levert op ChatGPT en Gemini een score van nul. Niet omdat ze mijn site niet kennen, maar omdat ze de zin verkeerd interpreteren. ChatGPT legt “Hands on GEO” uit als “praktisch aan de slag gaan met geografische data” — de term GEO als in geodata, niet als in Generative Engine Optimization.

De Engelse variant — “What is Hands on GEO?” — scoort op ChatGPT drie van de drie. Perplexity herkent de NL-variant wél, zij het niet consistent (2 van 3 runs).

Dat is een merkwaardige asymmetrie die ik verder wil onderzoeken. Of het merk in NL-context scherper moet worden of dat de terminologie rondom GEO in het Nederlands nog te ongedifferentieerd is, weet ik nog niet.


Wat ik hieruit meeneem

Dit is Meetronde 1, en deels nog incompleet. De waarde van één meting is beperkt. Wat telt, is het patroon over tijd: groeit mijn zichtbaarheid in de discovery-clusters naarmate ik meer content publiceer? Word ik ook door Gemini herkend op meer dan één prompt? Laat Perplexity hetzelfde beeld zien als de overige prompts worden gemeten?

Dat zijn de vragen die ik bij de volgende meetronde wil beantwoorden.

Wat ik nu al vaststel: de meting is de moeite waard. Niet omdat alle scores hoog zijn — dat zijn ze niet — maar omdat het patroon informatie oplevert. Er is al iets, en dat iets is specifieker dan ik had verwacht. Het verschil tussen merkherkenning, intent-gedreven discovery en generieke categorie-zichtbaarheid is precies het onderscheid waarop een GEO-strategie gestuurd moet worden.


Veelgestelde vragen

Hoe werkt deze AI Visibility Monitor?
Ik gebruik een spreadsheet met 30 prompts over vijf clusters (merknaam, categorie, vergelijking, probleemoplossing, thought leadership). Elke prompt voer ik handmatig in en draai ik drie keer per platform op ChatGPT, Gemini en Perplexity. De uitkomst is een score van 0 tot 3 per prompt per platform: hoe vaak van de drie runs werd mijn site of naam vermeld.

Doe je dit elke dag?
Nee. Dit is een periodieke handmatige check, geen geautomatiseerde dagelijkse tracking (dat zou ik wel willen, maar ik heb hét script daarvoor nog niet gevonden). Ik voer de prompts gespreid uit en bouw zo een nulmeting op. Meetronde 1 liep van 7 tot 12 april 2026. Op dit moment zijn 165 van de 270 geplande datapunten ingevuld.

Waarom drie runs per prompt?
AI-systemen geven bij identieke vragen regelmatig andere antwoorden. Eén run acht ik onbetrouwbaar. Drie runs geven een eerste indicatie van consistentie zonder het meetproces onwerkbaar te maken.

Wat is het verschil tussen de vijf clusters?
Cluster A test directe herkenning van mijn merk. Cluster B test of ik verschijn bij generieke categorievragen over GEO. Cluster C kijkt naar vergelijkingsprompts. Cluster D simuleert probleemgericht zoekgedrag. Cluster E richt zich op autoriteits- en thought leadership-positionering.

Waarom scoort Gemini zo veel lager dan ChatGPT?
Gemini herkent mijn domein wanneer er direct naar gevraagd wordt (3 van 3 op “Ken je handsongeo.com?”), maar vrijwel nergens anders. Of dit te maken heeft met de trainingsdata, met hoe Gemini entiteiten classificeert, of met iets anders, kan ik op basis van één meetronde niet zeggen. De 4 nog niet gemeten EN-discovery prompts kunnen dat beeld nog iets nuanceren.

Wat betekent het als een AI-tool je site “kent”?
Het betekent dat informatie over je site in het trainingsmodel is vertegenwoordigd — genoeg om er iets zinnigs over te zeggen. Het zegt niets over hoe recent die informatie is, of die informatie klopt, of of je site als autoriteit wordt gezien. Het is een beginpunt, geen eindpunt.

Ga je dit meten blijven?
Ja. Het doel is om bij elke meetronde de scores te vergelijken met de vorige — niet om te bewijzen dat mijn aanpak werkt, maar om te zien of de aanpak iets beweegt. Als dat niet zo is, wil ik ook dat weten.


Bronnen:
– AI Visibility Monitor Hands on GEO — Meetronde 1, 7-12 april 2026 (eigen data, 165 van 270 geplande datapunten geregistreerd)
– Meting uitgevoerd op ChatGPT (GPT-4o), Gemini en Perplexity — handmatig, periodiek gespreid uitgevoerd

Lees ook: Alles wat een B2B-marketeer moet weten over GEO in 2026 · Wat is AI Search? · Wat is Entity Optimization?

Plaats een reactie

Volg Hans:LinkedIn·X·GitHub·Bluesky·Mastodon