Expert Take
Ik vroeg Perplexity of mijn site betrouwbaar was en keek daarna onder de motorkap. Perplexity was niet geïnteresseerd in mijn site en blogs. Het wilde eigenlijk vooral weten wat anderen over me zeggen. Dat is een heel andere manier van denken dan SEO, en eerlijk gezegd had ik er nog nooit zo naar gekeken. Maar ik weet nu tenminste wat ik moet opbouwen.
TL;DR
AI kijkt bij een betrouwbaarheidsvraag niet naar wat jij schrijft, maar naar wat anderen over jou zeggen. Ik zag het letterlijk in de vragen die Perplexity intern stelde. Dat betekent dat vermeldingen door anderen — gastartikelen, citaties, Reddit — meer wegen dan je eigen contentkalender. Iets wat ik zelf ook nog grotendeels moet opbouwen.
Laatst bijgewerkt: 14 april 2026
Het experiment
Ik heb Perplexity één vraag gesteld: “Is Hands on GEO a reliable source about GEO?”
Boven het antwoord stond: Completed 2 steps. Die twee stappen zijn het interessante deel. Stap één was een zoekopdracht op het web — drie interne zoekvragen tegelijk. Stap twee was een direct bezoek aan mijn homepage. Pas daarna gaf Perplexity antwoord.
Het antwoord zelf was positief: Hands on GEO is een betrouwbare bron voor B2B-marketeers die meer over GEO willen leren. Prima. Maar wat me meer bezighield, was wat er in die twee stappen gebeurde.
Elke browser heeft een ingebouwde functie waarmee je kunt zien welke verzoeken een site op de achtergrond verstuurt. Ik had die aan staan terwijl Perplexity werkte, en kon zo precies zien wat het intern deed. Dat was iets anders dan ik verwacht had.
Wat query fan-out is en waarom het ertoe doet
Stel je stelt een vraag aan Perplexity. Wat denk je dat het doet? Gewoon één zoekopdracht? Nee. Het knipt je vraag op in meerdere kleinere zoekvragen die tegelijk worden uitgevoerd. Dat heet query fan-out — denk aan een hand kaarten die openwaait. De resultaten van al die losse zoekvragen worden daarna samengevat tot één antwoord.
Je ziet dat als gebruiker normaal niet. Maar als je weet waar je moet kijken, is het leesbaar.
Bij mijn vraag stelde Perplexity drie interne zoekvragen:
- “Hands on GEO reliable source”
- “Hands on GEO credibility”
- “Hands on GEO reputation”
Daarna bezocht het mijn homepage direct en las de eerste tekst die het tegenkwam: “GEO Expert & B2B Strateeg — Jouw zakelijke klanten vragen het aan AI. Vindt AI jou?”
Dat is het. Drie vragen over mijn reputatie en een bezoek aan mijn homepage. Geen vragen over mijn vakgebied, geen vragen over wat ik schrijf.
AI vraagt niet wat je weet — het vraagt wat anderen van je vinden
Perplexity vertaalde mijn vraag intern naar: wat zegt het internet over dit merk? Alle drie de zoekvragen gingen over of ik betrouwbaar en geloofwaardig ben in de ogen van anderen.
Dat is anders dan hoe SEO werkt. Bij Google draait je vindbaarheid voor een groot deel om wat jij zelf publiceert. Bij AI gaat een betrouwbaarheidsoordeel over wat anderen over je zeggen. Vermeldingen, citaties in vakbladen, discussies over je merk op Reddit.
Één vermelding door iemand anders weegt daarbij waarschijnlijk zwaarder dan vijf goede artikelen op je eigen site. Andere logica, andere aanpak.
Toch: naamverwarring in de bronnenlijst
De drie zoekvragen waren correct gericht op mijn merk. Maar tussen de vijftien bronnen die Perplexity raadpleegde, zat josephkerski.com — een site over GIS-onderwijs en geografische data. Geen GEO als marketingdiscipline, maar wel een site waar “GEO” in de aardrijkskundige betekenis prominent aanwezig is.
Die site stond ook in een eerdere test die ik deed. In die eerste test zaten nog meer geografiebronnen: cartografie, aardrijkskundeonderwijs, GIS-systemen.
Mijn merk herkende Perplexity dus correct. Maar de bronnen die het daarvoor opzocht, bevatten toch verwarring over de naam. Twee dingen die blijkbaar niet altijd gelijk oplopen.
Dit is verwarring die je bij gewoon zoekgedrag niet ziet. Een aardrijkskunde-PDF heeft geen invloed op je positie in Google. Op het oordeel dat Perplexity velt over mijn geloofwaardigheid? Mogelijk wel.
Wat je hier concreet mee kunt
1. Zorg dat andere sites over jou schrijven
Gastartikelen, vermeldingen in brancheoverzichten, citaties door andere publicaties — dat is waar een AI naar zoekt als het jouw betrouwbaarheid beoordeelt. Een sterk artikel op je eigen site telt minder mee dan één vermelding door iemand anders met wat context erbij.
2. Maak je homepage ondubbelzinnig
Perplexity bezocht mijn homepage direct als onderdeel van zijn beoordeling. Zorg dat de eerste alinea meteen duidelijk maakt wat je doet, voor wie, en in welk vakgebied — zodat een AI niet twee kanten op kan met je naam of de begrippen die je gebruikt.
3. Voeg onzichtbare metadata toe die je vakgebied benoemt
Schema markup is informatie die zoekmachines en AI-systemen lezen zonder dat bezoekers het zien. Als je daarin duidelijk beschrijft wie je bent en in welk vakgebied je actief bent, helpt dat AI-systemen om je correct te plaatsen. Bronvermeldingen in je tekst verhogen je AI-zichtbaarheid met tot 40%, blijkt uit onderzoek (Aggarwal et al., KDD 2024) — maar dat werkt alleen als een AI je eerst goed heeft geïdentificeerd.
4. Controleer je eigen AI-reputatie
Typ in Perplexity: “Is [jouw merk] a reliable source about [jouw vakgebied]?” Open daarna de bronnenlijst. Kijk of de bronnen die het raadpleegde over hetzelfde vakgebied gaan als jij denkt. Als er ruis in zit, weet je dat er naamverwarring speelt. Je hebt hiervoor geen technische kennis nodig — de bronnenlijst is gewoon zichtbaar.
Eerlijk gezegd heb ik deze vier stappen zelf niet allemaal gedaan. Ik ben pas een paar maanden bezig met handsongeo.com. De gastartikelen staan op de lijst, niet in de agenda. Mijn metadata is beter dan een half jaar geleden, maar lang niet goed genoeg. Ik schrijf dit niet als iemand die het op orde heeft — maar als iemand die aan het uitzoeken is hoe dit werkt.
Wat ik nog niet weet — en nog niet heb gedaan
Ik heb twee tests gedaan op hetzelfde platform, met dezelfde vraag, op verschillende momenten. Dat is weinig. ChatGPT en Google AI Mode heb ik op dezelfde manier nog niet bekeken. De stappen die ik hierboven beschrijf, heb ik op mijn eigen site nog niet volledig doorgevoerd. Geen gastartikelen gepubliceerd, geen externe vermeldingen systematisch opgebouwd, de naamverwarring rond “Hands on GEO” nog niet aangepakt.
Ik schrijf dit als iemand die net iets heeft ontdekt en die zich nog afvraagt wat ik daarmee kan.
FAQ
Wat is query fan-out?
Als je een vraag stelt aan een AI-zoekmachine, wordt die vraag intern opgesplitst in meerdere kleinere zoekvragen die tegelijk worden uitgevoerd. Die resultaten worden daarna samengevat tot één antwoord. Je ziet als gebruiker alleen het eindresultaat — de losse zoekvragen zijn normaal niet zichtbaar.
Welke vragen stelde Perplexity intern?
Drie: “Hands on GEO reliable source”, “Hands on GEO credibility” en “Hands on GEO reputation”. Geen van die vragen ging over mijn vakgebied of de inhoud van mijn site. Daarnaast bezocht Perplexity mijn homepage direct.
Hoe zie je welke bronnen Perplexity gebruikte?
Klik na het antwoord op de bronnenlijst. Die toont alle sites die zijn geraadpleegd. Wil je de interne zoekvragen zelf zien, dan heb je het ontwikkelaarsgereedschap van je browser nodig — dat is iets technischer, maar niet onmogelijk.
Waarom zoekt Perplexity naar reputatie en niet naar inhoud?
Als je vraagt of iets betrouwbaar is, zoekt Perplexity naar wat anderen ervan vinden, niet naar wat de bron zelf beweert. Vandaar die drie zoekvragen over betrouwbaarheid en geloofwaardigheid. Bij een inhoudsvraag — “wat is GEO?” — zijn de interne zoekvragen wél inhoudsgericht.
Heeft de naam “Hands on GEO” een nadeel bij AI?
“Hands on GEO” lijkt ook op “hands-on geography” — aardrijkskunde via directe ervaring. Perplexity herkende mijn merk correct, maar in de bronnenlijst dook josephkerski.com op, een GIS-onderwijssite. Dat gebeurde in beide tests. Mijn merk werd goed herkend, maar de bronnen die daarvoor werden gebruikt, bevatten toch verwarring.
Geeft Perplexity altijd dezelfde resultaten?
Nee. Resultaten en bronnen kunnen per sessie verschillen. Wat ik hier beschrijf, zijn momentopnames — geen vaste waarheid.
Bronnen
- Aggarwal, P. et al., GEO: Generative Engine Optimization, gepresenteerd op KDD 2024 — arxiv.org/abs/2311.09735
- Profound, Introducing Query Fanouts: See what Answer Engines are really searching for — tryprofound.com/blog/introducing-query-fanouts
- iPullRank, How AI Search Platforms Expand Queries with Fan-Out and Why It Skews Intent — ipullrank.com/expanding-queries-with-fanout
- Omnius, Understanding Query Fan-Out for Better AI Search Visibility — omnius.so/blog/query-fan-out
- NoGood, Query Fan-Out: AI Search’s Most Critical Mechanism — nogood.io/blog/query-fan-out-guide
- Ziptie.dev, How Perplexity AI Answers Work: Retrieval, Ranking, and Citation Pipeline — ziptie.dev/blog/how-perplexity-ai-answers-work
Lees ook: Alles wat een B2B-marketeer moet weten over GEO in 2026 · Wat is AI Search? · Wat is GEO?