Laatst bijgewerkt: 30 april 2026

Expert Take: Query fan-out laat zien welke subvragen Google en AI-systemen uit een zoekintentie afleiden, en E-E-A-T helpt bepalen welke content die subvragen het meest betrouwbaar en bruikbaar beantwoordt. Als jouw content per subvraag sterk scoort op E-E-A-T, vergroot je de kans dat Google jouw pagina ziet als een bron die meerdere delen van de informatiebehoefte kan dekken.
De basis moet eerst kloppen.
Een goede recruiter beslist niet op basis van het sollicitatiegesprek alleen. De echte selectie vindt plaats bij de referentiecheck: wat zeggen externe bronnen over deze persoon, los van het verhaal dat hijzelf vertelt? AI-modellen werken op dezelfde manier. Ik heb de afgelopen weken met de Chrome extensie van Quolity honderden AI-runs verzameld en duizenden fan-out queries gelogd: de vervolgzoekacties die een model uitvoert nadat een gebruiker een eerste vraag stelt. Niet de hoofdprompt zelf, maar het zoekpad dat daarna openklapt.
Consistent patroon: merken worden zichtbaar of onzichtbaar in dat tweede pad — bij de vraag welke externe bronnen, experts en validatiesignalen het model erbij zoekt. Dat sluit precies aan op wat Google met E-E-A-T bedoelt, en waarom ik die twee ga koppelen. Niet als rankingformule, maar als diagnosekader: zoekt het model praktijkvoorbeelden? Geciteerde experts? Onafhankelijke vergelijkingen? Mijn hypothese: fan-out queries laten zien welk soort bewijs een model nodig heeft om een merk geloofwaardig genoeg te vinden om te citeren.
Dat maakt de vraag concreter dan “hoe rank ik in AI?”: welk zoekpad opent deze vraag, welk bewijs verwacht het model onderweg, en waar mist mijn merk het vertrouwen, de expertise, de ervaring of de autoriteit om zichtbaar te worden? De komende periode ‘rapporteer’ ik over die metingen op deze website — uitkomsten, methodiek, patronen en beperkingen. De basis moet eerst kloppen.