1. AI-citaties versus Google-traffic: wat verandert er echt?
Google-traffic draait om zichtbaarheid in SERP’s en doorklikken naar je site. AI-citaties draaien om zichtbaar zijn in antwoorden van LLM’s. In ChatGPT en Gemini ontstaat het antwoord eerst; links of citaties volgen alleen als onderbouwing. Dat vraagt een ander spel. Wat er fundamenteel verandert: 1) Intenties zijn taakgericht. Gebruikers formuleren problemen of taken, niet alleen zoekwoorden. 2) LLM’s selecteren bronnen op basis van entiteitduidelijkheid, autoriteit, consistentie en structuur. 3) Vindbaarheid is multi-plaats: je eigen site, maar ook datasets, documentatie, GitHub, Wikidata, brancheorganisaties. 4) Conversies verlopen vaker off-site (bijv. via productkaarten of samenvattingen). AI-citaties leveren drie soorten waarde: merkvermelding in het antwoord, klikbare bronvermelding (vooral in Perplexity en bij gebrowsde antwoorden), en model-‘memorization’ van jouw entiteit/claims die toekomstige antwoorden beïnvloedt. Kortom: optimaliseer niet alleen voor rankings, maar voor selecteerbaarheid als bron. Dat betekent heldere entiteiten, bewijsvoering en technisch consistente signalen die LLM’s zonder frictie kunnen verwerken.
2. Een GEO-framework: van zoekwoord naar taak, claim en bewijs
GEO (Generative Engine Optimization) verschuift de focus van zoekwoorden naar taken en bewijs. Werk met een simpel maar krachtig raamwerk: Stap 1 – Takenlijst: inventariseer de top-20 taken waarvoor je doelgroep een assistent inzet (bijv. “framemaat bepalen”, “zzp uurtarief berekenen”, “arbeidsovereenkomst opstellen”). Stap 2 – Entiteitenkaart: definieer jouw kernentiteiten (organisatie, producten, personen, locaties) met consistente namen, ID’s en sameAs-profielen (LinkedIn, KvK, Wikidata). Stap 3 – Claims en evidence: voor elke taak formuleer je 3-5 verifieerbare claims met bronnen. Maak expliciet: claim-tekst, datum, bron-URL, licentie. Stap 4 – Antwoordpatroon: structureer content in korte, direkt citeerbare blokken (vraag, kernantwoord in 1-2 zinnen, bullets met bewijs en bronlinks, datum/bijgewerkt, auteur). Stap 5 – Publiceer op meerdere kanalen: webpagina, PDF factsheet, API-endpoint of GitHub README. Stap 6 – Test met LLM’s: voer realistische prompts uit in ChatGPT, Gemini en Perplexity. Noteer of je wordt geciteerd en welke passage wordt overgenomen. Itereer maandelijks. Dit GEO-framework sluit aan op hoe LLM’s antwoorden construeren: duidelijke entiteiten, gecontroleerde claims, en verifieerbare bronnen verhogen je citatiekans.
3. Technische basis: llms.txt, schema-markup en JSON-LD die LLM’s begrijpen
Technische signalen maken of breken je citeerbaarheid. Drie pilaren: 1) llms.txt: publiceer in de root een llms.txt om LLM-crawlers richting te geven (naast robots.txt). Opnemen: toegestane paden, sitemaps, contact/licentie-URL’s, crawl-delays. Voorbeeld (beknopt): User-agent: * Allow: /kennisbank/ Disallow: /account/ Crawl-delay: 3 Sitemap: https://www.jouwdomein.nl/ai-sitemap.xml License: https://www.jouwdomein.nl/licentie Vermeld duidelijk wat hergebruik mag. Controleer crawler-documentatie per aanbieder. 2) Schema-markup met JSON-LD: leg je entiteiten en bewijs vast. Prioriteiten: Organization (sameAs, logo, contact), WebSite (searchAction), Article/TechArticle (author, dateModified, citation, license), FAQPage en HowTo. Houd velden up-to-date. Korte schets Article: @context: https://schema.org @type: TechArticle headline: Framemaat bepalen dateModified: 2026-04-18 author: Person (naam, sameAs) citation: CreativeWork (naam, url) license: URL mainEntityOfPage: WebPage-ID 3) Sitemaps en canonicalisatie: maak een aparte ai-sitemap met ‘answerable’ pagina’s, canonical URL’s en taal/land-titels. Foutloze HTTP-codes, stabiele URL’s en consistente metadata voorkomen ‘hallucinatie door ruis’.
4. Citeerbare content produceren: patronen, voorbeelden en kwaliteitsborging
LLM’s houden van korte, ondubbelzinnige antwoordblokken met bewijs. Gebruik dit patroon per taak: Header: vraag als H1/H2. Kernantwoord: 1-2 zinnen, feitelijk en tijdgebonden. Bewijs: 2-4 bullets met bronnen (eigen data + externe norm). Context: wanneer geldt dit, uitzonderingen. Metadata: auteur, datum, licentie, versienummer. Voorbeeld (fietsenwinkel NL): Vraag: Welke framemaat heb ik nodig bij 1,78 m? Antwoord: Meestal 56 cm voor een stadsfiets; controleer binnenbeenlengte voor fijn-afstelling. Bewijs: calculator-methodiek (URL), NEN-refs of fabrikantgids (URL), eigen maattabel (URL). Context: afwijkingen bij sportgeometrie. Metadata: auteur, 2026-03, CC BY 4.0. Kwaliteit borgen: – Redigeer op precisie en bronverwijzing. – Voeg claim-ID’s toe (bijv. CLAIM-FRM-056) zodat updates traceerbaar zijn. – Plaats dezelfde kern als machine-leesbare JSON (bijv. via een eenvoudige /facts.json) met claim, datum en bron. – Betaalmuur? Publiceer minimaal samenvattingen met vrij toegankelijke bewijsstukken; LLM’s mijden ‘dichte’ pagina’s.
5. Meten: van ranking naar ‘share of citation’ en assistent-bijdrage
Je stuurt op zichtbaarheid in antwoorden, niet alleen verkeer. Richt een dashboard in met: – Share of Citation (SoC): percentage antwoorden waarin jouw merk/URL als bron wordt genoemd op een set vaste prompts. Meet per assistent en per taak. – Citation Quality Score (CQS): weeg mee of de link klikbaar is, of de passage correct geciteerd is en of merknaam zichtbaar is. – Assistant-Assisted Conversions: conversies met herkomst Perplexity/ChatGPT/Gemini of met UTM’s op LLM-verwijzingen. – Crawler-signalen: requests van GPTBot, PerplexityBot, GoogleOther in je logs; groei in hits op ai-sitemap. – Prompt Coverage: welk deel van je top-taken leidt tot een citatie binnen 3 vragen? Praktisch meten: 1) Stel 50 vaste prompts per persona op; toets maandelijks in de drie assistenten. 2) Log referral-data en maak landingspagina’s met heldere UTM’s en ‘asst=gemini|chatgpt|perplexity’. 3) Bewaar screenshots/JSON-exports van antwoorden als audittrail. 4) Gebruik een lightweight crawler om je JSON-LD en llms.txt te controleren op fouten. Optimaliseer op SoC en CQS; verkeer volgt vaak later.
6. Distributie: voed de bronnen waar LLM’s uit putten
Alleen je website is niet genoeg. LLM’s mengen web, databanken en kennisgrafen. Verhoog je kans op citaties via: – Wikidata en branche-‘authority’ profielen: leg entiteits-IDs vast en koppel sameAs. – Open datasets en API’s: publiceer kerncijfers (bijv. tarieven, levertijden, normtabellen) als CSV/JSON met duidelijke licentie. – GitHub of docs-portals: technische handleidingen, changelogs en schema’s. – Pers- en onderzoekssecties: methodes, bronnen en ruwe data bij claims. – Partnerships: brancheverenigingen, hogescholen, gemeenten. Co-publicaties worden vaak als gezaghebbend gezien. Voorbeeld NL: een fintech scale-up publiceert kwartaaldata over betaaltermijnen als CSV + metodologiepagina. Perplexity citeert de dataset bij vragen over B2B-betaalgedrag in Nederland; journalisten nemen het over, wat weer de entiteit versterkt. Zorg dat elke dataset een stabiele URL, versiebeheer en JSON-LD Dataset-markup heeft. Maak ‘source packs’ met factsheet, data en licentie op één plek.
7. Nederlandse praktijk: drie scenario’s en wat wel/niet werkt
Voorbeeld 1 – E-commerce fietsen: start met 0 zichtbaarheid in LLM’s. Acties: maattabellen als JSON + uitlegpagina, HowTo’s met schema, llms.txt en ai-sitemap. Resultaat: na 6-8 weken verschijnen citaties in Perplexity bij framemaat- en onderhoudsvragen; klikbare bron levert eerste verkoop via ‘assistant’-landingspagina. Wat niet werkt: generieke blogposts zonder meetbare claims. Voorbeeld 2 – Notariskantoor: publiceert ‘modellenbibliotheek’ (schenking, levenstestament) met FAQPage-markup, versiebeheer en bronverwijzingen naar wetgeving. Chat-assistenten citeren bij “voorbeeld clausule…”. Wat niet werkt: PDF zonder webversie en zonder metadata. Voorbeeld 3 – B2B HR-software: maakt salaris- en verlofregels inzichtelijk met changelog en Dataset-markup; koppelt sameAs aan Belastingdienst-pagina’s. Wordt vaker genoemd als ‘referentie-implementatie’. Wat steeds terugkomt: duidelijke entiteiten, verifieerbare claims, consistente technische signalen. Wie dit structureel inredt, bouwt duurzame zichtbaarheid in AI-antwoorden. Zoek je hierin een sparringpartner, dan helpt een gespecialiseerde GEO-partij je tempo te verhogen.
Veelgestelde vragen
Wat is een AI-citatie en waarom is het anders dan een Google-klik?
Een AI-citatie is een bronvermelding in het antwoord van een LLM zoals ChatGPT, Gemini of Perplexity. Het antwoord staat centraal; de citatie ondersteunt of maakt de passage verifieerbaar. Bij Google optimaliseer je vooral voor rankings en doorklikken. Bij AI-citaties optimaliseer je voor selecteerbaarheid als bron: entiteitduidelijkheid, bewijs en structuur. Waarde komt uit merkvermelding, mogelijke doorklik en het feit dat jouw claims de toekomstige antwoorden van het model vormen.
Hoe meet ik AI-citaties in ChatGPT, Gemini en Perplexity concreet?
Werk met een vaste set van 50 prompts per persona/taak. Test maandelijks in ChatGPT, Gemini en Perplexity en noteer of je als bron wordt genoemd (Share of Citation). Weeg kwaliteit mee: is de link klikbaar, is de naam correct (Citation Quality Score)? Combineer dit met serverlogs (GPTBot/PerplexityBot-hits), referral-data met UTM’s (asst=gemini|chatgpt|perplexity) en screenshots/JSON-exports als audittrail. Stuur op trends per taak, niet op éénmalige uitschieters.
Wat zet ik in llms.txt en heeft het echt effect?
Plaats in llms.txt crawlregels voor LLM-crawlers, paden die relevant zijn (bijv. /kennisbank/), een ai-sitemap, contact- en licentie-URL’s en eventueel crawl-delay. Dit maakt je intenties en prioriteiten expliciet en verlaagt frictie. Effect hangt af van de crawler; niet elke aanbieder volgt dezelfde conventies. Combineer llms.txt altijd met robots.txt, heldere licenties en foutloze sitemaps. Monitor serverlogs om te zien of bots je aanwijzingen gebruiken.
Welke schema-markup is cruciaal om vaker geciteerd te worden?
Zorg voor Organization en WebSite als basis (sameAs, logo, contact). Markeer inhoudelijke pagina’s met Article/TechArticle inclusief author, dateModified, citation en license. Gebruik FAQPage en HowTo voor taakgerichte content. Voor data: Dataset met distribution (CSV/JSON) en license. Koppel entiteiten via sameAs (LinkedIn, KvK, Wikidata). Houd JSON-LD stabiel en up-to-date; LLM’s waarderen consistente, machine-leesbare bewijsvoering en herkomst-informatie.
Is GEO een vervanger van SEO of een aanvulling?
GEO is een aanvulling die de prioriteit verlegt: van rankings naar selecteerbaarheid in LLM-antwoorden. Veel SEO-principes blijven waardevol (kwaliteit, E-E-A-T, technische hygiëne), maar GEO voegt taken, claims, bewijs en multi-kanaal distributie toe. In de praktijk werk je hybride: optimaliseer voor Google én voor AI-citaties. Waar je keuzes moet maken, geef je de voorkeur aan heldere entiteiten, verifieerbare bronnen en citeerbare antwoordblokken.
Hoe snel kan ik resultaat zien met een AI-citatie-strategie?
Bij goed voorbereide sites zien we vaak binnen 4–8 weken de eerste citaties in Perplexity en in gebrowsde antwoorden. Structurele zichtbaarheid in meerdere assistenten kost meestal 2–3 iteraties (1–3 maanden) van publiceren, testen en bijsturen. Versnel door te focussen op taken met hoge vraag, sterke bewijsvoering en technische hygiëne (ai-sitemap, JSON-LD, llms.txt). Houd er rekening mee dat modellen periodiek updaten; consistentie wint over tijd.
Plan een gesprek
Plan een gesprek