Kennisbank AI

Hoe meet je AI-vindbaarheid? Tools en KPI's voor 2026

AI-vindbaarheid gaat niet alleen over organische posities, maar over hoe vaak en hoe prominent LLM’s zoals ChatGPT, Gemini en Perplexity jouw merk en content als antwoord en citatie opnemen. In 2026 verschuift SEO naar GEO (Generative Engine Optimization): je optimaliseert voor antwoordkansen, entiteiten en citaties, niet enkel voor blauwe links. Dit artikel geeft je een concreet kader om AI vindbaarheid te meten met tools en KPI’s. Je krijgt een KPI-piramide met definities en formules, een praktische toolstack, een 90-dagen stappenplan, content- en tech‑ingrepen (schema-markup, JSON-LD, llms.txt) en Nederlandse praktijkcases. Zo stuur je gericht op betere zichtbaarheid en conversie in LLM-gedreven kanalen.

1. Van SEO naar GEO: wat betekent AI‑vindbaarheid meten?

AI-vindbaarheid meten betekent vastleggen in welke mate LLM’s jouw merk als antwoordbron citeren én verwerken in hun gegenereerde output. In tegenstelling tot klassieke SEO, waar je SERP-posities en CTR’s volgt, meet je bij GEO primair: (a) aanwezigheid in antwoorden, (b) kwaliteit en positie van citaties, (c) entiteitendekking, en (d) impact op verkeer en omzet.

Belangrijke begrippen: - LLM: het model (bijv. GPT-4/4o, Gemini 2.0, Perplexity) dat textueel antwoord genereert. - Citatie: een expliciete bronvermelding of link in het AI‑antwoord of in de bronlijst. - GEO: optimalisatie voor generatieve engines, gericht op antwoordkansen en bronbetrouwbaarheid.

AI-kanalen verschillen in transparantie. Perplexity toont standaard bronnen en citaties. ChatGPT (met Browsing) en Gemini tonen variabel bronnen of “Leer meer”-links. Daarom combineer je twee sporen: panelmetingen (gestandaardiseerde prompts per cluster) en passieve attribuering (analytics, self‑reported attribution). Het doel is consistent per topiccluster te weten: verschijn je in antwoorden, hoe vaak, met welke URL’s, en draagt dit bij aan assistedsessies en leads? Met die basis bouw je een meetbaar verbeterprogramma in 90 dagen.

2. KPI‑piramide voor AI‑vindbaarheid: definities en formules

Gebruik een driedelige piramide: Outcome, Performance en Hygiene.

Outcome (business): - LLM‑Sourced Leads (LSL): leads waarbij de eerste aanraking of self‑reported attribution “ChatGPT/Gemini/Perplexity” bevat. - AI‑Assisted Revenue (AAR): omzet waarbij de journeys een LLM‑touchpoint bevatten (gemeten via UTM’s en survey).

Performance (zichtbaarheid): - Share of Answer (SoA): aantal antwoorden waarin jouw merk voorkomt / totaal geteste antwoorden per cluster. - Response Inclusion Rate (RIR): aantal antwoorden met jouw URL als citatie / totaal antwoorden. - Citation Quality Score (CQS): gewogen score op basis van citatiepositie (bijv. pos1=1.0, pos2=0.7, pos3=0.5) en domeinautoriteit. - Entity Coverage (EC): percentage kernentiteiten (producten, locaties, personen) dat correct wordt herkend en benoemd door LLM’s.

Hygiene (enablement): - Schema Coverage Rate (SCR): pagina’s met geldige JSON‑LD / totaal pagina’s in scope. - llms.txt Coverage (LTC): aanwezigheid en juistheid van llms.txt met duidelijke crawlinstructies en feeds. - Freshness Index (FI): mediane “lastmod” leeftijd van content in dagen binnen prioriteitsclusters.

Rapportage: stuur wekelijks op Performance/Hygiene en maandelijks op Outcome. Stel drempelwaarden, bijvoorbeeld SoA ≥ 40% in topclusters, RIR ≥ 20% en SCR ≥ 85%.

3. Meten per kanaal: ChatGPT, Gemini en Perplexity

Per kanaal verschilt de meetmethode.

Perplexity: - Methode: voer een vaste lijst prompts per cluster uit (bijv. 25 generieke + 25 long‑tail), log “Sources” en “Citations”. - KPI’s: SoA, RIR en CQS met bronpositie‑weging. Meet ook “Top/All” weergaven. - Tip: gebruik share‑links om resultaten te reproduceren en veranderingsimpact te auditten.

ChatGPT (met Browsing/Internet): - Methode: run scenario’s in gelogde sessies; exporteer antwoorden en linkuitklappers. Niet elk antwoord toont bronnen; gebruik daarom een evaluator‑agent die checkt of jouw merk/URL in de tekst voorkomt. - KPI’s: SoA (mention‑gebaseerd) en, waar aanwezig, RIR op basis van bronvermeldingen. - Tip: test zowel generieke prompts (“beste x voor y”) als taakprompts (“stel een vergelijkingstabel op”).

Gemini: - Methode: test prompts in Gemini en, waar beschikbaar, volg AI Overviews in Search (indien NL‑uitrol). Koppel Google Search Console data (AI‑Overviews tab wanneer beschikbaar) en kwalificeer mention‑teksten. - KPI’s: SoA, Entity Coverage.

Voor alle kanalen: werk met 7‑14 persona’s (beslisser, onderzoeker, junior) en herhaal elke 2 weken. Gebruik identieke promptsets om seizoensinvloeden te filteren.

4. De toolstack van 2026: verzamelen, valideren, visualiseren

Je hoeft geen dure suites te kopen; bouw een lichtgewicht stack die je kunt auditen.

Dataverzameling: - Prompt Runner: Playwright/Chromium scripts die prompts in ChatGPT/Gemini/Perplexity uitvoeren, met timestamp, prompt, antwoord, citaties en kanaal. - Parser: regex/HTML‑extractie voor bron‑URL’s, domeinen en citatieposities; entiteiten via spaCy of OpenAI NER.

Validatie & enablement: - Schema‑check: Google Rich Results Test, Schema.org Validator, JSON‑LD linting in CI. - llms.txt validator: controleer bereikbaarheid (https://domein.nl/llms.txt), directives (Allow/Disallow), feeds (sitemaps, RSS, productfeeds, datasets). - Crawlbaarheid: server‑logs, robots.txt, CORS‑headers voor AI‑fetchers.

Opslag & analyse: - BigQuery/Snowflake voor ruwe runs; dbt/SQL‑views voor KPI’s per cluster. - Dashboard: Looker Studio/Metabase/Power BI met SoA, RIR, CQS, EC en trendlijnen.

Beoordeling (LLM‑as‑judge): - Gebruik een klein model (bijv. GPT‑4o mini of Llama 3.1) met rubric: correctheid (0‑2), merkvermelding (0‑1), actiewaarde (0‑2). Score correleren met conversies.

Instrumentatie: - UTM’s voor AI‑kanalen (utm_source=chatgpt|perplexity|gemini, utm_medium=ai, utm_campaign=cluster). Self‑reported attribution vraag: “Waar hoorde je voor het eerst over ons?”

5. 90‑dagen stappenplan: van nulmeting naar impact

Fase 1 – Baseline (week 1‑2): - Definieer 5‑10 topicclusters op basis van omzetkansen. Bouw een promptboard (50‑100 prompts per cluster, inclusief NL‑varianten en long‑tail). - Run eerste panelmetingen per kanaal en persona. Rapporteer SoA, RIR, CQS en EC per cluster.

Fase 2 – Instrumentatie (week 3‑4): - Zet de Prompt Runner op CI (dagelijks/2‑wekelijks). Bouw dashboards. Activeer UTM’s en self‑reported attribution. - Audit schema‑markup en JSON‑LD; meet SCR en corrigeer fouten. Publiceer/actualiseer llms.txt met sitemaps, productfeeds en datasetlinks.

Fase 3 – Optimalisatie (week 5‑8): - Content: voeg FAQPage/HowTo schema, verifieer Organization/Person JSON‑LD, breid autorbio’s uit (E‑E‑A‑T). - Autoriteit: plan citatie‑opbouw via branchemedia en .gov/.edu waar relevant. - Techniek: verbeter lastmod, sitemaps, paginatitels en canonicals.

Fase 4 – Validatie en opschaling (week 9‑12): - Herhaal panelmetingen, bereken uplift per cluster. - Zet experimenteerregels: 1 verandering per cluster per sprint. - Veranker governance: eigenaarschap, meetcadans en rapportage naar MT.

6. Content- en tech‑ingrepen die KPI’s het snelst bewegen

Content: - Antwoordvorm: korte samenvatting + bronnen + stapplan; LLM’s prefereren gestructureerde, bewijsrijke content. - Entiteiten: markeer producten, locaties en personen (Organization, Product, Service, LocalBusiness, Person). - Bewijs: voeg referenties, keurmerken en prijs/voorraad‑blokken toe; dit verhoogt kans op citatie.

Schema‑markup (JSON‑LD): - Verplicht in scope: Organization, WebSite, WebPage, BreadcrumbList. - Snel rendement: FAQPage, HowTo, Product, Review, MedicalEntity (zorg), SoftwareApplication (SaaS). - Controle: SCR ≥ 85% en geen kritieke fouten in Rich Results Test.

Techniek: - llms.txt: plaats op /. Voorbeeldregels: Allow: /kennisbank/ Sitemap: https://domein.nl/sitemap.xml Feed: https://domein.nl/knowledge.rss - Freshness: correcte last‑modified headers en frequente RSS‑pings. - Crawlbaarheid: 200/304 responses, consistente canonicals, hreflang NL/NL‑BE indien relevant, CORS voor AI‑fetchers.

Linkearning voor citaties: - Publiceer datasets/benchmarks, onderhoud productvergelijkers, pitch samenvattingen aan vakmedia. Dit levert kwalitatieve citaties die CQS verhogen.

7. Governance, risico’s en compliance bij GEO‑meting

LLM‑kanalen veranderen snel; borg daarom governance.

- Meetdiscipline: vaste cadans (2‑wekelijks panels, maandelijks MT‑review). Freeze‑periods tijdens metingen om ruis te voorkomen. - Kwaliteitsborging: dubbel checken van parsers en handmatige steekproeven van citaties en entiteiten. - Hallucinaties: documenteer en corrigeer misinformatie over je merk met heldere, evidence‑rijke pagina’s (FAQ’s, definities, veiligheidsinfo). - Juridisch: respecteer terms van AI‑platforms; vermijd agressieve scraping. Werk met share‑links en officiële API’s waar beschikbaar. - Privacy: self‑reported attribution anoniem aggregeren, geen PII in promptlogs. - DRIFT‑monitoring: houd een changelog bij van modelupdates (bijv. Gemini versie, GPT‑model) en correlateer dips/pieken met releases. - Vendor lock‑in: sla ruwe runs op in open formaten (JSON/Parquet) en definieer KPI’s in SQL/dbt zodat je tooling kunt wisselen zonder datamigratie‑pijn.

Rapportage: laat dashboards SoA/RIR/CQS naar Outcome (AAR/LSL) mappen per cluster, met cost‑per‑AI‑impression en cost‑per‑citatie om budgetten te sturen.

8. Nederlandse praktijkcases: wat werkt in de markt

B2B SaaS (Utrecht): scale‑up in compliance tooling wilde AI vindbaarheid meten tools KPI rond “NEN 7510 software”. Na nulmeting (SoA 12% in Perplexity, RIR 0% in ChatGPT) implementeerden ze SoftwareApplication/FAQPage JSON‑LD, voegden drie referentiecases toe en publiceerden een llms.txt met productfeed. Resultaat in 8 weken: SoA 58% (Perplexity), RIR 19% (ChatGPT), 14 LLM‑sourced demo‑aanvragen.

E‑commerce (Rotterdam): retailer in duurzame hardloopschoenen. Aanpak: HowTo + Product schema, voorraad‑blokken, autorbio’s en lokale entiteiten (LocalBusiness). Citatiecampagne via sportblogs. Resultaat: RIR van 0 naar 23% in Perplexity, CQS +0,32 en +11% AI‑assisted omzet in 10 weken.

Zorginstelling (Groningen): onderwerp “wachttijd GGZ regio Groningen”. Aanpak: MedicalEntity/FAQPage, heldere definities en actuele wachttijdtabel met lastmod. llms.txt wees naar dataset‑CSV. Resultaat: Entity Coverage +35pp, hallucinaties namen af; Gemini en Perplexity citeerden de datasetpagina structureel.

In alle drie de gevallen gold: discipline in metingen, JSON‑LD op orde en llms.txt met feeds versnelden de zichtbaarheid en conversie.

Veelgestelde vragen

Wat zijn de belangrijkste KPI’s om AI‑vindbaarheid in 2026 te meten?

Gebruik een piramide: Outcome (LLM‑Sourced Leads, AI‑Assisted Revenue), Performance (Share of Answer, Response Inclusion Rate, Citation Quality Score, Entity Coverage) en Hygiene (Schema Coverage Rate, llms.txt Coverage, Freshness Index). Rapporteer wekelijks Performance/Hygiene en maandelijks Outcome. Stel drempelwaarden, bijvoorbeeld SoA ≥ 40% in prioriteitsclusters, RIR ≥ 20% en SCR ≥ 85%. Koppel KPI’s aan topicclusters en persona’s voor stuurinformatie.

Hoe meet ik citaties in ChatGPT als er geen bronlijst zichtbaar is?

Meet tweesporig. 1) Mention‑detectie: laat een evaluator‑agent controleren of merk/URL in de antwoordtekst voorkomt (SoA). 2) Wanneer Browsing‑bronnen verschijnen, parse je die voor RIR en CQS. Gebruik gestandaardiseerde prompts en log runs (timestamp, prompt, antwoord). Valideer met steekproeven. Rapporteer ChatGPT‑metingen altijd apart van Perplexity/Gemini wegens brontransparantie‑verschillen.

Werkt een llms.txt bestand echt voor betere AI‑vindbaarheid?

llms.txt is geen rankingswitch, maar een enablement‑signaal. Het helpt crawlers en LLM‑fetchers jouw prioritaire secties, sitemaps, feeds en datasets te ontdekken. Dit versnelt indexatie en verhoogt de kans op correcte citaties. Zorg voor: Allow/Disallow‑regels, verwijzingen naar sitemap(s), RSS/Atom feeds en belangrijke datasets. Monitor met een llms.txt validator en server‑logs of AI‑fetchers het bestand en de feeds ophalen.

Welke schema‑markup is het belangrijkst voor GEO in 2026?

Zorg eerst voor basisdekking: Organization, WebSite, WebPage, BreadcrumbList. Voeg per use‑case toe: FAQPage/HowTo (informational), Product/Offer/Review (e‑commerce), SoftwareApplication (SaaS), MedicalEntity (zorg), LocalBusiness (lokaal). Valideer met Rich Results Test en meet Schema Coverage Rate (≥ 85%). Combineer schema met bewijsblokken (prijzen, datasets, referenties) om citatiekans en Citation Quality Score te verhogen.

Hoe attribueer ik omzet aan LLM‑kanalen zoals ChatGPT, Gemini en Perplexity?

Gebruik een combinatie van UTM’s (utm_source=chatgpt|perplexity|gemini, utm_medium=ai, utm_campaign=cluster), self‑reported attribution in formulieren (“Waar hoorde je voor het eerst over ons?”) en assisted‑journey analyse. Definieer AI‑Assisted Revenue en LLM‑Sourced Leads als KPI’s. Maak dedicated landingspagina’s met ?src=llm parameters. Rapporteer outcomes maandelijks en koppel ze aan zichtbaarheid (SoA/RIR) per cluster voor causale interpretatie.

Hoe vaak moet ik AI‑vindbaarheid meten en bijwerken?

Voer elke 2 weken panelmetingen uit met identieke promptsets en persona’s, en rapporteer wekelijks Performance/Hygiene KPI’s. Actualiseer content en schema continu; herzie prioriteitsclusters per kwartaal. Houd een changelog bij van modelupdates (ChatGPT/Gemini/Perplexity) en plan her‑baselining na grote releases. Zorg dat llms.txt, sitemaps en feeds up‑to‑date zijn en dat last‑modified headers kloppen voor snelle heropname door LLM’s.

Plan een gesprek

Plan een gesprek