Kennisbank AI

Prompt-onderzoek: ontdek welke vragen klanten stellen aan ChatGPT

Zoekmachines geven steeds vaker LLM-antwoorden. Klanten stellen hun vragen direct aan ChatGPT, Gemini en Perplexity — vaak zonder ooit je website te bezoeken. Met prompt-onderzoek (AI keyword research) ontdek je welke prompts jouw doelgroepen gebruiken, hoe je daarop gevonden wordt en hoe je citaties naar je domein verdient. In dit artikel vertaal je klassieke SEO-denken naar GEO (Generative Engine Optimization): data verzamelen, intentie clusteren, content structureren voor LLM-consumptie en systematisch testen in verschillende modellen. Je krijgt concrete frameworks, voorbeelden uit de Nederlandse praktijk en checklists voor schema-markup, JSON-LD en llms.txt. Doel: meer relevante zichtbaarheid in AI-interfaces én beter geïnformeerde prospects.

1) Van keyword research naar prompt-onderzoek (GEO)

Klassieke keyword research draait om zoekvolumes in SERP’s. Prompt-onderzoek kijkt naar natuurlijke taal in chat: volledige vragen, context, constraints (budget, locatie) en taaktype (uitleg, vergelijking, stappenplan). Je optimaliseert voor hoe LLM’s redeneren en bronnen citeren, niet alleen voor blauwe links. Verschillen in het kort: - Queryvorm: van “fietsenwinkel amsterdam” naar “Welke e-bike winkel in Amsterdam levert binnen 48 uur en monteert aan huis?” - Doel: van klikken naar antwoordkwaliteit en citatiekans. - Rankingfactoren: bronbetrouwbaarheid, structuur, actuele data, entiteiten en lokale context (GEO). Praktijkvoorbeeld: een installateur van zonnepanelen in Utrecht zag dat prompts vaak voorwaarden bevatten (“salderingsregeling 2026”, “rijwoning 30 m² dak”). Hij herstructureerde pagina’s met secties per woningtype, rekenvoorbeelden en dateringen. Resultaat: Perplexity en Gemini citeerden zijn ‘rekenblokken’ in antwoordpagina’s. De kern van GEO: breng je kennis in een vorm die LLM’s kunnen herkennen, verifiëren en citeren. Prompt-onderzoek is het startpunt om te weten welke ‘werkelijke’ vragen leven en welke bewijsvoering nodig is om het beste antwoord te zijn.

2) Datarijke bronnen: waar vind je echte prompts?

Je hebt representatieve vragen nodig, niet alleen zoekvolumes. Combineer deze bronnen: - On-site zoeklogs en 404-queries: ruwe klanttaal, inclusief typefouten en specifieke constraints. - Supporttickets, chattranscripten en call-notes (CRM): veelgestelde ‘hoe’/‘waarom’-vragen; borg AVG-proces en anonimiseer. - Google Search Console: ‘vragen’-queries en long-tail; check ook AI Overviews-verschijningen indien beschikbaar. - Perplexity: bekijk ‘Related’ prompts en bron-citaties bij topantwoorden. - Reddit/Stack Exchange/ Tweakers-fora: probleemformuleringen en aankoopcriteria. - App store reviews en social DM’s: frictiepunten en merktaal. - Concurrentie-analyse: welke pagina’s krijgen frequent citaties in Perplexity/Gemini? Nederlandse case: een Arnhemse payroll-dienst bundelde 2.000 klantvragen uit tickets met GSC-queries en Perplexity-related prompts. Clustering toonde drie dominante intenties: wet- en regelgeving, looncomponenten vergelijken en implementatie-tijdlijnen. Door content hierop te herstructureren, steeg de citatie-rate in Perplexity van 4% naar 19% in 8 weken. Tip: log wekelijks 50-100 nieuwe prompts in een ‘prompt backlog’ met metadata: kanaal, persona, fase, locatie, urgentie.

3) Stappenplan: van ruwe vragen naar LLM-ready content

Gebruik dit 5-stappenframework: 1. Afbakening: definieer ICP’s, persona’s en Jobs To Be Done. Noteer lokale variabelen (GEO), zoals bezorgregio’s of vergunningseisen. 2. Harvest: verzamel 1.000+ ruwe prompts uit meerdere bronnen. Label: vraagtype (how-to, vergelijking, checklist), fase (awareness/consideration/decision), risico (compliance/prijs), entiteiten (merken, locaties). 3. Cluster: groepeer semantisch (LLM-embedding of manueel). Maak ‘prompt families’, bv. “kosten + subsidie + woningtype (provincie)”. 4. Prioriteer met een LLM Impact Score: frequentie (1-5) × businesswaarde (1-5) × antwoordbaarheid (1-5) × citatiekans (1-5). Focus op clusters >50. 5. Produceer ‘answer units’: beknopte, verifieerbare secties met datumstempel, definities, formules en bronverwijzing. Koppel aan een pagina met schema-markup (FAQPage/HowTo/QAPage) en duidelijke ankers. Voorbeeld webwinkel e-bikes: cluster “accu-capaciteit in regen/winter”. Answer unit bevat: formule Wh ÷ 15 = km-indicatie, tabel per temperatuur, garantievoorwaarden en onderhoudstips. Door deze unit apart te markeren met JSON-LD (HowTo + Product) en een expliciete bronsectie (“Bronnen: labtests Q1 2026”), nam de citatiekans toe en pakten LLM’s exacte cijfers op.

4) Testen in ChatGPT, Gemini en Perplexity: zo meet je citaties

Valideer of jouw content het model bereikt en wordt geciteerd. - Prompt-harnas: definieer 20-50 realistische gebruikersprompts per cluster. Varieer locatie, budget, criteria en taalregister. - Modaliteit per LLM: • ChatGPT: test zowel zonder als met ‘Browse’-modus; check of het model je facts herhaalt. • Gemini: let op veiligheidsfilters en regionaal beleid; kijk naar ‘Sources’ in antwoorden. • Perplexity: controleer ‘Citations’ en ‘Related’ prompts; deelbare links maken herhaaltests eenvoudig. - Meetwaarden: coverage (% prompts met je domein als bron), positie (primair/secundair), fact recall (juistheid), time-to-citation (na publicatie). - Variabelen: paginatitel, H1-vraagvorm, datumlabels (“Laatst geactualiseerd: 2026-03”), tabellen met meeteenheden, lokale parameters (GEO), en canonical anchors (#kosten-rijwoning-utrecht). Praktijkcase: een Rotterdamse recruiter publiceerde vergelijkingsblokken “ZZP vs. deta-vast – kosten inclusief werkgeverslasten (2026)”. Met testprompts in Perplexity (“Wat kost een Java developer via… in Rotterdam?”) kwam het domein binnen 10 dagen structureel in de top-3 citaties. Moraal: gestructureerde, dategedreven answer units + testharnas = herhaalbare GEO-resultaten.

5) Structureer voor citatie: schema-markup, JSON-LD en llms.txt

LLM’s prefereren verifieerbare, machineleesbare kennis. Optimaliseer: - Schema-markup (JSON-LD): gebruik Organization, Product, Service, HowTo, FAQPage en QAPage. Markeer concrete answer units (definities, formules, stappen). Vermijd microdata; kies JSON-LD met stabiele @id’s. - Bronblokken: voeg “Bewijs”-secties toe met datum, meetmethode en herkomst (CBS, RVO, interne dataset). LLM’s herkennen expliciete broncontext. - Entiteiten en context: noem locaties, merken, typen, afkortingen en synoniemen. Dit verhoogt entity matching en lokale GEO-relevantie. - URL- en ankerstrategie: 1 vraag = 1 sectie met vaste URL/anchor. Vermijd JS-render-only content. - llms.txt: plaats in de root om duidelijk te maken welke paden wel/niet door LLM’s gebruikt mogen worden. Combineer met robots.txt en een duidelijke licentiepagina. Het is geen garantie, maar helpt bij governance en kan de crawling-focus sturen. Voorbeeld: een Amersfoortse SaaS-leverancier markeerde “API rate limits (2026)” als QAPage met JSON-LD en een Bewijs-sectie. Perplexity begon exact die sectie te citeren bij technische prompts.

6) Prompt-templates per funnel-fase en persona

Gebruik herbruikbare patronen om content te ontwerpen en te testen. - Awareness (oriëntatie): “Leg als [rol] in [locatie] uit wat [concept] is, met voorbeeld voor [context].” Content: definities, simple math, visuals samengevat in tekst. Doel: begrip + entiteiten. - Consideration (vergelijking): “Maak een vergelijkingstabel van [opties] voor [use case] met prijzen in [jaar] en randvoorwaarden.” Content: tabellen, aannames, bronverwijzingen. - Decision (keuze/implementatie): “Welke stappen en kosten voor [oplossing] in [gemeente] inclusief vergunningen en levertijden?” Content: HowTo- en QAPage-structuur, lokale parameters (GEO), checklists. - Post-purchase (optimalisatie): “Troubleshoot [probleem] bij [product] met symptomen en snelle fixes.” Content: faalcodes, stappen, SLA’s. Persona-voorbeeld: MKB-finance manager in Eindhoven zoekt “lease vs. koop labelprinter 2026, TCO 36 mnd”. Jouw pagina levert een vergelijkingstabel (JSON-LD: Product + Offer), aannames, en een rekentool met stabiel anker. LLM’s citeren de TCO-paragraaf en verwijzen naar je bron.

7) KPI’s en iteratie: wat je wél kunt meten

AI-verkeer is deels ‘dark’, maar deze KPI’s zijn bruikbaar: - Citatie-rate per cluster en per LLM (ChatGPT/Gemini/Perplexity). - Fact accuracy: % antwoorden waarin jouw kerngetallen correct worden herhaald. - Time-to-citation: dagen vanaf publicatie/actualisatie tot eerste citatie. - Coverage: aandeel testprompts waarin je domein verschijnt. - Assisted impact: demo-aanvragen of chats die “gezien in ChatGPT/Perplexity” vermelden (voeg dit als veld toe in formulieren). - Lokale zichtbaarheid: aanwezigheid in prompts met GEO-modifiers (stad/regio). Operatie: plan tweewekelijkse sprints. 1) Verzamel nieuwe prompts, 2) update answer units met datum en bewijs, 3) test 20-50 prompts per cluster, 4) log resultaten en pas schema/ankers aan. Case: een Utrechtse opleider voerde elke sprint 10 updates door aan FAQPage’s met datums en bronverwijzingen. Binnen 6 weken steeg coverage in Gemini van 18% naar 33% en nam het aantal inbound citaties uit Perplexity toe. Consistentie en herzieningsdata blijken doorslaggevend.

Veelgestelde vragen

Wat is prompt-onderzoek en hoe verschilt het van klassiek keyword research?

Prompt-onderzoek verzamelt en analyseert natuurlijke vragen die mensen aan LLM’s (zoals ChatGPT, Gemini, Perplexity) stellen. In plaats van korte zoektermen kijk je naar volledige prompts met context, voorwaarden en taaktype. Doel is niet alleen klikken, maar ook als bron geciteerd worden. Je optimaliseert voor antwoordkwaliteit, structuur (schema-markup/JSON-LD), entiteiten en lokale context (GEO), zodat LLM’s jouw content herkennen en gebruiken.

Welke databronnen leveren de beste input voor prompt-onderzoek?

Combineer on-site zoeklogs, supporttickets en calltranscripten (geanonimiseerd), Google Search Console, Perplexity ‘Related’ prompts, communityfora (bijv. Tweakers/Reddit) en concurrent-citaties. Deze mix geeft taal uit de praktijk én intentie. Log elke prompt met metadata (persona, fase, locatie) in een backlog. Zo bouw je representatieve ‘prompt families’ om content op te structureren en te prioriteren.

Hoe vergroot ik de kans op citaties vanuit ChatGPT, Gemini en Perplexity?

Publiceer verifieerbare ‘answer units’ met datumstempel, formules/tabellen, duidelijke definities en bronsecties. Gebruik schema-markup in JSON-LD (FAQPage/HowTo/QAPage, plus Product/Service waar relevant). Zorg voor stabiele anchors, expliciete entiteiten (merken, locaties) en actuele data. Test systematisch met een prompt-harnas en meet coverage en citatie-rate per LLM. Werk frequent bij: LLM’s prefereren recente, betrouwbare bronnen.

Wat is llms.txt en heeft het zin om dit te implementeren?

llms.txt is een optionele richtlijnfile in je domeinroot waarmee je aangeeft welke paden LLM’s mogen gebruiken voor trainings- of antwoorddoeleinden. Het biedt geen harde garantie, maar helpt bij governance en kan crawlfocus en compliance ondersteunen, samen met robots.txt en een licentiepagina. Voor GEO is het nuttig om expliciet groene zones (toegestaan) en rode zones (uitgesloten) te markeren, inclusief documentatie- en kennisbankpaden.

Hoe meet ik ROI van prompt-onderzoek als chatverkeer weinig referraldata geeft?

Koppel leading KPI’s (coverage, citatie-rate, time-to-citation, fact accuracy) aan lagging KPI’s (demo-aanvragen, ingevulde ‘gezien in ChatGPT/Perplexity’-velden, stijging merkzoekopdrachten). Log sprint-iteraties en correlaties in dashboards. Gebruik testprompts als vaste steekproef voor trendmeting. ROI ontstaat door hogere zichtbaarheid in LLM-antwoorden, kortere koopcycli en minder supportbelasting door betere post-purchase Q&A’s.

Welke contentformaten werken het best voor LLM-consumptie?

Formaten met duidelijke structuur en verifieerbaarheid: HowTo’s met stappen en voorwaarden, QAPage’s met één vraag-antwoord per sectie, FAQPage’s voor clusters, vergelijkingstabellen met aannames en datums, en ‘Bewijs’-blokken met bronnen. Gebruik JSON-LD voor entiteiten en anchors, benoem GEO-parameters en houd content kort-cyclisch actueel. Deze vorm vergemakkelijkt citatie door LLM’s en verhoogt fact recall in antwoorden.

Plan een gesprek

Plan een gesprek