Zo bepaalt ChatGPT welke bronnen het citeert
Hoe ChatGPT bronnen kiest is niet volledig openbaar, maar patronen zijn duidelijk. Het model combineert drie lagen: (1) voorgetrainde kennis, (2) retrieval (actuele webbronnen) en (3) ranking/justificatie (welke URL verdient de citatie). Signalen die daarbij zwaar wegen: - Crawlbaarheid en toegankelijkheid (robots, laadbaarheid, geen paywall). - Duidelijke entiteiten: organisatie, persoon, product met consistente namen. - Extracteerbare feiten: cijfers, definities, stappenplannen, FAQ-blokken. - Structuur en schema-markup (JSON-LD) die het onderwerp ontleedbaar maakt. - Consensus: meerdere onafhankelijke bronnen onderschrijven dezelfde claim. - Actualiteit: datum, updates, changelogs. - Betrouwbaarheid en veiligheid: geen misinformatie, bronverwijzingen, auteur. - Relevantie: taal (NL), regio (NL), sector (bijv. zorg), intentie. Voorbeeld: een Utrechtse webwinkel met een heldere ‘maatadvies’-pagina die Product-, FAQPage- en Organization-markup gebruikt, met meetbare claims en bronnen, wordt vaker opgepikt in antwoorden over ‘welke maat valt merk X groot/klein?’ dan een algemene blog zonder structuur. De les: maak je bewijs makkelijk vindbaar, parsbaar en verifieerbaar.
Het GEO-framework: 7 pijlers voor LLM-citaties
Gebruik dit GEO-framework om je kans op citatie te maximaliseren: 1) Crawl & access: open robots, snelle TTFB, no-error sitemaps, hreflang NL. 2) Entiteit & identiteit: consistente naam, adres, KvK, logo, social-profielen, Wikidata/Knowledge Panel waar mogelijk. 3) Topical authority: diepe hubpagina’s per onderwerp met interne links en bronnen. 4) Evidence blocks: tabel met cijfers, Q&A, definities, stappenplannen, referenties. 5) Structuur & markup: JSON-LD (Article, FAQPage, HowTo, Product, Organization, MedicalEntity/LocalBusiness waar passend), breadcrumbs en datum. 6) Consensus & corroboration: link naar onafhankelijke bronnen die je claim steunen; publiceer methodologie. 7) Freshness & onderhoud: changelog, update-tags, herpubliceer bij veranderingen. Werkwijze in 5 stappen: kies 10 kernvragen waarop je geciteerd wilt worden; bouw per vraag één hubpagina; voeg evidence blocks en schema-markup toe; verkrijg corroboratie (branchevereniging, overheid, universiteit); monitor citaties in Perplexity/ChatGPT via testprompts en analytics. Nederlandse praktijk: een zorginstelling die ‘wachttijd GGZ per regio’ met bronverwijzingen en JSON-LD publiceert, krijgt sneller citaties in zorggerelateerde prompts.
Techniek die telt: schema-markup, JSON-LD en llms.txt
Technische duidelijkheid vergroot je citatiekans. Checklist: - JSON-LD: gebruik Organization (naam, logo, contact), WebSite (searchAction), WebPage/Article (headline, datePublished/Modified, author, citation), FAQPage/HowTo voor vraag- en stapcontent, Product (gtin/sku/brand), Review/AggregateRating waar relevant. Voeg ‘sameAs’ naar je officiële profielen toe. - Evidence in HTML: korte alinea’s, H2/H3’s, tabellen en opsommingen. LLM’s extraheren beter uit compacte blokken. - llms.txt: publiceer een llms.txt met crawlbeleid en prioriteiten voor AI-agents (toegestane paden, rate limits, contact). Steeds meer crawlers respecteren zo’n bestand naast robots.txt. - Sitemaps: aparte news/faq/video sitemaps indien van toepassing; update-frequentie verdrievoudigt de kans op snelle opname. - Headers & caching: duidelijke 200-status, last-modified/ETag, snelle CDN. - Toegang: vermijd interstitials en script-gebonden content die zonder JS niet rendert. - Canonicals en hreflang: voorkom duplicaten, geef NL-varianten prioriteit. Praktijk: een Rotterdamse B2B-fabrikant die ‘technische datasheets’ als HTML-tabellen + JSON-LD (Product + PropertyValue) aanbiedt, wordt door Perplexity en ChatGPT vaker geciteerd bij specs-vragen dan concurrenten met PDF-only.
Schrijf voor citatie: claim–evidence–context
Formuleer content zodat een LLM je veilig kan aanhalen. - Claim: één duidelijke, stand-alone bewering per alinea. Voorbeeld: “Het retourpercentage in NL-mode e-commerce ligt tussen 30–40% (Thuiswinkel, 2024).” - Evidence: directe verwijzing (bron, methodologie, datum), liefst met ‘citation’ in JSON-LD en gelinkte referenties eronder. - Context: nuanceer randvoorwaarden (segment, periode, steekproef) en geef definities. - Q&A-blokken: beantwoord de exacte vraag in 2–4 zinnen; dat zijn ideale citatiefragmenten. - Tabellen en bullets: maak getallen en stappen machine-leesbaar. - Versies: houd een changelog onderaan de pagina; LLM’s prefereren actuele claims. - Lokalisatie: benoem ‘Nederland’, munteenheden (EUR), en wet- of branchenormen. Voorbeeld: een verzekeraar die “Eigen risico zorgverzekering 2026: €XXX” als claim plaatst, onderbouwt met Rijksoverheid-link, en een Q&A-blok “Wat telt mee voor het eigen risico?” toevoegt, ziet vaker directe citaties in NL-prompts dan een algemene blog zonder concrete cijfers.
Bouw autoriteit: entiteiten, consensus en derden
LLM’s zoeken corroboratie: staat jouw claim ook elders? Zo bouw je autoriteit: - Entiteitsdekking: zorg voor een consistente Organization- en Person-presentie (site, LinkedIn, KvK, Wikipedia/Wikidata waar passend). Claim je Knowledge Panel indien beschikbaar. - Third-party verankering: publiceer whitepapers met DOI, plaats data op GitHub of Zenodo, vraag brancheverenigingen (bijv. INretail, Thuiswinkel.org, NVZ) om te linken. - Pers & overheid: maak een perspagina met cijfers, methodologie en rechten. Dien factsheets in bij gemeenten/provincies als open data. - Reviews & citaties: verzamel vakpublicaties die naar je onderzoek verwijzen; vermeld ‘as cited in’. - Lokale signalen: LocalBusiness-markup, Google Business Profile met categorie en openingstijden; adressen in footer. Case: een Amersfoorts energie-adviesbureau dat regionale verbruiksdata publiceert met bronbestanden + JSON-LD, én geciteerd wordt door een provinciepagina, ziet zijn cijfers terugkomen in ChatGPT-antwoorden over “stroomverbruik Utrecht per huishouden” — inclusief citatie.
Per platform: ChatGPT, Gemini en Perplexity
De mechaniek verschilt per platform (details zijn niet volledig publiek, onderstaande is gebaseerd op documentatie en observatie): - ChatGPT: combineert modelkennis met web-retrieval (via zoekindex) en toont citaties bij gegronde antwoorden. Het geeft de voorkeur aan recente, toegankelijke NL-bronnen met duidelijke structuur, sterke entiteitsdata en consensus. FAQ/HowTo/Article-markup helpt, net als evidence-tabellen. - Gemini: leunt op Google Search-signalen en Knowledge Graph-entiteiten. Corroboratie en E‑E‑A‑T-achtige indicatoren wegen zwaar. Structured data (FAQPage/HowTo/Organization) en autoritatieve corroboratie vergroten zichtbaarheid in AI-antwoorden. - Perplexity: citeert standaard en kiest bronnen met hoge precisie en recency. Korte, feitelijke blokken, datasets en PDF+HTML-varianten scoren. Optimaliseer dus voor: structuur, NL-relevantie, autoriteit en snelle updates. Test maandelijks met vaste prompts en log veranderingen in citaties.
Meten en bijsturen: van prompt tot citatie
Maak citatiegroei meetbaar met dit raamwerk: - Funnel: Prompts -> Retrieval (vermeldingen zonder klik) -> Citatie -> Click-through -> Conversie. Noteer per thema je baseline. - Tracking: zet serverlogs en bot-analytics op (AI-user agents), maak een ‘/evidence’ tag in URLs voor blokken die je vaak citeert. - Testset: onderhoud 50 vaste NL-prompts per thema. Meet per maand: aantal citaties, positie tussen bronnen, correctheid van weergave. - A/B-content: varieer formuleringen van claims/Q&A’s en meet effecten op citatiefrequentie. - Alerting: stel meldingen in via Perplexity Collections, Google Alerts en Mention. 30-60-90 plan: 30 dagen voor technical hygiene (llms.txt, sitemaps, JSON-LD, entiteitsopschoning). 60 dagen voor content-hubs met evidence blocks en corroboraties. 90 dagen voor meetprogramma en iteraties. Voor Nederlandse sites levert dit doorgaans de eerste stabiele citaties in kwartaal één op – en schaalbare groei daarna.
Veelgestelde vragen
Welke factoren bepalen hoe ChatGPT bronnen kiest?
ChatGPT weegt vooral: toegankelijkheid (robots, laadsnelheid), duidelijke entiteiten (Organization/Person/Product), extracteerbare feiten (Q&A, tabellen), schema‑markup (JSON‑LD), consensus met onafhankelijke bronnen, actualiteit (datum/changelog), betrouwbaarheid (auteur, bronverwijzingen) en NL‑relevantie (taal, regio). Bronnen die beweringen compact onderbouwen en technisch schoon zijn, worden vaker opgehaald én geciteerd in het antwoord.
Hoe vergroot ik snel mijn kans op citatie door ChatGPT?
Richt één pagina per vraag in met: 1 duidelijke claim, 2–3 bewijslinks, een Q&A‑blok van 2–4 zinnen, een tabel of bulletlijst, en JSON‑LD (Article + FAQPage + Organization). Publiceer updates met datum, leg methodologie uit en link naar een onafhankelijke corroboratie (bijv. branchevereniging of overheid). Zorg voor toegankelijke HTML (geen paywall) en een leesbare URL. Test maandelijks met vaste prompts.
Werkt schema‑markup echt voor LLM‑citaties?
Ja, omdat schema‑markup (in JSON‑LD) entiteiten, relaties en feiten expliciet maakt. Gebruik minimaal Organization, WebPage/Article (met datePublished/Modified, author, citation), en waar passend FAQPage/HowTo/Product/LocalBusiness. Markup vervangt geen inhoud; het vergroot de kans dat een LLM je bewering veilig kan extraheren en verifiëren. Combineer markup altijd met evidence‑blokken en bronverwijzingen in de tekst.
Wat is llms.txt en hoe gebruik ik het?
llms.txt is een aanvullend crawlbeleid voor AI‑agents naast robots.txt. Je geeft er paden, contact, rate‑limits en voorkeuren voor datasets/evidence aan. Plaats het in de root (bijv. /llms.txt) en verwijs naar sitemaps en prioritaire secties (zoals /onderzoek, /faq). Steeds meer AI‑crawlers respecteren llms.txt. Het garandeert geen opname, maar helpt modellen efficiënt de juiste, citeerbare content te vinden.
Hoe snel nemen LLM’s nieuwe content over?
Dat varieert per platform en crawl‑frequentie. Met een schone technische basis (sitemaps, last‑modified, snelle TTFB), duidelijke JSON‑LD en interne links zien we vaak eerste opnames binnen dagen tot enkele weken. Versnellers: nieuws‑/updatesecties, open datasets, en corroboratie door een derde partij. Vertragers: paywalls, zware JS‑rendering, duplicated content en ontbrekende datums of methodologie.
Hoe meet ik of AI‑modellen mijn merk correct weergeven?
Leg een vaste testset aan met 50 NL‑prompts over jouw thema’s en merk. Log maandelijks: 1) wordt je merk genoemd, 2) wordt je URL geciteerd, 3) zijn cijfers/claims correct, 4) welke concurrenten worden genoemd. Combineer dit met serverlogs (AI‑user agents), Perplexity‑collecties en handmatige steekproeven. Corrigeer onjuistheden via eigen pagina’s met duidelijke evidence, JSON‑LD en, waar kan, externe corroboratie.
Plan een gesprek
Plan een gesprek