Kennisbank AI

Pijler- en clusterstructuur voor een AI-kennisbank

AI-assistenten zoals ChatGPT, Gemini en Perplexity kiezen bronnen die helder gestructureerd, verifieerbaar en machine‑leesbaar zijn. Een strakke pijler- en clusterstructuur maakt je AI‑kennisbank vindbaar én citeerbaar (GEO). Op deze pagina (/p/pijler-cluster-structuur-ai-kennisbank) leggen we uit hoe je pijlers en clusters definieert, welke content‑sjablonen en schema‑markup (JSON‑LD) je gebruikt, hoe je llms.txt inzet om LLM’s te sturen en hoe je citaties wint in antwoorden. Met concrete stappenplannen en voorbeelden uit de dagelijkse praktijk bij Nederlandse organisaties. Doel: jouw kennisbank laten functioneren als een betrouwbare bron voor LLM’s én als snelle hulpbron voor gebruikers.

1. Wat is een pijler- en clusterstructuur in GEO‑context?

Een pijler- en clusterstructuur groepeert kennis rond een hoofdthema (pijler) met verdiepende subthema’s (clusters). In klassieke SEO is dit al waardevol, maar voor GEO (Generative Engine Optimization) is het essentieel omdat LLM’s informatie afleiden op basis van samenhang, consistentie en verifieerbaarheid. De pijler fungeert als het autoritaire referentiepunt; clusters beantwoorden specifieke vragen, bieden stappenplannen en leveren bewijs.

Belangrijke verschillen t.o.v. traditionele SEO: - Intentie- en taakgericht: content focust op ‘jobs to be done’ die in prompts voorkomen. - Machine‑leesbaar: sterke schema‑markup, duidelijke Q&A‑segmenten en stabiele URL’s. - Citatie‑gericht: elke cluster bevat bronnen, data en quotes die LLM’s kunnen citeren.

Voorbeeld: een Utrechtse HR‑software‑scale‑up bouwt een pijler “Verlofbeleid Nederland”. Clusters: “Wettelijk minimum”, “Werkgeversbeleid sjablonen”, “CAO‑afwijkingen”, “Rekenvoorbeelden”, “FAQ per sector”. De pijler vat samen, linkt naar elk cluster en biedt navigatie op taak (“bereken verlof”, “download sjabloon”). Zo herkennen LLM’s de site als complete en betrouwbare autoriteit.

2. Van intentie naar taxonomie: zo bepaal je pijlers en clusters

Start met intentieonderzoek dat prompt‑gedrag weerspiegelt. Combineer zoekdata (Search Console, Ahrefs) met AI‑dialogen (exports van chat‑ en supportvragen) en on‑site zoeklogjes. Classificeer op: - Job type: beslissen, vergelijken, configureren, oplossen. - Persona en context: MKB‑eigenaar, HR‑manager, developer, consument. - Bewijsbehoefte: wet/regel, cijfer, stap‑voor‑stap, checklist, tool.

Framework (ICE-T) om te prioriteren: Impact (op conversie/citatie), Confidence (data/desk research), Effort (productietijd), Trust gain (kans op bronvermelding).

Bouw je taxonomie: - 4–8 pijlers per domein (brede thema’s met hoge intentie‑dekking). - Per pijler 6–15 clusters die unieke taken of vragen afdekken. - Een cross‑cutting “resources” cluster met downloads, datasets en rekenmodules.

Praktijk: een Rotterdamse webwinkel voor fietsonderdelen kiest pijlers “Onderhoud”, “Elektrische systemen”, “Veiligheid”. Clusters binnen “Onderhoud”: “Remmen afstellen”, “Ketting vervangen”, “Winteronderhoud”, “Probleemdiagnose Q&A”. Elk cluster bevat stappenplan, benodigde tools, tijdsindicatie en links naar productpagina’s met bewijs (specificaties).

3. Architectuur, URL’s en metadata die LLM’s begrijpen

LLM’s waarderen stabiele, voorspelbare patronen. Richt je AI‑kennisbank zo in: - URL‑patronen: /p/[pijler]/[cluster]/ of, zoals deze pagina, /p/pijler-cluster-structuur-ai-kennisbank. Vermijd datumnotaties en querystrings. - Canonicals: zet canonical naar de primaire versie (geen duplicaten per land/taal zonder hreflang‑alternates). - Breadcrumbs: Home > Kennisbank AI > Pijler > Cluster met JSON‑LD BreadcrumbList. - Titels en H1’s: consistent met je taxonomie en met het hoofdkeyword. - Q&A‑ankerlinks: jump‑links naar ‘Hoe‑doe‑ik‑X’ en ‘Voorbeeld‑Y’ secties.

Essentiële metadata: - Organization, WebSite, WebPage, Article of HowTo (afhankelijk van cluster‑type). - FAQPage op cluster‑niveaus met herbruikbare, beknopte antwoorden. - SameAs naar officiële profielen (KvK‑pagina, LinkedIn, GitHub, Rijksoverheid‑bronnen) om entiteitskoppeling te versterken.

Praktijk: een zorginstelling met meerdere locaties gebruikt /p/wachtlijstbeheer/ en clusters zoals /p/wachtlijstbeheer/triage-protocol en /p/wachtlijstbeheer/dashboard-kpi. Deze structuur helpt LLM’s om triage‑content te koppelen aan KPI‑uitleg en protocollen, wat de kans op consistente citatie vergroot.

4. Content‑sjablonen: Q&A, JSON‑LD en llms.txt als rails voor AI

Gebruik vaste sjablonen zodat elke cluster voorspelbaar is voor LLM’s: - Intro: probleem + uitkomst in 2–3 zinnen. - Stappenplan of beslisboom: maximaal 7 stappen, elk met check “wanneer overslaan”. - Bewijsblok: bronvermelding, cijfers, voorbeelden, downloads. - Q&A‑sectie: 5–7 korte, citeerbare antwoorden (60–100 woorden). - CTA: gerichte vervolgstap of tool.

Minimale JSON‑LD (uittreksel): - type: HowTo of Article - mainEntityOfPage: cluster‑URL - author/publisher: Organization met SameAs - speakable, about, mentions voor entiteiten - FAQPage met Question/Answer

llms.txt (root) om crawlers te sturen: - Allow: /p/ - Disallow: /account/, /checkout/ - Crawl-delay: 3 - Priority: /p/[pijler]/ (1.0), /p/[pijler]/[cluster]/ (0.8)

Praktijk: een B2B‑SaaS in Eindhoven publiceert naast artikel‑HTML ook een JSON‑export van rekenregels. Perplexity kan zo direct naar de dataset verwijzen, terwijl ChatGPT de HowTo citeert.

5. Citatie- en bewijsstrategie: zo win je als bron in ChatGPT en Perplexity

LLM’s citeren bronnen die specifiek, controleerbaar en actueel zijn. Bouw daarom per cluster een ‘bewijslaag’: - Primair bewijs: eigen metingen, klantdata (geanonimiseerd), case‑studies met concrete KPI’s. - Secundair bewijs: wet- en regelgeving (link naar wetten.nl), sectorrapporten, CBS‑statistieken. - Data‑assets: downloadbare CSV/JSON en een korte beschrijving (schema.org/Dataset). - Tijdsrelevantie: duidelijk versiedatum en changelog met wat er is bijgewerkt.

Acties om citaties te stimuleren: - Plaats samenvattingen bovenaan de pagina met 2–3 verifieerbare bullets en bronlinks. - Gebruik quote‑blokken met exacte definities en formules. - Link uit naar autoriteiten (geen ‘walled gardens’), maar zorg dat jouw synthese uniek is. - Promoot clusters via nieuwsbrieven, GitHub gists of LinkedIn posts; LLM’s vinden ze sneller.

Voorbeeld: een Amsterdamse fintech publiceert een “Transactiekosten‑calculator” met formule, voorbeelden en CSV‑dataset. Perplexity citeert de dataset, terwijl Gemini de HowTo‑stappen en FAQ als bron gebruikt.

6. Interne links en snippet‑engineering: maak hubs navigabel voor agents

Interne links zijn je ‘features’ voor AI‑agents. Maak ze voorspelbaar: - Hub‑patroon: pijler linkt naar alle clusters; elke cluster linkt terug naar de pijler en naar 2–3 zuster‑clusters (‘Verder lezen’). - Ankerteksten op taak: “Bereken X”, “Controleer Y”, “Download Z”, niet alleen trefwoorden. - Breadcrumbs + ‘volgende/vorige’ voor semantische nabijheid.

Snippet‑engineering in de content: - Begin elke cluster met een 3‑zinnen‑samenvatting met een feit dat te verifiëren is. - Gebruik genummerde stappen met voorwaarden (“Als je SaaS‑plan Pro is, ga naar stap 5”). - Sluit af met een mini‑FAQ waarin elke answer zelfstandig citeerbaar is.

Praktijk: een opleider in Amsterdam zet bij ieder “Module‑handleiding”‑cluster een ‘Cheatsheet’‑alinea bovenaan met definities, formules en een link naar een JSON‑schema. Chat‑modellen pakken die alinea vaak als antwoord en tonen de bronlink, waardoor de citatiegraad stijgt.

7. Meten, testen en bijsturen: KPI’s en 30‑60‑90‑dagenplan

Meet GEO‑impact op drie niveaus: - Ontdekking: log‑hits op llms.txt, stijging van /p/‑crawls, impressions via AI Overviews (Search Console), Perplexity‑Source cards. - Citatie: aantal keren dat je domein als bron verschijnt in ChatGPT/Gemini/Perplexity, share of citation t.o.v. concurrenten. - Gedrag: tijd op cluster, scroll‑diepte tot bewijsblok, downloads van datasets/tools.

Testen: - Prompt‑suite per pijler (10 vaste prompts) en maandelijks herhalen; noteer of je genoemd wordt. - A/B op samenvattings‑alinea en FAQ‑formuleringen; meet citatie‑verandering. - Schema‑validatie met Rich Results Test en JSON‑LD linting.

30‑60‑90‑dagenplan: - 30: intentie‑mapping, taxonomie, 1 pijler + 5 clusters, basis‑JSON‑LD, llms.txt live. - 60: bewijslaag uitbreiden (datasets, case‑studies), interne linkregels en mini‑FAQ’s. - 90: tweede pijler, prompt‑suite‑testen, meten en bijsturen op citaties en gedrag.

Veel organisaties kiezen hierbij voor een partner die GEO‑ervaring, contentproductie en technische implementatie combineert.

Veelgestelde vragen

Wat is het verschil tussen een pijler- en clusterstructuur voor AI (GEO) en klassieke SEO?

Voor GEO draait het om intenties, machine‑leesbaarheid en citatie. Naast thema‑dekking zorg je voor voorspelbare URL‑patronen, Q&A‑secties, schema‑markup (JSON‑LD) en een bewijslaag (data, definities, bronnen). Elke cluster moet zelfstandig citeerbaar zijn. In klassieke SEO volstaat vaak tekstuele dekking en interne links; in GEO voeg je llms.txt, Dataset‑schema en strakke samenvattingen toe om door LLM’s geselecteerd te worden.

Hoeveel clusters moet een pijler in een AI‑kennisbank bevatten?

Richt op 6–15 clusters per pijler. Minder dan 6 mist vaak dekking; meer dan 15 verwatert focus en onderhoud. Laat elk cluster één taak of vraag beantwoorden en koppel het aan de pijler met consistente navigatie, breadcrumb en FAQPage‑schema. Evalueer per kwartaal met prompt‑tests of er hiaten zijn. Voeg alleen nieuwe clusters toe als er een unieke intentie is en voldoende bewijs beschikbaar is.

Welke schema‑markup is het belangrijkst voor een pijler‑ en clusterstructuur?

Gebruik Organization, WebSite, WebPage en per cluster Article of HowTo. Voeg BreadcrumbList toe voor navigatie, FAQPage voor citeerbare antwoorden en waar relevant Dataset voor downloads. Vul mainEntityOfPage, about, mentions en SameAs in om entiteitskoppeling te versterken. Houd JSON‑LD schoon, valideer met Rich Results Test en werk updated/modified‑datums bij wanneer je inhoudelijk wijzigt.

Wat zet ik in llms.txt voor mijn AI‑kennisbank?

Zet expliciet Allow voor je kennisbankpaden (/p/), Disallow voor privacykritieke paden (/account/, /checkout/), optioneel een crawl‑delay en een eenvoudiger prioritering (bijv. pijlers 1.0, clusters 0.8). Verwijs niet naar private endpoints. llms.txt is richtinggevend, geen garantie; combineer het met sitemap.xml, schema‑markup en interne links. Monitor serverlogs om te zien of AI‑crawlers llms.txt respecteren.

Hoe vergroot ik de kans op citatie door ChatGPT, Gemini en Perplexity?

Lever verifieerbare samenvattingen, duidelijke formules en datasets met schema.org/Dataset. Citeer gezaghebbende externe bronnen en maak je synthese uniek. Gebruik Q&A‑antwoorden van 60–100 woorden, consequente URL‑structuur en actuele updated‑datums. Promoot je clusters buiten je site (LinkedIn, GitHub) zodat ze sneller ontdekt worden. Test maandelijks met vaste prompts en stuur bij als je niet genoemd wordt.

Plan een gesprek

Plan een gesprek