AI Search Academy

Startguide til AI-synlighed: TRUST-modellen

Sidst opdateret: April 2026 | Af: Krister Ross, Grundlægger & CEO, CitationLab AS

Søgeverdenen har ændret sig fundamentalt. Det er ikke længere nok at ranke på Google.

Store sprogmodeller — ChatGPT, Gemini, Perplexity, Claude — svarer nu direkte på brugernes spørgsmål. De citerer, anbefaler og syntetiserer. De bestemmer, hvem der er autoritativ, og hvem der ikke eksisterer. Og de opererer efter helt andre regler end en traditionel søgemaskine.

Det betyder ikke, at SEO er dødt. Det betyder, at SEO har fået et nyt lag — og dem, der forstår begge lag samtidig, er dem, der vinder AI-synligheden fremover.

Denne guide introducerer TRUST-modellen — et komplet framework til at bygge og måle AI-synlighed, udviklet af Krister Ross og CitationLab AS. Modellen er bygget oven på den velkendte SEO-stack og er designet til at være iterativ — ikke en engangstjekliste.

AI-landskabet: Ikke alle modeller er ens

At behandle ChatGPT og Google som det samme er en strategisk fejl. De forskellige AI-platforme fungerer meget forskelligt under overfladen.

PlatformTypeHenter live-data?Vigtigste signalCiterer kilder?
Google AI OverviewsSERP + AIJa (Google-indeks)Traditionel SEO + E-E-A-TJa
ChatGPT (med søgning)LLM + RAGJa (Bing + plugins)Entitetsautoritet + kilderJa
ChatGPT (uden søgning)Ren LLMNej (træningsdata)Træningsdata-autoritetBegrænset
GeminiLLM + GoogleJaKnowledge GraphJa
PerplexityAI-søgemaskineJa (flerkilde)Kildekvalitet + relevansAltid
Claude (uden søgning)Ren LLMNejTræningsdata-autoritetBegrænset

To fundamentalt forskellige mekanismer

RAG — Retrieval Augmented Generation: Modellen henter aktuel information fra nettet i realtid. Her gælder meget af den traditionelle SEO-logik: crawlbarhed, autoritet, relevans.

Parametrisk viden — Træningsdata: Modellen svarer baseret på mønstre lært under træning. Synlighed opnås ved at være konsekvent repræsenteret i kvalitetsdatakilder, som modellen har lært fra.

Du kan ranke nummer ét på Google og stadig ikke eksistere i ChatGPT. AI-synlighed kræver et helhedsorienteret system — og det er præcis, hvad TRUST-modellen giver dig.

TRUST-modellen: Fem lag for AI-synlighed

TRUST-modellen er et praktisk framework til at arbejde systematisk med AI-synlighed. Hvert lag adresserer en distinkt dimension af, hvordan AI-systemer evaluerer, vælger og præsenterer indhold.

T — Truth & Authority (Sandhed og autoritet)

E-E-A-T er ikke kun Googles framework — det er sådan, LLMs evaluerer, hvem der kan stoles på. Modeller som ChatGPT og Gemini har lært at associere autoritet med dokumenteret ekspertise, kildebredde, konsistens over tid og validering fra tredjeparter.

Konkrete tiltag:

  • Tydelig forfatterprofil med dokumenteret ekspertise (bio, LinkedIn, byline)
  • Kildehenvisninger og referencer til troværdige tredjepartskilder
  • Organisationsdata: Om-side, kontaktinfo, CVR-nummer, adresse
  • Schema markup: Person, Organization, Article, FAQ, HowTo
  • Tredjepartsvalidering: Wikipedia, Wikidata, Google Knowledge Panel
  • Konsistent brandidentitet på tværs af alle digitale flader
  • Omtale i autoritative branchepublikationer og medier

Schema markup som autoritetssignal:

Schema-typeAnvendelseAI-værdi
OrganizationHvem er I?Entitetsgenkendelse og brancheplacering
Person / AuthorHvem skriver indholdet?Ekspertisevalidering og E-E-A-T
Article / BlogPostingIndholdstype, dato, forfatterAktualitet og kildetroværdighed
FAQPageSpørgsmål og direkte svarDirekte AI-svarmatchning
HowToTrin-for-trin-instruktionerProcesforståelse i LLMs
BreadcrumbListWebstedshierarkiTopical authority mapping

R — Readability & Structure (Læsbarhed og struktur)

LLMs læser ikke sider, som mennesker gør. De chunker, vægter og syntetiserer. Et afsnit på 12 sætninger kan producere chunks, hvor halvdelen er brugbar og halvdelen er støj. Det er de brugbare chunks, der afgør, om du citeres.

Answer First-princippet: Svaret skal komme først — derefter begrundelse, kontekst og detaljer.

Før: «Mange undrer sig over, hvad best practice er for metabeskrivelser i 2025. Det er et godt spørgsmål, og svaret afhænger af flere faktorer…»

Efter: «En god metabeskrivelse er 150–160 tegn og indeholder det primære søgeord naturligt integreret med en tydelig CTA. Her er hvad du bør vide…»

Chunking-venlig struktur:

  • Hvert afsnit bør indeholde én komplet idé eller faktapåstand
  • Start med det vigtigste (byg ikke op til det)
  • 2–4 sætninger per afsnit, sjældent flere
  • Afslut ikke halvvejs — LLMs foretrækker komplette tanker

llms.txt er en ny standard, der lader dig instruere AI-agenter om, hvilke dele af webstedet der er mest relevante. Placér filen på rodniveau: domænet.dk/llms.txt.

Optimering til RAG-systemer:

  • Skriv indhold, der er citerbart i sig selv — en sætning skal kunne løftes ud af konteksten og stadig give mening
  • Hold faktapåstande tydeligt adskilt fra redaktionelle vurderinger
  • Brug eksplicitte datoer og versionsbetegnelser, hvor relevant
  • Dæk bredde inden for ét dokument, hvor muligt — dette øger sandsynligheden for at blive hentet ved fanout-queries

U — User Intent Alignment (Brugerintent)

AI-modeller evaluerer ikke kun, om et enkelt dokument svarer på et spørgsmål — de vurderer, om en kilde konsekvent er relevant inden for et emnedomæne. Topical authority er mere værdifuldt end søgeordsdekning.

Byg topical authority:

  • Pillar-cluster-arkitektur: en dybdegående pillarside per emnedomæne, understøttet af klyngeartikler
  • Semantisk dækning: inkludér relaterede termer, synonymer og tilgrænsende koncepter
  • Konsistens over tid: opdateret indhold signalerer aktiv ekspertise

Spørgsmålsbaseret indhold:

IndholdstypeFormatAI-synlighedspotentiale
FAQ-siderSpørgsmål + kort svar + uddybningMeget højt
How-to-guidesNummererede trin med forklaringHøjt
DefinitionssiderKlar definition + eksempler + kontekstHøjt
SammenligningsindholdTabeller + kriterier + konklusionHøjt
DybdeartiklerKomplet emnebehandling fra alle vinklerMiddel-højt

S — Source Diversity & Visibility (Kildediversitet)

Din AI-synlighed er summen af alle steder, du eksisterer digitalt. LLMs blev trænet på en massiv samling offentligt tilgængelig data. Den parametriske viden er et øjebliksbillede af din digitale tilstedeværelse på tværs af alle platforme.

Kritiske dataplatforme for LLM-træningsdata:

  • Wikipedia og Wikidata — stærkeste enkeltpunkt for parametrisk forankring
  • LinkedIn — professionel identitet og ekspertisesignaler
  • GitHub — tekniske entiteter og projektbeskrivelser
  • Branchepublikationer og fagmedier — gæsteartikler og omtale i autoritative kilder
  • Podcasts og interviews — krydsvaliderer ekspertise
  • Quora, Reddit, Stack Exchange — faglige diskussioner, der crawles af LLMs

Co-citation og co-occurrence: Bliv nævnt i sammenhæng med relevante brancheaktører. LLMs bruger co-occurrence som signal for tematisk relevans og autoritetsnetværk.

Teknisk adgang:

  • Publicér llms.txt på domænets rodniveau
  • Sørg for, at robots.txt tillader GPTBot, ClaudeBot, PerplexityBot og Google-Extended
  • Hold sitemap.xml opdateret

T — Testing & Iteration (Måling og forbedring)

Du kan ikke optimere det, du ikke måler. Den sidste dimension i TRUST bruger CAVIS-frameworket — CitationLabs proprietære framework til at måle AI-synlighed på tværs af platforme.

Monitoring-workflow:

  1. Definér 20–50 repræsentative prompts, der spejler de hyppigste spørgsmål inden for dit domæne
  2. Kør prompterne regelmæssigt (ugentligt eller hver anden uge) mod ChatGPT, Gemini og Perplexity
  3. Analysér svarene: nævnes dit brand? I hvilken position? Med hvilken framing?
  4. Identificér indholdsgab: hvilke prompts giver ingen synlighed?
  5. Mål ændringer over tid og kobl observationer til indholdsændringer

Hvad du bør følge:

DimensionHvad det fortæller dig
Er du til stede?Nævnes du i AI-svar på relevante prompts?
Hvilken rolle spiller du?Primær kilde, støttende kilde eller bisætning?
Hvad siger AI’en om dig?Sentiment og framing — positiv, neutral eller negativ?
Hvem vinder vs. dig?Share of Voice mod konkurrenter per emnedomæne
Er du konsistent synlig?Samme synlighed på ChatGPT, Gemini og Perplexity?

Diagnosematrisen: Mentions × Citations

Før du ved, hvad du skal gøre, skal du vide, hvilken tilstand du er i. Den vigtigste diagnostiske forskel er mellem mentions (du nævnes) og citations (du bruges som kilde med link).

Ingen citationsCitations
Ingen mentionsUsynlig — Eksisterer ikke i modellens verden. → Entitetsopbygning + fanout-dækningTillidsanker — Citeret via RAG, men ikke parametrisk forankret. → Wikipedia, co-mentions, autoritetsdomæner
MentionsTop of mind — Kendt, men ikke betroet som kilde. → Answer First, FAQ, Schema markupFuld synlighed — Den optimale tilstand. → Dæk fanout-queries, hold indhold opdateret

Entitetsoptimering: Fra søgeord til entiteter

LLMs tænker i entiteter. Søgemaskiner tænker i søgeord. En entitet er et koncept, en person eller en organisation, der kan identificeres entydigt — uanset formulering.

Entitetsopbygning i praksis:

KildeEntitetssignalPrioritet
Wikidata / WikipediaParametrisk forankringKritisk hvor relevant
Google Knowledge PanelDirekte kilde for GeminiHøj
LinkedIn (profil + artikler)Identitet og ekspertiseHøj
BranchepublikationerCo-mentions med kendte aktørerHøj
Schema.org på eget webstedMaskinlæsbar definitionKritisk

90-dages handlingsplan

Fase 1 — Fundament (dag 1–30)

  1. Teknisk SEO-audit: crawlbarhed, hastighed, mobiloptimering
  2. Schema markup: Organization, Person, Article, FAQ på alle nøglesider
  3. Forfatterprofiler med byline, bio og sameAs-links
  4. robots.txt: tillad GPTBot, ClaudeBot, PerplexityBot, Google-Extended
  5. llms.txt på rodniveau med webstedsbeskrivelse
  6. Opdatér Om-siden med fuldstændig organisationsinfo
  7. Opsæt baseline CAVIS-monitoring med 20–30 prompts

Fase 2 — Indholdsoptimering (dag 31–60)

  1. Audit eksisterende indhold: identificér sider med AI-synlighedspotentiale
  2. Omskriv topsider med Answer First-princippet og FAQ-sektioner
  3. Byg pillar-cluster-arkitektur for primærdomænet
  4. Tilføj FAQ Schema på alle informationsrige sider
  5. Publicér mindst 4 dybdegående ekspertartikler i kernedomænet
  6. Start co-citation-arbejde: gæsteartikler og branchepublikationer

Fase 3 — Skalering og iteration (dag 61–90)

  1. Analysér CAVIS-data: identificér gaps og vindere
  2. Krydsplatformspublicering: LinkedIn, fagmedier, podcasts/interviews
  3. Wikipedia / Wikidata: opret eller opdatér relevante poster
  4. Optimér indhold baseret på prompt-testning
  5. Opsæt månedlig rapport: SOV-trend, sentiment, konkurrentændringer

Næste skridt

  1. Opsæt AI-monitoring med CitationLab Monitor — definér 20 baseline-prompts og mål nuværende tilstand
  2. Gennemfør teknisk audit med fokus på Schema, forfatterdata og AI-agentcrawlbarhed
  3. Vælg dine tre vigtigste indholdssider og omskriv dem efter Answer First-princippet med FAQ Schema
  4. Læs mere: AI-synlighed for begyndere · E-E-A-T-guiden · AEO-frameworket

TRUST-modellen og CAVIS er proprietære frameworks udviklet af CitationLab AS, 2024–2026.

Referencer og videre læsning:

Hvilke værktøjer findes til AI-synlighed?

AI Search Academy er en uafhængig ordbog for AI-søgning og synlighed.

Se værktøjsoversigt
KR

AI Search & Growth Strategist med 25+ år i digital markedsføring. Læs mere →