Teknisk SEO - det vigtige fundament for alle websites
De fleste content management systemer er godt struktureret til at understøtte teknisk SEO. Men det betyder desværre ikke, at det kommer af sig selv.
Din hjemmeside kan have det bedste indhold i verden. Men hvis Google ikke kan finde det, crawle det og forstå det, bliver det aldrig vist i søgeresultaterne. Det er her, den tekniske del af SEO kommer ind i billedet.
Teknisk SEO er det usynlige fundament under din hjemmeside. Det er den del af SEO, der arbejder bag kulisserne, så søgemaskinerne kan gøre deres arbejde - og dine kunder kan finde dig. Og i 2026 gælder det ikke kun Google - det gælder også AI-søgemaskiner som ChatGPT, Gemini og Perplexity, der i stigende grad henter svar direkte fra dit website.
Mange SMV'er investerer i indhold og annoncer, men glemmer det tekniske fundament. Resultatet? Langsom loading, sider der ikke indekseres, og en mobiloplevelse der skræmmer besøgende væk.
I denne guide gennemgår vi de 7 vigtigste tekniske SEO-faktorer, forklarer Core Web Vitals på dansk, viser dig hvordan du selv kan lave et teknisk SEO-tjek - og introducerer hvordan teknisk SEO også er fundamentet for synlighed i AI-søgemaskiner.
Har du brug for en bredere forståelse af SEO som helhed? Læs vores guide til SEO-rådgivning for SMV'er.
Indhold
Denne artikel er en opdateret version af en tidligere artikel fra Itzy-Bitzy.dk.
Hvad er teknisk SEO?
Teknisk SEO er den del af søgemaskineoptimering, der fokuserer på dit websites infrastruktur og tekniske opsætning. Hvor on-page SEO handler om indhold og keywords, handler teknisk SEO om at sikre, at søgemaskinerne overhovedet kan finde, crawle og forstå din hjemmeside.
De vigtigste elementer i teknisk SEO:
- Site speed og loading-tider
- Mobilvenligt design (responsivt layout)
- Crawlbarhed og indeksering
- URL-struktur og omdirigeringer
- HTTPS og sikkerhed
- Strukturerede data (Schema markup)
- XML sitemap og robots.txt
For SMV'er er teknisk SEO særligt vigtigt, fordi I sjældent har et dedikeret udviklerteam til at fange og rette fejl. Mange tekniske problemer er "tavse" - de giver ingen synlige fejlmeddelelser, men de kan koste jer placeringer i Google dag efter dag.
De 7 vigtigste tekniske SEO-faktorer
Teknisk SEO kan virke overvældende, men i praksis er der 7 faktorer, der har størst betydning for de fleste hjemmesider. Vi gennemgår dem i prioriteret rækkefølge.
Crawlbarhed og indeksering
Hvis Google ikke kan crawle dine sider, vil de ikke findes i søgeresultaterne. Så simpelt er det.
Crawlbarhed handler om, at Googles robot (Googlebot) kan tilgå og læse alle dine vigtige sider. Indeksering handler om, at de sider, der crawles, faktisk bliver optaget i Googles indeks.
Typiske problemer: blokering via robots.txt, noindex-tags på vigtige sider, forældreløse sider (sider uden interne links), og uendelige URL-parametre der skaber dobbelt-indhold.
Site speed og loading-tider
Hastighed er en direkte ranking-faktor i Google. Men endnu vigtigere: langsomme sider får besøgende til at forlade dit site inden de overhovedet ser dit indhold.
De vigtigste tiltag for at forbedre hastigheden:
Komprimér og tilpas billeder (WebP-format er bedst)
Aktivér browser-caching
Minimér CSS og JavaScript
Brug en hurtig hosting-løsning med CSN, tæt på din målgruppe
Undgå unødvendige tredjeparts-scripts
Mobilvenligt design
Google bruger mobile-first indeksering, hvilket betyder at det er mobilversionen af din hjemmeside, der bliver vurderet og indekseret. Har du ikke et responsivt design, risikerer du at tabe placeringer - uanset hvor god desktop-versionen er.
Et responsivt design tilpasser sig automatisk til skærmstørrelsen. Test din side via PageSpeed Insights, der inkluderer mobilvenlighedsdata, og sørg for, at tekst er læsbar, knapper er klikbare, og indhold ikke kræver horisontal scrolling på mobil.
HTTPS og sikkerhed
HTTPS (med SSL-certifikat) er et grundkrav i 2026. Google har bekræftet det som en ranking-faktor, og browsere som Chrome markerer HTTP-sider som "Ikke sikker" - hvilket skræmmer besøgende væk.
For europæiske virksomheder med kontaktformularer, betalingsløsninger eller login er HTTPS ikke bare SEO - det er et lovkrav under GDPR.
URL-struktur og omdirigeringer
En ren og logisk URL-struktur hjælper både Google og brugerne med at forstå dit websites opbygning. Gode URL'er er korte, beskrivende og indeholder relevante keywords.
Når du ændrer URL'er (fx ved redesign eller flytning af indhold), skal du sikre at gamle sider omdirigeres til de nye sider. Ellers mister du den linkværdi og placering i søgeresultaterne, som den gamle side havde opbygget.
Strukturerede data (Schema)
Strukturerede data er kode, du tilføjer til din hjemmeside, som hjælper søgemaskinerne med at forstå indholdet i kontekst. Det kan resultere i rich snippets i søgeresultaterne - fx stjernebedømmelser, FAQ-sektioner, priser og åbningstider. I mange tilfælde kan jeres CMS indsætte de strukturerede data automatisk.
De mest relevante Schema-typer for SMV'er:
LocalBusiness - viser adresse, telefon og åbningstider
FAQ - viser spørgsmål og svar direkte i SERP
Product - viser pris og lagerstatus for produkter
Article - markerer blogindlæg med dato og forfatter
BreadcrumbList - viser navigationssti i søgeresultaterne
Du kan teste din implementering med Googles Rich Results Test. Det kræver lidt teknisk indsigt at implementere manuelt, men et SEO-first CMS som BasisCMS håndterer de grundlæggende Schema-typer automatisk.
XML sitemap og robots.txt
Din XML sitemap er et kort over dit website, som du sender til Google via Search Console. Den fortæller Google hvilke sider der findes, hvornår de sidst blev opdateret, og hvilke der er vigtigst.
Robots.txt-filen styrer, hvilke dele af dit site søgemaskinerne må crawle. Begge filer bør være korrekt konfigureret og opdateret. En fejl i robots.txt kan blokere hele dit site fra at blive indekseret.
Core Web Vitals forklaret på dansk
| Metrik | Hvad den måler | Godt resultat | Typisk problem |
|---|---|---|---|
| LCP (Largest Contentful Paint) | Hvor hurtigt hovedindholdet indlæses | Under 2,5 sekunder | Store billeder, langsom server |
| INP (Interaction to Next Paint) | Hvor hurtigt siden reagerer på klik | Under 200 millisekunder | Tung JavaScript, tredjepartsscripts |
| CLS (Cumulative Layout Shift) | Hvor stabilt layoutet er under indlæsning af siden | Under 0,1 | Billeder uden mål, dynamiske annoncer |
Sådan undersøger du din hjemmesides tekniske SEO
Du behøver ikke være udvikler for at lave et teknisk SEO-tjek. Med de rigtige værktøjer kan du selv identificere de mest kritiske problemer på under en time.
Trin 1: Tjek Core Web Vitals
Åbn Google PageSpeed Insights (pagespeed.web.dev) og indtast din URL. Du får en score fra 0-100 for både mobil og desktop, samt specifikke anbefalinger til forbedring.
Fokusér på de tre Core Web Vitals-metrikker først. De røde og orange markerede problemer har størst impact.
Trin 2: Tjek indeksering i Google Search Console
Hvis du ikke allerede har Google Search Console sat op, bør du gøre det nu. Det er gratis og giver dig direkte indblik i, hvordan Google ser din hjemmeside.
Under "Sider" kan du se hvilke sider der er indekseret, og hvilke der er udelukket - og vigtigst: hvorfor. Typiske problemer er "Crawlet - ikke indekseret" eller "Blokeret af robots.txt".
Trin 3: Kør en crawl-analyse
Brug et værktøj som Screaming Frog (gratis op til 500 URL'er) til at crawle dit website. Det afslører brudte links, manglende meta descriptions, duplicate content og sider med manglende H1-tags.
For de fleste SMV-websites med under 100 sider tager en crawl under 5 minutter.
Trin 4: Test mobilvenlighed og hastighed
PageSpeed Insights inkluderer mobilvenlighedsdata, så du kan se med det samme, om din side fungerer på mobil. Tjek at tekst er læsbar uden at zoome, at knapper har tilstrækkelig afstand, og at indhold ikke kræver horisontal scrolling.
Tjek mindst 3-5 af dine vigtigste sider - ikke kun forsiden. Det er ofte undersider som produktsider eller blogindlæg, der har de største tekniske problemer.
Trin 5: Validér strukturerede data
Brug Googles Rich Results Test (search.google.com/test/rich-results) til at tjekke om dine strukturerede data er korrekt implementeret. Værktøjet viser præcis hvilke Schema-typer der er fundet på siden, og om der er fejl.
Hvordan BasisCMS løser teknisk SEO automatisk
En af de største udfordringer for SMV'er er, at teknisk SEO kræver løbende vedligeholdelse - og de fleste har ikke tid eller budget til en dedikeret udvikler. Det var præcis det problem, BasisCMS er bygget til at løse.
Det BasisCMS håndterer for dig:
| Teknisk SEO-faktor | Hvad BasisCMS gør |
|---|---|
| Site speed | Optimeret kodebase, automatisk billedkomprimering, CDN-integration |
| Core Web Vitals | Bygget til at bestå alle tre CWV-metrikker uden ekstra konfiguration |
| Mobilvenligt design | Responsivt layout som standard på alle templates |
| HTTPS | SSL-certifikat inkluderet og automatisk konfigureret |
| XML sitemap | Genereres automatisk og opdateres ved ændringer |
| Strukturerede data | Grundlæggende Schema markup implementeret automatisk |
| Rene URL'er | SEO-venlig URL-struktur uden parametre eller sessions-ID'er |
Fordelen er tydelig: i stedet for at bruge timer på teknisk fejlfinding kan du investere tiden i at skabe indhold, der tiltrækker kunder. Teknisk SEO skal bare virke - og det gør det med BasisCMS.
Teknisk SEO som fundament for AI-synlighed
Teknisk SEO handler ikke længere kun om Google. I 2026 læser AI-systemer som ChatGPT, Gemini, Perplexity og Claude dit website for at besvare brugernes spørgsmål direkte. Hvis dit indhold ikke er teknisk tilgængeligt for disse systemer, bliver du usynlig i en hel ny kanal - og den kanal vokser hurtigt.
Det gode er, at solid teknisk SEO allerede dækker størstedelen af det, AI-søgemaskiner har brug for. Men der er nogle ekstra elementer, du bør kende til.
Ren HTML frem for JavaScript-renderet indhold
AI-crawlere udfører som udgangspunkt ikke JavaScript. De læser den rå HTML, din server returnerer. Hvis dit indhold loader dynamisk via JavaScript-frameworks, risikerer du, at AI-systemer ser en tom side. For de fleste "almindelige" websites på et standard-CMS er dette ikke et problem - men har du en SPA (single-page application) eller kraftigt JavaScript-afhængigt design, bør du implementere server-side rendering.
Strukturerede data er vigtigere end nogensinde
De Schema-typer vi gennemgik tidligere er ikke kun relevante for Google - de er fundamentale for AI-synlighed. Når en sprogmodel (LLM) vurderer dit indhold, bruger den strukturerede data til at forstå konteksten: er dette en virksomhed, et produkt, en FAQ eller en guide?
I en AI-kontekst er to typer særligt værdifulde ud over de grundlæggende:
Organization - fortæller AI-systemer hvem du er, din branche og kontaktoplysninger
HowTo - step-by-step guides kan trækkes direkte ind i AI-genererede svar
Jo mere kontekst du giver via strukturerede data, jo lettere kan AI-systemerne forstå og citere dit indhold korrekt.
llms.txt - det nye robots.txt for AI?
En nyere udvikling er llms.txt-filen - en simpel tekstfil i roden af dit domæne, der fortæller AI-crawlere hvad dit site handler om, og hvor det vigtigste indhold findes. Tænk på den som en kombination af robots.txt og en sitemap, men specifikt rettet mod LLM'er.
Det er vigtigt at være ærlig her: llms.txt er stadig en uofficiel standard, og datagrundlaget for dens effekt er begrænset. En analyse af 10 websites over 90 dage viste, at kun 2 oplevede vækst efter implementering - og det var ikke entydigt llms.txt der var årsagen. Alligevel er filen triviel at implementere (under 15 minutter), og den signalerer til AI-systemer, at du tager deres adgang alvorligt.
Hvad du konkret kan gøre
Sørg for at dit indhold er i ren HTML - ikke gemt bag JavaScript
Implementer Schema markup på dine vigtigste sider (minimum Organization + Article/FAQ)
Opret en llms.txt-fil med en kort beskrivelse af din virksomhed og links til dit vigtigste indhold
Skriv indhold der besvarer spørgsmål direkte - AI-systemer foretrækker klare, faktuelle svar frem for vag salgstekst
Hold din robots.txt opdateret - vær opmærksom på om du utilsigtet blokerer AI-crawlere som GPTBot, ClaudeBot eller Google-Extended
Teknisk SEO er fundamentet - GEO og AEO bygger videre
Teknisk SEO for AI er ikke en separat disciplin - det er en naturlig udvidelse af det fundament, du allerede bygger. Har du styr på de 7 faktorer fra denne guide, er du 80% af vejen.
Men teknisk tilgængelighed er kun det første lag. For at din virksomhed bliver citeret i AI-genererede svar (GEO) og positioneret i AI-søgemaskiner (AEO), kræver det også den rette indholdsstrategi og formatering. Det dækker vi i vores guide til SEO, GEO og AEO.
FAQ om teknisk SEO
Hvad koster det at rette teknisk SEO?
Det afhænger af problemernes omfang. Mange tekniske SEO-forbedringer er gratis at implementere selv - som at optimere billeder, rette brudte links eller tilføje meta descriptions. Større problemer som site speed-optimering eller migrering til HTTPS kan kræve en udvikler, men for de fleste SMV-sites taler vi om en investering på 5.000-15.000 kr.
Hvor ofte skal jeg tjekke min tekniske SEO?
Som minimum én gang om måneden. Sæt en reminder i kalenderen for at tjekke Google Search Console for crawl-fejl og indekseringsproblemer. Kør en fuld crawl-analyse med Screaming Frog hver tredje måned.
Kan dårlig teknisk SEO ødelægge min ranking?
Hvad er forskellen på teknisk SEO og on-page SEO?
Er Core Web Vitals virkelig så vigtige?
Hvad er forskellen på teknisk SEO og GEO/AEO?
Næste skridt: Få styr på din tekniske SEO
Teknisk SEO behøver ikke være kompliceret. Start med de 5 trin i tjeklisten ovenfor, og du har allerede et klart billede af, hvor din hjemmeside står.
Har du brug for hjælp til at prioritere din tekniske SEO? Kontakt mig, så kan vi tale om, hvad mulighederne er.