Milos

Hjem / Ordbog / SEO / Robots.txt

www.milospavic.dk › ordbog › hvad-er-robots-txt

Hvad er robots.txt?

Hvordan fungerer robots.txt?

Filen placeres i roddirectory på din hjemmeside og læses af Googles crawler — Googlebot — inden den begynder at crawle siden. Du kan bruge robots.txt til at blokere specifikke sider, mapper eller parametre du ikke ønsker indekseret. Det er vigtigt at forstå at robots.txt forhindrer crawling — ikke indeksering. En side der er blokeret i robots.txt kan stadig blive indekseret hvis andre sider linker til den. Robots.txt er særligt vigtig på store sites hvor du vil styre crawlbudgettet effektivt og sikre at Google bruger sine ressourcer på dine vigtigste sider.

Eksempel på robots.txt

En webshop blokerer sit /admin-directory og alle URL-parametre fra søgning i robots.txt. Det sikrer at Googlebot ikke spilder crawlbudget på sider der aldrig skal rangere.

Hvorfor er robots.txt vigtig?

Relaterede termer

www.milospavic.dk › ordbog › hvad-er-crawlbudget
Hvad er crawlbudget?

Crawlbudget er det antal sider Googlebot crawler på din hjemmeside inden for en given tidsperiode.

www.milospavic.dk › ordbog › hvad-er-en-sitemap
Hvad er en sitemap?

En sitemap er en fil der fortæller søgemaskiner hvilke sider på en hjemmeside der findes og skal indekseres.

www.milospavic.dk › ordbog › hvad-er-teknisk-seo
Hvad er teknisk SEO?

Teknisk SEO er optimering af en hjemmesides tekniske fundament, så søgemaskiner kan crawle, indeksere og rangere indholdet korrekt.