Robots.txt er en tekstfil der fortæller søgemaskiner hvilke dele af en hjemmeside de må og ikke må crawle.
Hvad er crawlbudget?
Hvad påvirker dit crawlbudget?
Google har begrænsede ressourcer og kan ikke crawle uendeligt mange sider på alle hjemmesider. Dit crawlbudget afhænger af dit domænes autoritet og sidens størrelse. På et lille site med høj autoritet crawler Google næsten alt. På et stort site med mange lavkvalitetssider risikerer vigtige sider at blive overset. Du optimerer dit crawlbudget ved at blokere irrelevante sider via robots.txt, rette brudte links, undgå redirect-kæder og sikre at din sitemap kun indeholder de sider du ønsker indekseret.
Eksempel på crawlbudget
En webshop med 50.000 produktsider opdager at Googlebot bruger halvdelen af crawlbudgettet på filtrerede søgesider uden SEO-værdi. Ved at blokere disse i robots.txt frigives budget til at crawle nye og opdaterede produktsider hurtigere.
Hvorfor er crawlbudget vigtigt?
- Afgørende for store sites med mange sider
- Sikrer at nye og vigtige sider opdages hurtigere
- Spildt crawlbudget forsinker indeksering af vigtigt indhold
Relaterede termer
En sitemap er en fil der fortæller søgemaskiner hvilke sider på en hjemmeside der findes og skal indekseres.
Teknisk SEO er optimering af en hjemmesides tekniske fundament, så søgemaskiner kan crawle, indeksere og rangere indholdet korrekt.