Robots.txt

Vad är Robots.txt?

För att hjälpa Google att läsa igenom din hemsida, crawla som det ibland kallas, kan man använda sig av en robots.txt fil. Det är kort och gott en textfil där man listar det som Google ska läsa igenom. Man kan då välja vilka sidor som man vill att Google ska söka igenom samt vilka som inte ska crawlas.

Sökmotorer förväntar sig att man ska ha en robots.txt fil och det är den första filen de kollar efter vid en crawl. Genom att ha en Robots.txt på plats kan du ge instruktioner till sökmotorn, se till att den hittar din sitemap.xml mm.

Exempel

Som man ser på bilden har Leit bett Google att inte läsa igenom våra admin sidor på WordPress genom att lägga in den undersidan bakom Disallow:, där finns helt enkelt ingen information som är relevant för sökmotorer.

Vi länkar till sitemap.xml så att denna ska kunna användas av sökmotorn för att förstå webbplatsens struktur och hitta sidor som ev. inte länkas på webbplatsen.

Kontakta oss

Hör av dig om du vill ha hjälp med din digitala synlighet!

Kontakta oss

Leit är en del av byrånätverket Mojna som består av specialistbolag inom digitala upplevelser. Vi har kontor i Göteborg och Stockholm och består för närvarande av: Hoy, Leit, Oh No Gravity och Studio Nois.

Kontakta oss

Copyright © Leit 2024