Ontdek alle mogelijkheden met ApplePY. Bekijk alle features
Het optimaliseren van het Robots.txt-bestand is een uitdagende taak. Het speelt een belangrijke rol in SEO. Want, je hebt vast wel eens van Robots.txt gehoord.
Maar maak je volledig gebruik van dit bestand? Als je de Robots.txt over het hoofd ziet, kan dit de positie schaden van het domeinnaam. Als het verkeerd is geconfigureerd, kunnen zoekmachines de website volledig negeren, wat ertoe kan leiden dat een website volledig uit de zoekresultaten verdwijnt.
Het robots.txt-bestand staat ook bekend als het Robots Exclusions Protocol. Het instrueert zoekmachine-bots over hoe een website moet worden gecrawld, welke pagina's moeten worden gecrawld en welke pagina's moeten worden genegeerd.
Wanneer bots van zoekmachines op de website komen, leest deze het robots.txt-bestand en volgt de instructies. Als je het niet goed hebt geconfigureerd, indexeren de crawlers en spiders van zoekmachines mogelijk geen belangrijke pagina's of kunnen ze ook ongewenste pagina's/mappen indexeren.
Het is dus erg belangrijk om het Robots.txt-bestand te optimaliseren. Dit bestand wordt in de hoofdmap van het domein geplaatst (bijv. www.domein.nl/robots.txt). Er kan slechts één robots.txt op de website staan en deze bevindt zich in de hoofdmap, zoals eerder vermeld.
Je kunt cPanel of FTP-client gebruiken om dit bestand te bekijken. Het is net als elk gewoon tekstbestand en je kunt het openen met een platte teksteditor zoals Kladblok en bewerken.
WordPress biedt automatische creatie van het robots.txt-bestand. Gebruik je WordPress, dan zou je al een robots.txt-bestand in de hoofdmap moeten hebben. Als je een ander CMS gebruikt of je website geen robot.txt-bestand heeft, maak dan gewoon een eenvoudig Kladblok-bestand en noem het robots.txt en upload het naar de hoofdmap van je website met behulp van FTP-client of cPanel. Er zijn een aantal robot txt-bestand generators online beschikbaar.
Om in te checken in cPanel, ga naar Bestandsbeheer -> public_html map. Je zou hier het robots.txt-bestand moeten terugvinden.
Voordat we direct beginnen om het robots.txt-bestand te optimaliseren, moeten we eerst de basisprincipes van het robots.txt-bestand begrijpen. Er zijn hoofdzakelijk drie commando's: User-agent, allow & disallow.
We zullen deze commando's configureren om een betere grip te krijgen in wat spiders en crawlers wel mogen indexeren en welke pagina’s genegeerd mogen worden.
User-agent: *
Disallow: /wp-admin
Allow: /
Ik hoop dat je het bovenstaande voorbeeld nu kunt begrijpen. Hier instrueren we alle bots van zoekmachines (omdat we User-agent gebruiken: *) om /wp-admin/ een deel van de website (regel 2) niet te crawlen of te indexeren en vervolgens toe te staan om pagina’s te crawlen en te indexeren van andere delen van de website (regel 3).
Nog enkele voorbeelden voor een beter begrip:
User-agent: *
Allow: /
Indexering van alles niet toestaan
User-agent: *
Disallow: /
Sta een bepaalde bot (bijvoorbeeld Googlebot) niet toe om een bepaalde map (een map) te indexeren, maar een pagina (mijn pagina) in die map toe te staan.
User-agent: Googlebot
Disallow: /mijnmap/
Allow: /mijnmap/mijnpagina
Je bent nu bekend met het robots.txt-bestand. Laten we verder gaan met hoe je het robots.txt-bestand kunt bewerken en optimaliseren om maximale voordelen te behalen. Het bewerken van robots.txt is een van de dingen die je moet doen na het installeren van WordPress.
Je kunt het robots.txt-bestand bewerken vanuit cPanel of de FTP-client. Om dit via cPanel te bewerken, volg je onderstaande stappen:
Het opent het bestand in een bewerkbare modus. Breng de nodige wijzigingen aan en klik op wijzigingen opslaan.
Zoals al eerder, is het een zeer uitdagende taak om robots.txt te optimaliseren, rekening houdend met alle factoren. Een niet-geoptimaliseerd robots.txt-bestand kan de vindbaarheid schaden en het domein volledig de-indexeren (bijv. als je het commando "Disallow: /" in het Robots.txt-bestand gebruikt, wordt jouw website niet meer geïndexeerd door zoekmachines).
Houd de volgende dingen in gedachten wanneer je begint met het optimaliseren van het robots.txt-bestand.
Een robots.txt-bestand kan verschillen van het mijne, omdat je mogelijk andere vereisten en andere mappen hebt. Enkele andere acties die je kunt uitvoeren zijn:
Je kunt het $-teken gebruiken om te specificeren dat het overeenkomt met het einde van de URL. Als je bijvoorbeeld URL's wilt blokkeren die eindigen op .html, kun je het volgende element gebruiken:
User-agent: Googlebot
Disallow: /*.html$
Heb je de Robots.txt aangepast en geoptimaliseerd? Test dan eerst even of de aanpassingen correct geconfigureerd zijn. Om dit te doen: