De 301-redirects

Stel je voor: je wilt jouw website migreren naar een nieuw domein met een nieuwe URL-structuur. Dit zou je simpelweg kunnen doen door alle content van de oude website te kopiëren naar de nieuwe website. Zodra je dat gedaan hebt (en de nieuwe website live staat), zul je zien dat er op de nieuwe website geen of weinig verkeer binnenkomt. Dat komt omdat je op deze manier eigenlijk opnieuw begint met het verkrijgen van posities binnen Google. Dit wil je te allen tijde voorkomen. 

Het is namelijk belangrijk om ervoor te zorgen dat de pagina’s van waarde (denk aan Page Authority en Trust Flow) van de oude website omgeleid worden naar de nieuwe website. Dit kun je doen door middel van een redirect schema. Door het redirecten van de pagina’s geef je als het ware de waarde van de oude pagina’s door aan de nieuwe. Zo ziet Google dat jouw waardevolle en relevante content nog steeds bestaat, maar op een ander domein. Het is daarom ook belangrijk dat de essentiële content in zijn volledigheid wordt overgezet.

De Interne linkstructuur

Het kan gebeuren dat oude interne links worden meegenomen in het overzetten van de content naar de nieuwe website. Dit kan leiden tot veel 404 errors en dus gefrustreerde websitebezoekers (inclusief crawl robots van zoekmachines). 

Je kunt dit voorkomen door alle interne links die naar 404’s leiden uit te draaien (met een tool zoals Semrush of Ahrefs) en deze te vervangen voor de nieuwe URL’s. Het is hierbij verstandig om dit te doen voor en na de migratie. Zo weet je zeker dat je alles hebt gedekt.

Bovendien zul je oude XML sitemaps moeten verwijderen en nieuwe moeten aanmaken. Op deze manier zorg je ervoor dat de zoekmachine-linkstructuur op orde is voor je live gaat.

Het inrichten van het robots.txt bestand

Naast het juist omleiden van oude URL’s naar de nieuwe en het correct inrichten van de interne linkstructuur, gaan website migraties vaak fout op andere punten.

Zo wordt het inrichten van het robots.txt bestand voor de ‘crawlability’ en indexeerbaarheid van de nieuwe website nog wel eens vergeten. Het zou zomaar kunnen dat hierdoor bepaalde pagina’s niet gecrawld of geïndexeerd worden door zoekmachines. Of juist andersom, pagina’s die je niet wilt tonen worden wel geïndexeerd. 

Denk hierbij aan de bedankpagina die is ingericht op het voltooien van een conversie. Je wilt voorkomen dat deze pagina wordt geïndexeerd zodat je geen foutieve conversie data verzamelt. 

Verder zul je de noindex tag die naar de nieuwe website wijst uit de HTML-code moeten halen voordat je live gaat. Anders zullen zoekmachines deze tag respecteren en jouw website niet indexeren. Dat geldt ook voor verschillende disallow tags die je eventueel in de robots.txt hebt geïmplementeerd voor de livegang. 

De disallow tag zorgt er namelijk voor dat bepaalde robots (Google bot, Semrush bot etc.) jouw website niet mogen crawlen. Dit is handig, want zo wordt de website (nog) niet gecrawld en geïndexeerd voordat de website live staat. Echter wil je dat wanneer je live gaat met de nieuwe website dat de robots de website wel crawlen en indexeren. Zorg er daarom voor dat de robots.txt correct is aangemaakt voordat je de nieuwe website live zet.

Het aanmaken van de XML sitemap

Een andere veelvoorkomende fout die gemaakt wordt bij een website migratie, is het niet juist inrichten van de sitemap. Je kunt dit doen door de XML sitemap van de oude website te downloaden en naar de nieuwe website te uploaden. Controleer de sitemap wel nog even op (oude) foutieve URL’s. 

Door de oude (niet meer bestaande) URL’s te verwijderen uit de sitemap voorkom je dat de zoekmachine de 404 -pagina’s crawlt en indexeert. Zodra de sitemap schoon en compleet is, kun je deze uploaden naar de Google Search Console.

Wil jij voorkomen dat jouw website migratie fout gaat? Onze migratie experts zorgen voor een succesvolle migratie zonder verlies van SEO-waarde! Download ook ons whitepaper voor meer informatie over dit onderwerp.