Steven Heyse

SEO

26.03.2020 - Search

Vliegensvlug geïndexeerd in Google? Zo doe je dat!

Je hebt een nieuwe website gemaakt waar je bijzonder trots op bent … en nu wil je natuurlijk dat die zo snel mogelijk in de Google-index wordt opgenomen. Begrijpelijk, want zonder indexatie is het verdomd moeilijk om bezoekers naar je site te lokken. In dit artikel vertellen we hoe je ervoor zorgt dat je site geïndexeerd wordt, hoe je kunt controleren of dat effectief gelukt is en wat je kunt doen bij indexeringsproblemen.

Je site indexeren: makkelijk zat?

Om je site door Google te laten indexeren, zijn er verschillende methodes mogelijk. Sommige daarvan lijken heel eenvoudig, maar laat je niet vangen, want ze zijn niet allemaal even effectief. Wij raden je aan om je website aan te melden via Google Search Console, een onmisbare tool als je SEO serieus neemt.

De voorbereidingen

Vooraleer je je website aanmeldt bij Google Search Console, moet je een XML-sitemap en een robots.txt-bestand hebben:

  • Een XML-sitemap geeft een overzicht van al je pagina’s en blogberichten. Google gebruikt deze map om de inhoud van je website snel en efficiënt te scannen. Voor de meest gangbare contentmanagementsystemen (WordPress, Drupal, Joomla, …) bestaan er plug-ins, modules of extensies om automatisch een XML-sitemap te genereren. Zo is de WordPress SEO plug-in van Yoast een bijzonder handige: voeg nieuwe pagina’s en blogberichten toe en de plug-in updatet automatisch je XML-sitemap. Heeft jouw CMS geen vergelijkbare plug-in, dan kun je je XML-sitemap bijvoorbeeld via xml-sitemaps.com genereren. Screaming Frog, een SEO crawler, kan op basis van een crawl ook een XML-sitemap voor je genereren.
  • Robots.txt is een klein tekstbestand dat zoekmachines vertelt of ze je website al dan niet mogen crawlen en waar je XML-sitemap zich bevindt. Het is een erg belangrijk bestandje: als Google je website komt crawlen, is dit het eerste waar de bot naar op zoek gaat. Belangrijk: Google heeft onlangs aangekondigd dat ze het Robots Exclusion Protocol (REP, ofwel de richtlijnen om robots.txt te gebruiken) eindelijk gaan formaliseren als internetstandaard. Meer informatie over het REP vind je op ietf.org.

Enkele tips voor een SEO-vriendelijke sitestructuur

Om je site makkelijk te laten indexeren, helpt het uiteraard als die goed is opgebouwd. Zeker voor wat complexere sites komen deze regels extra van pas:

  • Beperk het aantal categorieën (hoofdpagina’s) en zorg ervoor dat elke categorie ongeveer evenveel subpagina’s telt. Vermijd een onevenwichtige structuur en splits grote categorieën desnoods op.
  • Gebruik betekenisvolle URL’s die de belangrijkste zoekwoorden bevatten. Om woorden van elkaar te scheiden, gebruik je koppeltekens, geen liggende streepjes. Vermijd in de URL’s hoofdletters, leestekens en een teveel aan cijfers. Vuistregel: bekijk de URL van een pagina zonder de inhoud van de pagina zelf te bekijken. Is de URL leesbaar en heb je al min of meer een verwachting over wat deze pagina gaat? Ja? Dan heb je een zoekmachinevriendelijke URL!
  • Leg links tussen alle relevante pagina’s. Een goede interlinking is cruciaal om je site vlot te laten indexeren. Vergeet je linken te leggen naar bepaalde pagina’s, dan zullen de crawlers deze URL’s ook niet vinden. Op die manier ontstaan er zogenaamde orphan pages. Dat zijn pagina’s die buiten de linkstructuur van je website vallen en daardoor mogelijk niet de nodige ‘link juice’ krijgen die ze misschien wel verdienen.
  • Vermijd duplicate content door canonical URL’s te voorzien. Dat zijn stukjes code die je op een pagina zet om Google duidelijk te maken waar het ‘origineel’ van die content te vinden is. Denk bijvoorbeeld aan webshops en de bijhorende honderden filter-URL’s…
  • Leg de nadruk op de meest betekenisvolle URL’s van je site en sluit irrelevante pagina’s of secties uit via robots.txt. Zo bespaar je op ‘crawl budget’, het aantal keer dat de Googlebot jouw volledige site kan crawlen binnen een bepaalde tijdspanne (bijvoorbeeld tien keer per dag). Pagina’s niet laten crawlen is nuttig voor delen van je site die niet publiek toegankelijk mogen zijn. Denk maar een ‘staging’ site, een admin-gedeelte of checkout-pagina’s.
  • Vermijd broken links wanneer je URL’s wijzigt door gebruik te maken van 301 redirects of van Sticky Links. Die laatste tool voorkomt dat een aangepaste URL (permalink)een ‘broken link’ wordt, door hem automatisch naar de juiste link te leiden. De links op andere pagina’s worden ook automatisch aangepast zodat je niet manueel alles moet gaan checken.

Meer info over hoe je dat allemaal aanpakt, lees je in ons artikel ‘Naar een SEO-vriendelijke websitestructuur in 4 stappen’.

Je website aanmelden bij Google Search Console

Je hebt een goeie sitestructuur, en je XML-sitemap en je robots.txt-bestand staan allebei online? Mooi, dan kun je je website aanmelden bij Google Search Console. Klik daarvoor in Google Search Console op ‘add property’ of gebruik het aparte startscherm om je domein toe te voegen.

Nadat je de URL van je website hebt opgegeven, moet je laten verifiëren dat jij de eigenaar bent. Dat kan bijvoorbeeld door een html-bestand op te laden, via Google Analytics of Google Tag Manager. Sinds kort is het trouwens ook mogelijk om je website op domeinniveau te laten verifiëren. Zo hoef je niet meer alle ‘verschillende’ versies van je site apart toe te voegen (www versus niet-www, etc.). Een mogelijk nadeel is dat je toegang nodig hebt tot je DNS-instellingen om de gegevens die verband houden met je domeinnaam (de ‘DNS-records’) aan te passen.

Zodra je website geverifieerd is, krijg je toegang tot Search Console. Er rest je nog een laatste stap: kies Index > Sitemaps > Add a new sitemap en geef de URL van je XML-sitemap in.

Daarna is je website aangemeld bij Google en kan ze snel worden opgenomen in de Google-index. Hou de komende dagen Google Search Console in de gaten: bij je sitemaps moet je statistieken te zien krijgen over het aantal verstuurde URL’s en het aantal geïndexeerde pagina’s.

SOS indexatieproblemen!

Geen paniek als je site niet meteen helemaal geïndexeerd wordt. Probeer wat geduld te hebben totdat de spiders klaar zijn met hun werk.

Staat je site al een tijdje online, maar raakt een gedeelte van de pagina’s toch niet geïndexeerd? Dan schort er waarschijnlijk iets aan je XML-sitemap. Die eens herstructureren kan het probleem oplossen. Hoe je dat doet, lees je in ons artikel ‘Indexatieproblemen detecteren met je sitemaps’.

Wil je je SEO-kennis verder bijspijkeren? Vergeet dan zeker niet om onze (gratis!) whitepaper ‘Scoren met SEO – Nu en in de toekomst’ te downloaden.

Steven Heyse

Steven zet beroepsmatig letters in de juiste volgorde. Wie Engels spreekt, mag hem een copywriter noemen. Hij is een liefhebber van vinylplaten en stripverhalen. Ook ‘muzikaal’ actief trouwens, enfin ja ...

Lees meer van Steven