SEO-valkuilen in Drupal. Hoe vermijd je ze?

Blog
Gepost op
SEO-valkuilen in Drupal. Hoe vermijd je ze

SEO voor businessimpact

Geavanceerde SEO in bedrijven en organisaties draait om meer dan de basisvereisten van standaardoptimalisaties en kwalitatieve content. Een digitale ervaring bouwen die je bezoekers geboeid houdt en over de streep trekt, wordt ook bepaald door optimalisaties die afhangen van je contentmanagementsysteem.

Voor Drupal lijkt dat op het eerste gezicht eenvoudig. Een heleboel van de meest gebruikte modules in het CMS zijn ontworpen met SEO in het achterhoofd en kun je dan ook makkelijk optimaliseren. Toch beschikt ook Drupal, net zoals elk ander CMS, over enkele minder gekende bijzonderheden die een grote invloed kunnen hebben op je rankings in Google en aanverwante zoekmachines.

In dit e-book ontdek je tien technische, Drupalspecifieke SEO-tips. We delen de vaakst voorkomende SEO-valkuilen in Drupalomgevingen en leggen uit wat voor impact die kunnen hebben op je organisatie. Uiteraard delen we ook onze tips en oplossingen.

In deze blog kom je meer te weten over 10 SEO-valkuilen in Drupal: 

  1. Overtollige redirects
  2. Indexeerbare interne zoekresultaten
  3. Geïndexeerde testomgevingen en -pagina's 
  4. Public entities 
  5. Alle pagina's als entity
  6. Geblokkeerde assets in robots.txt
  7. Overdaad aan modules 
  8. Beveiligingslekken
  9. Crawling vs. indexering 
  10. Incorrecte analytics-data 

Tip #1: Overtollige redirects

Probleem

Redirects betekenen vanuit SEO-oogpunt vaker een vloek dan een zegen. Als je niet oplet, leiden meerdere opeenvolgende redirects al gauw tot een domino-effect met negatieve impact op je laadtijden én op je SEO-score. 

Als de Google-webcrawler op een webpagina stuit die een redirect-statuscode als antwoord geeft, wordt die pagina door de crawler meteen de laagste prioriteit toegekend in het lijstje met te indexeren webpagina’s. Voor kleinere websites is dat niet zo’n probleem, maar bij grotere omgevingen leidt dat al gauw tot veel tragere indexering. Redirect-kettingen zijn door de band genomen dus allerminst zoekmachinevriendelijk.

Oplossing

Opteer niet zomaar voor het uncommenten van de meest voor de hand liggende opties in het .htpasswd-bestand. Denk even dieper na over de logische flow of doorstroming die je met je verschillende URL’s wilt bereiken en pas je code aan.

LinkResearchTools
Voorbeeld netto organisatie redirects

Tip #2: Indexeerbare interne zoekresultaten

Probleem

De interne zoekmachine of internal search is vaak automatisch toegankelijk voor zoekmachines, tenzij je die standaardinstelling expliciet aanpast in het CMS. Dat betekent dat Google en co. de pagina’s met zoekresultaten op je website kunnen indexeren en op hun beurt weergeven als een resultaat in hun eigen zoekmotor. In theorie is daar niks mis mee. In de praktijk worden dat soort pagina’s met verzamelde zoekresultaten daarentegen door zoekrobots beschouwd als minderwaardige content, die de SEO-score naar beneden haalt. Wat op het eerste gezicht dus een onschuldige configuratiekeuze lijkt, kan je zichtbaarheid al gauw flink naar beneden halen. Dat is schadelijk voor je bredere SEO-inspanningen.

Oplossing

In Drupal kun je dit potentiële SEO-probleem makkelijk voorkomen door de modules metatag en z’n submodule metatags_view te installeren. Die geven je in Views de mogelijkheid om de instellingen voor indexeerbaarheid van zoekresultatenpagina’s aan te passen. Zo blokkeer je de zichtbaarheid van de pagina’s met zoekresultaten voor de webcrawlers van zoekmachines, zoals Googlebot. 

Wanneer je een node gebruikt voor je zoekpagina’s, installeer je eenvoudigweg de metatag-module en voeg je het veld toe aan het betreffende contenttype.

Page settings
Page settings
Advanced settings

Tip #3: Geïndexeerde testomgevingen en -pagina's

Probleem

Al te vaak zijn testomgevingen indexeerbaar door webcrawlers. Meestal komt dat door een foutieve configuratie - vaak vanwege een eenvoudige vergetelheid. Ook tijdelijke content komt vaak naar boven in de zoekresultaten. Het spreekt voor zich dat development- en stagingomgevingen best niet geïndexeerd worden, met het risico dat ze al dan niet per ongeluk worden opgesnord door de concurrentie of het brede publiek.

Oplossing

Testpagina’s op liveomgevingen kun je unpublishen of uit de indexering halen met de metatag-module.

Testomgevingen kun je dan weer afschermen door een wachtwoord in te stellen via .htpasswd.

Voorbeelden testomgevingen
Advanced settings
Sign in pop up

Tip #4: Public entities

Probleem

In de standaardconfiguratie van Drupal zijn entities steeds publiek toegankelijk via een eigen, unieke URL. Zo zou een module voor teamleden bijvoorbeeld een publiek beschikbare en overbodige node kunnen genereren voor elk teamlid. Als er geen nood is aan een detailpagina voor elk individueel teamlid, zijn die individuele nodes eigenlijk overbodig, aangezien er enkel een overzichtspagina voor het volledige team getoond wordt. In de praktijk merken we dat vaak aan de volgende structuur in Drupal:

https://mysite.com/node/42, https://mysite.com/taxonomy/term/42, enz.

Dat levert weinig waardevolle pagina’s, die toch door Google geïndexeerd kunnen worden. Dat laatste wil je vermijden: overbodige pagina’s nemen bandbreedte en opslagruimte in beslag en vertragen het crawlproces.

Oplossing

Scherm irrelevante entities af voor websitebezoekers. Dat kan in Drupal eenvoudig met een module, bijvoorbeeld rabbit_hole.

Tip #5: Alle pagina's als entity

Probleem

Vaak worden bepaalde types websitepagina’s gegenereerd op basis van andere, bestaande content. De nodes van die pagina’s kun je in de back end niet bewerken. Voorbeelden zijn homepagina’s en overzichtspagina’s. Het is lastig om SEO-gerelateerde aanpassingen door te voeren aan pagina’s die niet editable zijn als node. Denk maar aan het bijwerken van metatags of de configuratie van de XML-sitemap zodat die de betreffende pagina mee opneemt.

Oplossing

De oplossing is tweeledig:

  • Gebruik de ingebakken layout-builder van Drupal om de homepage op te bouwen.
  • Gebruik Paragraphs in combinatie met een module als block_field of overview_field om blokken aan de pagina toe te voegen.
Layout builder
Paragraphs

Tip #6: Geblokkeerde assets in robots.txt

Probleem 

Sommige website-assets, zoals favicons en afbeeldingen, bevinden zich in een map die via het robots.txt-bestand is afgeschermd voor webcrawlers. Zo kunnen zoekmachines de pagina niet op dezelfde manier bekijken en analyseren als een echte websitebezoeker.

Oplossing

Zorg ervoor dat Google telkens toegang heeft tot de volledige webpagina die je wilt laten indexeren. Dat kun je eenvoudig doen door alle website-assets (afbeeldingen, iconen en favicons) in een publiek beschikbare map te plaatsen, die niet wordt geblokkeerd door robots.txt. Hou daarnaast ook Google Search Console in de gaten voor meldingen over geblokkeerde resources.

Links robots.txt dat bepaalde assets afschermt

Tip #7: Overdaad aan modules

Probleem

Modules leveren fantastisch werk en lossen een heleboel praktische problemen op. Toch zijn er grenzen aan de flexibiliteit van een op modules gebaseerd CMS als Drupal. Te veel en te zware modules kunnen je website flink vertragen, omdat er heel wat resources moeten worden ingeladen in de browser. Een trage website is uiteraard nefast voor je SEO-score en verslechtert daarbovenop ook de gebruikerservaring van je bezoekers.

Oplossing

Voorkomen is beter dan genezen. Vermijd al te uitgebreide of niet strikt noodzakelijke modules op je website. Gebruik je een bepaalde module louter als gemakkelijkheidsoplossing, of is er een fundamenteel geschikter alternatief beschikbaar?

Kijk ook na of je website over modules beschikt die niet langer actief gebruikt worden op je website. Dat kun je doen met tools als unused_modules.

Tip #8: Beveiligingslekken

Probleem

Lekken in de beveiliging van je website kunnen je SEO negatief beïnvloeden. Een goed voorbeeld is het probleem van public file uploads of het openbaar uploaden van bestanden. Als je dat als webmaster toestaat zonder enige vorm van authenticatie of captcha, kan het zomaar gebeuren dat spammers duizenden bestanden gaan uploaden die Google vervolgens indexeert.  

Als Google spam opmerkt op je website, kan dat leiden tot een zogenaamde handmatige actie van een Google-medewerker. Je websitepagina’s (of zelfs je volledige website) krijgt dan een lagere positie toegekend in de zoekresultaten. En dat zorgt natuurlijk voor een flinke dip in organisch zoekverkeer, met heel wat potentiële impact op je organisatie.

Oplossing

Je kunt eenvoudig een module installeren die een captcha voorziet op je website. Populaire keuzes voor Drupal zijn recaptcha en simple_recaptcha

Overweeg ook het gebruik van private bestanden die je buiten de web root-map plaatst.

Example of a legitimate website containing links to illegal torrent files

Tip #9: Crawling vs. indexing

Probleem 

Ook als je Googlebot en aanverwanten verbiedt om je website te crawlen, kunnen zoekmachines je website nog steeds indexeren. Dat heeft zo z’n gevolgen in de praktijk. 

In tegenstelling tot wat vaak wordt gedacht, is het blokkeren van een pagina of map via het robots.txt-bestand dus niét hetzelfde als het plaatsen van een noindex-metatag in de meta robots tag van een pagina. Dat kan vervelende situaties opleveren. Een onverdachte bron (zie afbeelding):

Een kleine speurtocht brengt al gauw de oorzaak van het probleem aan het licht (zie afbeelding): 

Uit het commentaarveld blijkt dat “vreemde homepage-URL’s” het team achter Drupal. org kopzorgen had bezorgd. Een snelle blokkering van de Google-webcrawler bracht echter duidelijk geen zoden aan de dijk.

Oplossing

De gouden stelregel is eenvoudig:

  • Instructies in robots.txt geven regels aan voor crawling, maar niet op indexering.
  • Noindex-instructies in een metatag doen precies het omgekeerde: daarmee blokkeer je indexering, maar geen crawling.

Als je het onderscheid tussen crawling en indexering correct toepast, kun je schoonheidsfouten en foutieve indexering makkelijk vermijden.

Een door Google geïndexeerde pagina op drupal.org
Robots.txt op Drupal.org schept duidelijkheid

Tip #10: Incorrecte analytics data

Probleem

Zuivere data zijn cruciaal om correcte beslissingen te kunnen nemen op het gebied van SEO-analytics. Een plotse stijging of daling in je de statistieken van je Google Analyticsdashboard? Dan kijk je maar beter grondig na of er geen technische oorzaak aan de basis ligt. Zo vermijd je foutieve analyses die tot verkeerde businessbeslissingen kunnen leiden. Een concreet voorbeeld (zie afbeelding): 

Verdere analyse van de bovenstaande case toonde al gauw aan dat er iets niet in de haak was. Het aantal unieke bezoekers was dan wel de hoogte ingeschoten, maar alle sitebezoeken kwamen voort uit direct verkeer. Dat was verdacht. In principe komen traffic spikes voornamelijk voort uit klassiek zoekverkeer of een doorverwijzing via een link op een andere website.

Het werd al snel duidelijk dat het verdachte extra verkeer het gevolg was van een update van de EU Cookie Compliance-module.

Oplossing

In de case hierboven was een eenvoudige aanpassing in de configuratie van Google Analytics voldoende om de onjuiste data te corrigeren. In het algemeen is het een goede regel om een regelmatige controle in te plannen van alle analytics. Zo detecteer je anomalieën voor het te laat is.

Pageviews stijging

Conclusie

Maak het verschil met je SEO

Met de tips hierboven pak je een meerderheid van de SEO-valkuilen in Drupal aan. Anticiperen blijft de boodschap: grondige analyse en configuratie op voorhand vermijden een heleboel problemen. Daarnaast is elke businesscase of website uiteraard uniek. Dat verdient een aanpak op maat. Een grondige SEO-audit zet je op weg om je website voor én achter de schermen te optimaliseren. Dat zorgt voor concrete meerwaarde én een concurrentievoordeel.

Praten met het SEO-team van Dropsolid?