SEO. Het is misschien wel het meest belangrijke van elke nieuwe en bestaande website op het web. Het zorgt ervoor dat jouw pagina makkelijk te vinden is en gevonden kan worden door iedereen.
Als je je in SEO verdiept hebt, of aan het verdiepen bent, dan zul je misschien de term cloaking wel tegen het lijf zijn gelopen.
Cloaking is dan ook iets wat veel gebruikt wordt bij pagina’s die normaal gesproken sneller uit een zoekmachine weg worden gelaten. Dit kan zijn omdat ze content bevatten die tegen de richtlijnen van de zoekmachine gaan zoals aanstootgevende foto’s, pornografie of berichten die aanzetten tot haat/discriminatie.
Maar wat is cloaking precies? En is het echt zo sinister als dat het klinkt?
In dit artikel gaan we erachter komen wat cloaking precies is en hoe het internet hierdoor beïnvloed wordt!
Inhoudsopgave
Een betere kijk
De naam alleen al klinkt wat onheilspellend; cloaking. Als we het letterlijk gaan vertalen uit het Engels betekent het ook verhullen. Dus het is niet gek dat het een beetje verdacht klinkt.
Met cloaking worden de zoekmachines eigenlijk voor de gek gehouden. De zogeheten spider, deze indexeert de websites voordat zij gedeeld worden op de zoekmachines, krijgt andere content te zien dan de menselijke bezoeker.
Dit kan gerealiseerd worden door bijvoorbeeld verborgen tekst te plaatsen op een webpagina die alleen zichtbaar is voor de zoekmachines. Op deze manier kunnen de websites alsnog een goede SEO hebben en worden deze alsnog hoog geplaatst in de zoekresultaten.
Deze techniek noemen we binnen de SEO ook wel Black Hat SEO. Black Hat SEO is het negatief beïnvloeden van de algoritmes van de zoekmachines. Het doel hiervan is om de zoekmachine te misleiden en de pagina’s hoger uit de zoekmachine te laten komen.
Hoe werkt cloaking?
De truc van cloaking is dus het voor de gek houden van deze spider. Maar hoe wordt dat gedaan?
Als een spider een webpagina bekijkt dan wordt automatisch een zogeheten User-Agent Header gekoppeld. Elke zoekmachine heeft zo een User-Agent Header en deze hebben ook allemaal hun eigen unieke naam.
Zodra de website waar de spider opzit ziet dat deze verbinding heeft gemaakt met de User-Agent Header van bijvoorbeeld Google, de zogeheten Googlebot, dan wordt er een ander soort content gepresenteerd dan dat er daadwerkelijk te vinden is.
De website houdt vervolgens bij wie deze Spider was en met welke User-Agent Header deze in verbinding stond. Zo zorgt de website ervoor dat de zoekmachine denkt dat de content wel pluis zit, terwijl het eigenlijk iets compleet anders kan zijn.
Gevolgen van cloaking
Cloaking is inmiddels ook een behoorlijk oude, maar nog steeds veel toegepaste manier voor websites om een goed voetje te halen binnen de zoekresultaten. Maar gelukkig leven we in een wereld waar dit soort praktijken regelmatig ontdekt en ontmanteld worden.
Elke zoekmachine maakt gebruik van algoritmes om de beste content te kunnen laten zien. Deze algoritmes worden om de haverklap ook geüpdatet met de nieuwste technieken om cloaking te herkennen en deze websites uit de lucht te halen.
Maar daar eindigt het niet. De gesloten websites komen op een zwarte lijst van de zoekmachines te staan. Hierdoor komen ze dus helemaal niet meer voor in de resultaten. Het maakt voor de zoekmachines niet uit wat voor een website of bedrijf je bent, ze zorgen ervoor dat jouw pagina nooit meer op de zoekmachines verschijnt.
Conclusie
Er zijn immens veel verschillende websites actief op het internet. Miljoenen pagina’s met content die allemaal willen dat jij ernaar kijkt. Om ervoor te zorgen dat jij hun website bezoekt maken zij gebruik van veel verschillende SEO-technieken. Met deze SEO-technieken kunnen zij ervoor zorgen dat de zoekmachines makkelijker en sneller jouw website zullen laten zien in de zoekresultaten.
Elke zoekmachine heeft natuurlijk een set met regels en richtlijnen waar websites aan moeten voldoen om te verschijnen in deze resultaten.
Met cloaking worden de onderzoekende spiders van de zoekmachines voor de gek gehouden. De spiders controleren de content namelijk en als deze in strijd is met de richtlijnen dan komt deze niet in de zoekmachines.
Maar als een website gebruikmaakt van cloaking krijgt deze spider een ander beeld te zien. Dit wordt gedaan door het tactisch indelen van de SEO, zogeheten Black Hat SEO. Hierdoor kunnen websites makkelijker potentiële schadelijke of aanstootgevende content toch in de zoekmachines naar voren laten komen.
Gelukkig worden de algoritmes van de zoekmachines regelmatig geüpdatet en worden er dagelijks duizenden ‘gecloakte’ websites uit de lucht gehaald.
Dit zorgt ervoor dat de zoekmachines een stuk veiligere omgeving zijn voor iedereen en het internet een fijne plek blijft.

Jouw website op de 1e pagina van Google?
Begin direct met het optimaliseren jouw website!