Aan de slag met SEO: zoekmachine optimalisatie voor beginners

Page 1

aan de slag met

SEO zoekmachine optimalisatie voor beginners Inzichten in de technieken en processen om een website te optimaliseren voor zoekmachines en bezoekers – eenvoudig uitgelegd en aangevuld met voorbeelden, cases en stap-voor-stap instructies.

1


Aan de slag met SEO Zoekmachine optimalisatie voor beginners

Deze gids werd samengesteld door Kevin Vertommen ter promotie van Fuseo – online marketing voor bedrijven. Contactgegevens Fuseo: Welvaartstraat 62 2590 Berlaar (België) T: 0472 52 66 11 W: www.fuseo.be E: hello@fuseo.be

Alle rechten voorbehouden. Behoudens de uitdrukkelijke bij wet bepaalde uitzonderingen mag niets van deze uitgave worden verveelvoudigd op welke wijze dan ook, zonder voorafgaande toestemming van de auteur.

Hoewel deze gids met zorg samengesteld werd, is de auteur niet verantwoordelijk voor fouten, onvolledige informatie of schade die kan voortkomen uit het toepassen van onderstaande technieken.

Met dank aan Nikki De Graaf, Pieter-Jan Vanneste en Mattias Vercauteren voor de feedback.

2


Index Introductie

4

Het Internet & Zoekmachines

6

Toegankelijkheid

15

URL Structuur

25

Meta Tags

35

Duplicate Content

40

Sitemaps

51

Afbeeldingen

60

Paginering

65

Inhoudelijke Optimalisatie

70

Lokale SEO

84

Social Snippets

90

Structured Data

102

Link Building

112

Authorship

125

Mobile SEO

132

Site Speed

139

Resultaten Meten

148

Conclusie

152

SEO Checklist

159

Veelgestelde Vragen

165

SEO Tools

174

Verklarende Woordenlijst

181

3


Introductie Er zijn weinig zaken die zo’n grote invloed op de maatschappij hebben gehad als de geboorte van het internet. Heel wat individuen en bedrijven kunnen vandaag de dag geen leven zonder het wereldwijde web meer inbeelden. De meesten onder ons gebruiken dit medium dan ook dagelijks voor hun werk of om te ontspannen. Sinds de eerste webpagina in 1990 is het aantal websites explosief toegenomen. Volgens sommige schattingen zijn er op dit moment meer dan 635 miljoen websites online. Hier komen jaarlijks ongeveer 51 miljoen exemplaren bij. Deze tendens is te wijten aan twee factoren; enerzijds zien steeds meer bedrijven de mogelijkheden van het web op het vlak van marketing, customer support en e-commerce, daarnaast zijn er steeds meer particulieren die zelf een website/blog oprichten. Dankzij allerlei content management systemen en (gratis) tools was het nooit makkelijker om zelf een website op te richten. Al snel besefte men dat er geld kon verdiend worden op het web. Het nut van een groot aantal converterende bezoekers was al snel duidelijk. Om meer inkomsten te vergaren, ging men op zoek naar technieken om meer bezoekers aan te trekken. Met behulp van search engine optimization (SEO) wil men hiervoor zorgen.

4


Er is al heel wat geschreven omtrent SEO. Je zou zelfs kunnen zeggen dat er een overdosis aan informatie is. In sommige gevallen wordt er foutieve of tegenstrijdige informatie gecommuniceerd. Het is dan ook geen verrassing dat heel wat webmasters door de bomen het bos niet meer zien. In deze gids krijg je een stap-voor-stap uitleg omtrent verschillende SEO technieken – van de toegankelijkheid van je site tot link building en content strategie. De informatie die je hier terugvindt is geenszins volledig. Deze gids is dan ook bedoeld als een korte introductie tot een aantal van de belangrijkste SEO-gerelateerde problemen. Daarnaast is dit een sector die erg onderhevig is aan verandering. Technieken die vandaag de dag aangeprezen worden, kunnen later misschien hun waarde verliezen. Dit is tevens een van de redenen waarom SEO een enorm interessante sector is - constante verandering zorgt ervoor dat zoekmachine optimalisatie nooit saai zal zijn.

5


Het Internet & Zoekmachines

De eerste zoekmachines Sinds de geboorte van het world wide web is men op zoek naar methoden om snel interessante pagina’s of bestanden te zoeken. Hierbij speelt de relevantie met betrekking tot de zoekopdracht een grote rol. Dit is waar de eerste zoekmachines vaak de mist in gingen. Begin jaren 90 werden de eerste zoekmachines gelanceerd. Archie, een programma dat ontwikkeld werd door Alan Emtage, Peter Deutsch en Bill Heelan, wordt aanzien als de eerste zoekmachine ter wereld. Het aantal zoekresultaten dat Archie kon tonen was erg beperkt. Al snel volgden er andere zoekmachines zoals Vlib, World Wide Web Wanderer en Excite. Vier jaar na de lancering van Archie zag Altavista het levenslicht. Altavista was de eerste zoekmachine die zoekopdrachten aanvaarde in een ‘natuurlijke taal’.

6


De geboorte van Google Een van de grootste mijlpalen op het vlak van zoekmachines is de geboorte van Google. In 1996 begonnen Larry Page en Sergey Brin, twee informaticastudenten aan de universiteit van Stanford, met de ontwikkeling van een nieuwe zoekmachine. De eerste versie van deze zoekmachine kreeg de naam ‘Backrub’. BackRub werd meer dan een jaar gebruikt op de servers van de universiteit, maar het programma slorpte uiteindelijk te veel bandbreedte op. Larry en Sergey waren genoodzaakt om te verhuizen. Tijdens hun verhuis besloten ze dat de zoekmachine een nieuwe naam nodig had. Na een brainstormsessie kozen ze voor de naam Google – een woordspeling op de term ‘googol’, een getal met honderd nullen. Deze naam is een reflectie van hun missie: het organiseren van een ogenschijnlijk oneindige hoeveelheid aan informatie. Zoals reeds gezegd waren Larry Page en Sergey Brin niet de enige programmeurs die een zoekmachine ontwikkelden. Het probleem van de concurrentie was de relevantie van hun zoekresultaten; deze liet vaak te wensen over. Larry en Sergey hadden een nieuw soort algoritme geschreven dat dit probleem oploste. In 1998 verkoos PC Magazine Google als de beste zoekmachine in hun Top 100 Websites.

“Google has an uncanny knack for returning extremely relevant results” PC Magazine Sindsdien ging het heel erg snel voor het bedrijf. Door de relevantere zoekresultaten, het minimalistisch design en nog een aantal andere factoren werd Google al snel de grootste zoekmachine ter wereld. Vandaag de dag is Google meer dan alleen een zoekmachine. YouTube, Android, Google Maps, Google Analytics, etc. zijn allemaal producten van het bedrijf.

7


Marktaandeel van zoekmachines In vergelijking met andere zoekmachines heeft Google in België een marktaandeel van ongeveer 97%. We kunnen dus gerust stellen dat het bedrijf de zoekmachinemarkt in België domineert. Daarom gebruiken we Google in deze gids vaak als voorbeeld. Onderstaande technieken zijn echter ook van toepassing op andere zoekmachines, zoals Bing en Yahoo. In sommige landen is Google niet de grootste zoekmachine. In China bijvoorbeeld, is Baidu marktleider. In de meeste Europese landen blijft Google echter koploper.

Hoe zoekmachines werken Het internet is ongelofelijk groot. Momenteel zijn er ongeveer 50 miljard pagina’s geïndexeerd. Zonder zoekmachines zou het onmogelijk zijn om in dit complex geheel de juiste informatie te vinden. Het spreekwoord ‘een speld in een hooiberg’ zou een understatement zijn. Zoekmachines scheppen orde in deze chaos. Door een gigantische index van al deze bestanden te maken, kunnen ze vliegensvlug de meest relevante pagina’s tonen. Dagelijks worden er nieuwe pagina’s toegevoegd, oude pagina’s geüpdate en irrelevante pagina’s verwijderd. Het web is een dynamisch geheel dat constant in verandering is. Zoekmachines hebben dus hulp nodig bij de analyse van deze pagina’s. Hiervoor gebruiken ze crawlers (ook soms spiders genoemd). Deze geautomatiseerde robots bezoeken allerlei bestanden op het web en indexeren ze.

8


Dit proces kan opgedeeld worden in drie fasen:

Ontdekking: het web kan je vergelijken met een gigantisch metronetwerk. Elke stopplaats is een bestand, terwijl de links tussen deze bestanden de metrolijnen vormen. Crawlers volgen deze links om nieuwe bestanden te ontdekken. Analyse & indexatie: alle pagina’s en bestanden die een crawler tegenkomt worden geanalyseerd. Deze informatie wordt opgeslagen in gigantische datacenters. Hierdoor kan deze info snel opnieuw geraadpleegd worden. Resultaten: wanneer je een zoekterm ingeeft, wordt er in de index gezocht naar de meest relevante pagina’s. Relevantie wordt bepaald aan de hand van een complex algoritme. De meest relevante pagina’s verschijnen in de zoekresultaten.

Hoe we zoekmachines gebruiken Begrijpen hoe en waarom men zoekmachines gebruikt, kan ons helpen bij de ontwikkeling van een sterke SEO strategie. Bij elke zoekopdracht hoort namelijk een intentie – de gebruiker wil informatie verkrijgen of een probleem oplossen. Op basis van deze intentie kunnen zoekopdrachten opgedeeld worden in drie groepen:

1) Directe zoekopdrachten Bij dit type zoekopdrachten wordt vaak de naam van een onderneming of een merk gebruikt. De gebruiker kent de correcte URL niet en gebruikt een zoekmachine om de juiste site te vinden.

9


2) Informatieve zoekopdrachten Bij dit type zoekopdrachten gaat men op zoek naar een antwoord op een vraag. Dit soort zoekopdrachten kan erg divers zijn, bijvoorbeeld een review van een nieuwe blockbuster, instructies om een autobatterij te vervangen of de route naar de dichtstbijzijnde McDonalds. 3) Transactionele zoekopdrachten Bij transactionele zoekopdrachten gaat de gebruiker op zoek naar een product of dienst. In dit geval is er een intentie om tot een aankoop over te gaan. Bij de zoekopdracht “iPhone 5 hoesje” bijvoorbeeld, is de kans groot dat de consument dit product voor zijn iPhone wil kopen.

Daarnaast is het belangrijk om te weten dat de zoektocht van een gebruiker uit meerdere stappen bestaat. Wanneer men via een zoekmachine op zoek gaat naar een product, dienst of informatie, is de kans groot dat men meerdere zoekresultaten bekijkt. Naargelang de kwaliteit van de gevonden pagina’s kan dit proces heel wat tijd in beslag nemen. Zulke sessies kunnen zelfs verspreid zijn over verschillende dagen. Uit een studie van ScanAlert blijkt dat 30% van de online transacties meer dan 24u na de initiële zoekopdracht plaatsvindt. Denk bijvoorbeeld aan de aankoop van een nieuwe smartphone waar men eerst een aantal merken en modellen vergelijkt voordat men tot een aankoop overgaat. Vaak wordt er in het begin van de zoeksessie een algemene zoekterm gebruikt (bv: ‘vliegvakantie’) die later verfijnt wordt (bv: ‘last-minute vakantie Djerba’). Tenslotte kunnen we ons niet meer focussen op een enkel apparaat. Vandaag de dag gebruikt men een mix van toestellen om online

10


informatie op te zoeken. Een zoeksessie is dus niet meer verbonden aan een specifiek toestel. Dit heeft ook implicaties op het vlak van SEO. Zoekopdrachten vanuit een mobiele apparaat (een smartphone of tablet) zijn meestal korter dan zoekopdrachten op een PC of laptop. Meer tips omtrent mobiele SEO vind je verder in deze gids.

De Search Engine Result Pages Van zodra men een zoekopdracht ingevoerd heeft, krijgt men een pagina met zoekresultaten te zien – de search engine result pages (SERP). Deze zoekresultaten kunnen in twee soorten opgedeeld worden: natuurlijke en gesponsorde zoekresultaten.

Gesponsorde zoekresultaten

Natuurlijke zoekresultaten

De gesponsorde zoekresultaten zijn advertenties van bedrijven. Deze vind je boven, naast en onder de natuurlijk zoekresultaten. Adverteerders betalen een bepaald bedrag per klik op een van deze advertenties. Natuurlijke zoekresultaten daarentegen worden samengesteld op basis van een zoekalgoritme. Het is een lijst met de meest relevante pagina’s voor een bepaalde zoekopdracht. Webmasters betalen geen geld voor gebruikers die dit soort pagina’s bezoeken.

11


SEO is enkel van toepassing op de natuurlijke zoekresultaten. De gesponsorde zoekresultaten worden via Google Adwords beheerd. Adwords is geen onderdeel van SEO en wordt hier dus niet besproken. Meer informatie over dit kanaal vind je op google.be/adwords. Na elke zoekopdracht krijg je 10 (in sommige gevallen slechts 7 of minder) natuurlijke zoekresultaten te zien. Deze resultaten worden gerangschikt op relevantie - de pagina die het best aan de zoekopdracht voldoet, wordt eerst getoond. Zoals we eerder al vermeld hebben, houdt Google rekening met meer dan 200 factoren om de positie van een pagina in de zoekresultaten te bepalen. Het doel van elke webmaster is om zo hoog mogelijk in deze resultaten te verschijnen. Des te hoger je pagina in de SERPs verschijnt, des te meer bezoekers je zal aantrekken. Uit een onderzoek van Compete en Kantar Media blijkt dat 53% van de gebruikers op het eerste zoekresultaat klikt. Het tweede en derde zoekresultaat heeft een CTR van respectievelijk 15% en 9%.

60

50

40

30

CTR

20

10

0 1e positie

2e positie

3e positie

4e positie

5e positie

Gemiddelde CTR van de eerste vijf natuurlijke zoekresultaten volgens Compete & Kandar Media.

12


SERP eye-tracking Allerlei bedrijven hebben reeds eye-tracking studies uitgevoerd op de zoekresultaten. Bij eye-tracking worden de bewegingen van het oog gevolgd. Hierdoor kan men bepalen welke elementen van een pagina een persoon al dan niet bekeken heeft. Het resultaat van een eye-tracking studie is een heat map, een visuele interpretatie van frequentiewaarden. Heat maps worden op het web vaak gebruikt om landingspagina’s te optimaliseren. Op deze manier kan men eenvoudig analyseren welke elementen van een pagina de aandacht trekken. Rode gebieden zijn erg populair, blauwe gebieden worden minder vaak bekeken.

13


Zoals verwacht vormt een heat map van Google een F-patroon. Gebruikers focussen zich op de eerste zoekresultaten en gaan zo het rijtje af. Zoekresultaten die lager op de pagina terug te vinden zijn, krijgen heel wat minder visibiliteit. Een hoge positie zorgt volgens dit model dus voor meer bezoekers. Bij deze bevindingen moeten we echter een kanttekening maken. Moderne zoekresultaten zien er heel wat anders uit. Ze worden namelijk aangevuld met extra informatie. Als je de zoekterm ‘foto klaproos’ gebruikt, krijg je meteen de correcte afbeeldingen te zien. Wanneer je op zoek gaat naar een ‘dokter’ toont Google een kaartje met de dichtstbijzijnde artsen.

Eind 2012 introduceerde Google de Google Cards. Deze ‘kaarten’ zorgen ervoor dat je niet meer door de zoekresultaten hoeft te bladeren. Als je naar ‘weather‘ zoekt, krijg je meteen de weersverwachtingen te zien op basis van je locatie. Bij bekende personen kan je rechts een Wikipedia-extract raadplegen en bij sportteams zie je de recentste uitslagen. Voorbeeld van een Google Card voor ‘weather’.

Al deze factoren beïnvloeden de CTR naar een pagina. Voor sommige zoekopdrachten is het niet meer nodig om een pagina te bezoeken. Het F-patroon wordt dus vertekend. Het doel van de meeste SEO’s is nog steeds om zo hoog mogelijk te scoren voor de juiste zoekwoorden.

14


Toegankelijkheid

Zoekmachines gebruiken crawlers om webpagina’s te analyseren en te indexeren. Aan de hand van links (href en src) ontdekken ze nieuwe pagina’s. Indien een pagina of bestand niet bereikbaar is, kan het uiteraard niet geïndexeerd worden. You can have the best Het zal dus niet in de zoekresultaten content in het world, verschijnen.

but if ain’t crawlable it

Maar in sommige gevallen wil je de toegang opzettelijk beperken. Denk won’t matter! maar aan vertrouwelijke pagina’s of pagina’s die nog niet afgewerkt zijn. Om de toegankelijkheid van je website voor zoekmachines te beheren kan je enerzijds een robots.txt bestand en anderzijds de robots meta tag gebruiken.

15


Toegankelijkheid van content Inhoud die perfect leesbaar is voor bezoekers is soms onzichtbaar voor zoekmachines. Omdat deze informatie voor crawlers niet toegankelijk is, wordt ze niet geïndexeerd en zal ze dus niet in de zoekresultaten verschijnen. Daarom is het aangeraden om de belangrijkste content via HTML te implementeren. HTML kan makkelijk door zoekmachines gelezen en geanalyseerd worden. Bij sommige andere elementen is dit niet het geval, bijvoorbeeld:

Afbeeldingen Zoekmachines zien dat er een afbeelding op de pagina gebruikt wordt op basis van de HTML code, maar ze kunnen de inhoud ervan niet analyseren. Ze weten dus niet of de afbeelding een foto van een bloem of van Barack Obama is. De oplossing voor dit probleem bespreken we later. Flash Op dit vlak zijn zoekmachines heel wat verbeterd. In het verleden was het voor crawlers vrijwel onmogelijk om Flash-bestanden te analyseren. Dit lukt vandaag de dag meestal wel. Toch is het best om belangrijke stukken content via HTML te implementeren. Audio / video Net zoals bij afbeeldingen kunnen zoekmachines de inhoud van een audio –of videobestand niet lezen. Zorg indien mogelijk dus voor een transcript; een uitgeschreven tekst van de dialoog in een audio-of videobestand.

16


Zie wat zoekmachines zien Zoals eerder al gezegd is het voor zoekmachines moeilijk (soms zelfs onmogelijk) om bepaalde elementen van een pagina te analyseren. Om deze elementen te identificeren is het interessant om een web pagina te bekijken door de ogen van een zoekmachine. Er zijn verschillende manieren om dit te doen. Enerzijds kan je de HTML code van een pagina bekijken. De meeste webbrowsers laten je toe om deze code te bekijken. › Google Chrome: rechtermuisknop > paginabron weergeven › Mozilla Firefox: rechtermuisknop > paginabron bekijken › Internet Explorer: rechtermuisknop > bron weergeven Daarnaast zijn er een aantal websites die je toelaten om je content te bekijken door de ogen van een crawler. Enkele voorbeelden hiervan zijn browseo en seo-browser. Tenslotte zijn er nog een hele reeks externe tools en browser plugins die je voor deze taak kan gebruiken. Een volledige lijst vind je in het SEO tools hoofdstuk.

17


Robots.txt Crawlers zijn workaholics; ze willen zoveel mogelijk pagina’s van je site analyseren en indexeren. Tenzij je hen dit verbiedt. Dit kan aan de hand van een robots.txt bestand. Wanneer een crawler je site bezoekt, gaat het eerst op zoek naar dit bestand. Hierin vindt het instructies omtrent de toegankelijkheid van bepaalde pagina’s. Je kan er dus voor zorgen dat een of meerdere pagina’s niet geïndexeerd worden. Dit is erg handig voor onafgewerkte pagina’s of pagina’s en bestanden die vertrouwelijke informatie bevatten. Daarnaast kan het ook een oplossing zijn voor duplicate content (meer hierover later). Er is echter enige voorzichtigheid geboden bij het implementeren van een robots.txt bestand. Een klein foutje kan al snel grote gevolgen hebben.

Een robots.txt bestand maken Een robots.txt bestand kan je eenvoudig zelf maken. Je hebt enkel een tekstverwerker nodig (bijvoorbeeld kladblok of Word). Het bestand bevat een lijst met pagina’s die niet geïndexeerd mogen worden. Elke geblokkeerde pagina bevat twee elementen: een user-agent en een disallow. Beide elementen moeten altijd samen gebruikt worden. › De user-agent bepaalt voor welke crawlers de disallow regel geldt. Het is mogelijk om alle crawlers aan te spreken (via een asterisk) of de crawler van specifieke zoekmachines (bijvoorbeeld Bing of Yahoo). › Het disallow-gedeelte bevat de locatie van de pagina’s of bestanden die niet geïndexeerd mogen worden.

18


Een robots.txt bestand kan er dus als volgt uitzien:

User-agent: * Disallow:

Bovenstaande code zorgt ervoor dat alle pagina’s van de website geïndexeerd mogen worden door alle zoekmachines. Het sterretje is van toepassing op alle crawlers en omdat we geen pagina’s in het disallow veld gespecificeerd hebben, mag de gehele website geïndexeerd worden. Wanneer we crawlers de toegang tot alle pagina’s willen ontzeggen, kunnen we een schuine streep gebruiken. Er zal dus geen enkele pagina in de zoekresultaten verschijnen:

User-agent: * Disallow: /

Zoals eerder vermeld, kunnen we ervoor kiezen om een specifieke crawler aan te spreken. Onderstaande voorbeeld zorgt ervoor dat Googlebot (de crawler van Google) de verborgen map niet indexeert:

User-agent: Googlebot Disallow: /verborgen-map/

Er zijn honderden crawlers die via de user-agent aangesproken kunnen worden. Een volledige lijst vind je op de web robots database.

19


Tenslotte kunnen we ook meerdere disallows aan een user-agent koppelen. Zo kunnen we een map, pagina en afbeelding voor Bing verbergen: User-agent: Bingbot Disallow: /verborgen-map/ Disallow: /pagina-naam.html Disallow: /afbeeldingen/foto.jpg

Wildcards Wildcards zijn een handige manier om snel specifieke pagina’s te selecteren. Voor sommige pagina’s is het onmogelijk om op voorhand de URL te kennen. In Wordpress bijvoorbeeld, worden zoekresultaten getoond op basis van volgende URL-structuur: http://website.be/?s=zoekterm. Deze structuur staat vast, enkel de zoekterm zal veranderen. Via een wildcard kunnen we ervoor zorgen dat pagina’s met zoekresultaten nooit geïndexeerd worden. Dit doen we aan de hand van een vast element in de URL van de zoekresultaten (?s=).

User-agent: * Disallow: /?s=

Wildcards kunnen ook gebruikt worden om bepaalde bestandstypen te verbergen. De code op volgende pagina zorgt ervoor dat geen enkele JPG afbeelding in de index van zoekmachines terecht komt. Een gelijkaardige techniek kan gebruikt worden voor PDF bestanden, video’s, etc. Het dollarteken duidt het einde van een URL aan.

20


smqkdljfqmsd

User-agent: * Disallow: /*.jpg$

Een robots.txt bestand testen De implementatie van een foutief robots.txt bestand kan voor heel wat problemen zorgen. Op deze manier hebben al een heleboel webmasters per ongeluk belangrijke pagina’s van hun website uit de zoekresultaten geweerd. Daarom is het interessant om op voorhand je bestand of aanpassingen te testen. Hiervoor kan Google Webmaster Tools gebruikt worden. Bij Crawl > Blocked URLs kan je controleren of je Robots.txt bestand naar behoren werkt. Indien nodig kunnen er nog aanpassingen gebeuren.

Wil je meer te weten komen over de mogelijkheden en invulling van een robots.txt bestand? Neem een kijkje naar de voorbeelden van andere websites. Voeg simpelweg /robots.txt toe aan de domeinnaam om het bestand te raadplegen. Wat dacht je van het robots.txt bestand van De Tijd, Coolblue of Belgium? Zelfs de robot.txt bestanden van Google, Facebook en Amazon kan je bekijken!

21


Robots meta tag Als alternatief voor het robots.txt bestand kan een robots meta tag gebruikt worden. Deze tag is erg handig om crawlers de toegang tot een individuele pagina te ontzeggen. Daarnaast kan je ervoor zorgen dat de pagina al dan niet gearchiveerd wordt en of de links op de pagina al dan niet gevolgd mogen worden. Net zoals andere meta tags, wordt de robots meta tag aan het <head> gedeelte van een website toegevoegd. Deze tag kan er als volgt uitzien: <head> <meta name=”robots” content=”noindex” /> </head>

Bovenstaande HTML code zorgt ervoor dat deze pagina niet geïndexeerd wordt. Naast noindex zijn er nog andere attributen die handig kunnen zijn: › Index: deze pagina mag geïndexeerd worden › Noindex: de pagina mag niet geïndexeerd worden › Follow: de links op deze pagina mogen PageRank doorgeven › Nofollow: de links mogen geen PageRank doorgeven › Archive: een cache-copy van de pagina is toegestaan › Noarchive: een cache-copy is niet toegestaan

Meerdere attributen kunnen in dezelfde robots meta tag gebruikt worden. Onderstaand voorbeeld zorgt ervoor dat de pagina niet geïndexeerd wordt en de inhoudelijke links niet gevolgd worden: <meta name=”robots” content=”noindex,nofollow” />

22


Maar wat gebeurt er indien je conflicterende attributen gebruikt, bijvoorbeeld een robots meta tag die zowel het index als noindex attribuut bevat? In dit geval kiest Google (en de meeste andere zoekmachines) de meest restrictieve optie. De pagina zal dus niet geïndexeerd worden.

Robots.txt of robots meta tag? Er zijn twee manieren om de toegang tot je pagina’s te beheren; enerzijds via een robots.txt bestand en anderzijds via een robots meta tag. Maar wat is nu de beste methode? Een robots.txt bestand is een efficiënte manier om snel een volledige map of specifieke bestandstypen te blokkeren. Met een klein stukje tekst kan je snel heel wat werk (en in sommige gevallen heel wat schade) verrichten. Om de toegang tot een handvol pagina’s te beperken, raden we aan om de robots meta tag te gebruiken. In sommige gevallen zal een pagina die in je robots.txt bestand staat nog steeds in de zoekresultaten verschijnen. Wanneer er voldoende links naar de pagina gericht zijn en Google gelooft dat het de meest relevante pagina is voor een zoekopdracht, bestaat de kans dat de pagina toch getoond wordt. Als je absoluut niet wil dat de pagina geïndexeerd wordt, gebruik je best de robots meta tag. Meer informatie vind je in deze video van Matt Cutts.

23


Toegankelijkheid Best Practices Zorg ervoor dat je belangrijkste content toegankelijk is voor zoekmachines. Onleesbare elementen kunnen niet geïndexeerd worden. Daarnaast kan je via een robots.txt of de robots meta tag bepaalde pagina’s of bestanden uit de index van een zoekmachine weren. Deze techniek kan gebruikt worden om bepaalde problemen op te lossen (bijvoorbeeld duplicate content, onafgewerkte pagina’s, vertrouwelijke informatie, etc.). Pagina’s die absoluut niet door ongeautoriseerde bezoekers bekeken mogen worden, blokkeer je best met een paswoord.

Tips: › › › › › ›

Vermijd dat irrelevantie pagina’s geïndexeerd worden (bijvoorbeeld zoekresultaten op een site of de printversie van een pagina). Zorg ervoor dat je niet per ongeluk belangrijke pagina’s of folders blokkeert. Test je robots.txt bestand voordat je het uploadt. Het robots.txt bestand kan gebruikt worden voor volledige (sub)folders, een robots meta tag is enkel van toepassing op de huidige pagina. Wildcards voegen extra flexibiliteit toe. Bepaalde elementen van een pagina kunnen door zoekmachines niet gelezen worden (afbeeldingen, video, audio, flash, etc.). Zorg ervoor dat je belangrijkste content toegankelijk is voor crawlers.

Links: › ›

Block or remove pages using a robots.txt file Robots.txt generator

24


URL Structuur URLs zijn de bouwstenen van het web. Ze worden gebruikt om de locatie van een bestand op het internet aan te duiden. Een URL is niet alleen handig voor gebruikers, maar ze is ook belangrijk voor zoekmachines. Bij de optimalisatie van een website moeten we dus rekening houden met de correcte URL structuur.

“A URL is humanreadable text that was designed to replace the numbers (IP addresses) that computers use to communicate with servers.”

25


De bouwblokken van een URL Een URL ziet er op het eerste zicht erg eenvoudig uit. Schijn bedriegt want een URL bestaat uit verschillende elementen: http://www.website.be/nieuws/artikel.html 1

1

2

3

4

1) Protocol In de eerste plaats wordt er een gepast protocol gedefinieerd. Het meest gebruikte protocol op het web is het hypertext transfer protocol (http). Andere vormen zijn het FTP en telnet protocol. Een URL kan dus voor verschillende doeleinden gebruikt worden. 2) Domeinnaam Op basis van de domeinnaam wordt een netwerk, computer, webserver, mailserver of andere toepassing geïdentificeerd. Domeinnamen verwijzen naar een IP adres, net zoals een naam in een telefoonboek naar een telefoonnummer verwijst. Zonder domeinnamen zou men dus het IP adres van een website moeten onthouden, bijvoorbeeld http://74.125.224.72 in plaats van http://google.com. Daarnaast bevat elke domeinnaam een top level domain (TLD). Dit is een domeinextensie die al dan niet aan een land gebonden is (.com, .be, .org…). Landgebonden domeinextensies worden ook country code top level domains of ccTLD’s genoemd. 3) Folders Sommige websites gebruiken subdirectories of folders om bestanden te groeperen. Een web shop kan bijvoorbeeld een folder voor broeken, hemden en schoenen hebben.

26


4) Bestandnaam Het laatste gedeelte van een URL bevat de bestandnaam. Dit kan het adres van een webpagina zijn (…/artikel.html), een afbeelding (…/foto.jpg), een PDF bestand (…/rapport.pdf), enz. Om een optimale URL structuur te ontwikkelen, moeten we rekening houden met drie elementen van een URL, namelijk: › Domeinnaam › Folders › Bestandnamen

Domeinnaam Je domeinnaam is je adres op het internet. Het is een belangrijk onderdeel van een URL en wordt vaak ook offline gecommuniceerd, bijvoorbeeld op visitekaartjes, flyers, en reclameborden. Deze domeinnaam wordt meestal voor meerdere jaren vastgelegd, wat ervoor zorgt dat het niet eenvoudig is om snel de domeinnaam van je onderneming te wijzigen. Je spendeert dus best wat aandacht aan de ontwikkeling van een domeinnaam. Een goede domeinnaam vinden is vaak moeilijker dan je denkt. Heel wat populaire domeinnamen zijn reeds bezet en worden soms voor een mooie winst verkocht. Daarnaast zijn er nog een aantal andere factoren waar je rekening mee moet houden.

Er is een hele industrie ontstaan rond de aankoop en verkoop van domeinnamen. Populaire domeinnamen wisselen voor handenvol geld van eigenaar. Zo werd insure.com voor $16 miljoen verkocht. De domeinen sex.com en fund.com brachten respectievelijk $14 miljoen en £10 miljoen op. Via Wikipedia.

27


Enkele tips om een goede domeinnaam te kiezen: Kort en krachtig Een goede domeinnaam is kort en krachtig, liefst een of twee woorden. Dit helpt je niet perse aan meer bezoekers, maar kan ervoor zorgen dat je domeinnaam makkelijker te onthouden is. Top Level Domain Er zijn honderden top level domains (TLD) in gebruik. De meest populaire hiervan is nog steeds een .com. Maar liefst 87% van de websites heeft een .com TLD, 6% een .org en 3% gebruikt een .net. Maar heeft een TLD een invloed op de rangschikking van je site? Nee - een TLD bepaald niet of het al dan niet een relevante website is. Er zijn andere factoren die de kwaliteit van een pagina bepalen. Een .com site heeft dus geen voordeel ten opzichte van een .net site. Er moet echter rekening gehouden worden met landgebonden TLDs, de zogenaamde country code top-level domains (ccTLD). Een websites met een domeinextensie die gelinkt is aan een land, zal lokaal beter scoren ten opzichte van sites van andere landen (zonder rekening te houden met andere factoren). In dit geval zal een .be site in de Belgische zoekresultaten beter scoren dan een .nl site. Google associeert ccTLDs automatisch met de bijhorende regio. Keywords Keywords in een domeinnaam kunnen de prestaties van je site in de zoekresultaten ten goede komen. Hier moet echter een kanttekening bij gemaakt worden. In het verleden was een exact-match domain (EMD) een eenvoudige manier om goed te scoren. Een EMD is een domeinnaam die sterk overeenkomt met een bepaalde zoekterm, bijvoorbeeld goedkopewintervakanties.be. Door een aantal updates aan het algoritme 28


van Google zijn deze dagen echter voorbij. Het is dus best om voorzichtig te zijn met het gebruik van keywords in je domeinnaam. Zoals het spreekwoord zegt: “overdaad schaadt”.

“We have looked at the rankings and weights that we give to keyword domains and some people have complained that we’re giving a little too much weight for keywords in domains. And so we have been thinking about adjusting that mix a little bit and sort of turning the knob down within the algorithm so that given two different domains, it wouldn’t necessarily help you as much to have a domain with a bunch of keywords in it.” Matt Cutts, hoofd van het Google Web Spam team.

Subfolders De meeste websites gebruiken subdirectories of subfolders om web pagina’s en bestanden te groeperen. Denk bijvoorbeeld aan een web shop die productgroepen gebruikt (…/tshirts/rode-shirt.html) of een blog die tijdsaanduidingen gebruikt (…/2013/05/26/artikel.html). Op het vlak van subdirectories is het aan te raden om beschrijvende termen te gebruiken in plaats van een willekeurige combinatie van letters en cijfers. Deze URL-structuur is niet alleen handig voor zoekmachines, maar ook voor bezoekers. Dit kan best aangetoond worden op basis van een voorbeeld. Welke versie van onderstaande URL verkies jij?

29


http://website.be/c126/prod126/ns055.html http://website.be/mannen/voetbal/nike-shirt.html De kans is groot dat je de tweede versie gekozen hebt. Op basis van de URL zien we onmiddellijk dat het gaat om een voetbalshirt voor mannen. Dit is niet het geval bij het eerste voorbeeld. Door beschrijvende termen te gebruiken helpen we niet alleen bezoekers, maar ook zoekmachines.

Subfolder of subdomein? Is het best om subfolders of subdomeinen te gebruiken? Ter illustratie; dit is het verschil tussen beide: › Subfolder: website.be/blog › Subdomein: blog.website.be Matt Cutts, hoofd van het web spam team bij Google, raadt ons aan om subfolders te gebruiken. Volgens hem worden subdomeinen soms als aparte domeinen aanzien, wat de nodige problemen met zich meebrengt. In sommige gevallen kan het echter interessanter zijn om subdomeinen te gebruiken. Voor bedrijven die verschillende nietgerelateerde producten of diensten aanbieden, kan het een oplossing zijn. Google gebruikt deze techniek zelf voor een aantal van haar diensten. Denk maar aan Google Maps (maps.google.com) en Google News (news.google.com).

30


Bestandnamen Een belangrijk onderdeel van een URL dat relatief eenvoudig aan te passen is, is de naam van een pagina of bestand. Het aanpassen van een domeinnaam is in veel gevallen onmogelijk, terwijl een nieuwe paginanaam veel minder tijd in beslag neemt. Zoekmachines houden bij de analyse van een site rekening met de naam van de pagina of het bestand. Net zoals bij subdirectories of subfolders, is het best om beschrijvende termen te gebruiken. Neem een kijkje naar onderstaande voorbeelden; welke versie verkies jij? http://website.be/producten/11648.html http://website.be/producten/canon-eos-400d.html De tweede versie draagt waarschijnlijk jouw voorkeur uit. Op basis van de paginanaam kunnen we concluderen dat het een pagina over de Canon Eos 400D camera is. Enkel op basis van de URL kunnen we dit niet zien in het eerste voorbeeld. Zoekmachines hebben hetzelfde probleem. Daarom is het best om keywords te gebruiken in plaats van een willekeurige combinatie van cijfers en letters. Vergeet niet om een 301-redirect naar de nieuwe URL in te stellen indien je de naam van een pagina of bestand aanpast. Dit is een permanente redirect waardoor bezoekers en zoekmachines naar de correcte pagina verwezen worden.

Woorden splitsen Je hebt misschien al gemerkt dat er vaak liggende streepjes (-) gebruikt worden om woorden in een URL te splitsen. Dit is de beste manier om een onderscheid te maken tussen aparte termen. Andere tekens, zoals underscores (_) en plustekens (+) worden best vermeden.

31


Deze separator komt ook de leesbaarheid van de URL ten goede. Een paginanaam waar alle woorden aan elkaar geschreven zijn, is nefast voor de gebruiksvriendelijkheid. Zowel voor bezoekers als zoekmachines is de selectie van de juiste separator belangrijk.

Ook bij de keuze van een domeinnaam denk je best twee keer na. Zo registreerde het bedrijf Who Represents de domeinnaam whorepresents.com. Om verwarring te vermijden hadden ze misschien beter voor who-represents.com geopteerd. Pen Island (penisland.net) en Les Bocages (lesbocages.com) hebben hetzelfde probleem. Woorden op een correcte manier splitsen kan dus wonderen doen.

Zoekresultaten Vergeet niet dat de URL van een pagina in de zoekresultaten getoond wordt. Net zoals bij de titel en omschrijving van een pagina worden keywords die met de zoekopdracht overeenkomen in het vet weergegeven. Ze kunnen dus de click-through rate (CTR) naar de pagina verhogen.

Redirects Een redirect wordt gebruikt indien een bestand naar een nieuwe locatie (URL) verhuisd is. Dankzij deze redirect worden bezoekers automatisch naar de nieuwe pagina gebracht. Zoniet zouden ze een 404-fout te zien krijgen. Er zijn verschillende momenten waarbij het gebruik van een URL redirect aanbevolen is: › de implementatie van een nieuwe sitestructuur, bijvoorbeeld bij een website redesign. › het hernoemen van een bestand (web pagina, foto, video, etc.) › consolidatie van verschillende pagina’s op een pagina.

32


Dankzij een redirect weten zoekmachines dat het originele bestand, dat zich al dan niet reeds in de index bevindt, op een andere locatie gevonden kan worden. Hiervoor zijn er twee soorten redirects die we kunnen gebruiken: › 301 – moved permanently › 302 – moved temporarily Beide redirects zorgen voor hetzelfde resultaat maar worden anders geïnterpreteerd door zoekmachines. Bij een 301 redirect wordt het bestand permanent verplaatst naar een nieuwe locatie. Dit zorgt ervoor dat alle link juice naar de nieuwe URL wordt overgebracht. De oude URL wordt tevens uit de index verwijderd en vervangen door de nieuwe versie. Een 302 redirect daarentegen, zorgt er niet voor dat de autoriteit die de originele pagina heeft opgebouwd overgedragen wordt naar de nieuwe URL. Er wordt verwacht dat de oude URL in de toekomst opnieuw beschikbaar zal zijn. De oude pagina blijft in de index en kan dus concurreren met andere pagina’s. Bijvoorbeeld: Stel dat we een website (domein.be) naar een nieuwe domeinnaam verhuizen (nieuwedomein.be). Indien we een 302 redirect op de originele website gebruiken, moeten we de autoriteit van de nieuwe domeinnaam vanaf nul opbouwen. Bij een 301 redirect wordt een groot deel van de autoriteit naar de nieuwe website overgedragen. Dit kan je heel wat SEO-werk besparen.

33


URL Structuur Best Practices Het nut van een goede URL structuur is niet te onderschatten. Het komt zowel bezoekers als zoekmachines ten goede. Daarom houden we als SEO rekening met de domeinnaam, folders en bestandnamen.

Tips:

Gebruik beschrijvende termen in je URL. Splits deze termen met een liggend streepje (-). Kies een kort en krachtige domeinnaam. Stel een 301-redirect in als je de locatie of naam van een bestand verandert. Vermijd een overdaad aan keywords in een URL.

› › ›

SEO friendly URLs URL structure (Google Webmaster Tools) 301 Redirects

› › › ›

Links:

34


Meta Tags Meta tags

Er is heel wat verwarring omtrent de invloed van meta tags op de rangschikking van een website. Sommige meta tags waren in het verleden erg krachtig maar hebben in de loop van de jaren hun nut verloren. Andere tags hebben nog steeds een meerwaarde op het vlak van zoekmachine optimalisatie.

“Meta tags are the HTML or XHTML elements used to provide structured metadata about a web page.”

35


Wat zijn meta tags? Meta tags geven zoekmachines meer informatie over een pagina. Het is een vorm van impliciete informatie, wat wil zeggen dat ze niet zichtbaar is voor bezoekers (althans niet rechtstreeks). Ze worden gebruikt door zoekmachines, browsers en andere online diensten. Meta tags vind je in het <head> gedeelte van de HTML code. Er zijn verschillende soorten meta tags. Sommige hiervan hebben nog enige SEO-waarde, terwijl andere nutteloos geworden zijn. Een overzicht van de belangrijkse meta tags:

Meta description tag Dit is een meta tag die niet mag ontbreken. De meta description tag bevat een korte omschrijving van de inhoud van de pagina. Deze omschrijving kan uit een aantal zinnen of een korte paragraaf bestaan. Een meta description is best niet langer dan 160 tekens. Een langere omschrijving wordt niet volledig weergegeven. Om ze te implementeren gebruik je onderstaande code in de <head> van de site: <meta name=”description” content=”Hier komt een korte omschrijving van de inhoud van de pagina.” />

De meta description tag had vroeger een invloed op de rangschikking van een pagina maar dit is vandaag de dag niet meer het geval. Nochtans kan deze meta tag nog steeds nuttig zijn. Omdat de inhoud ervan in de zoekresultaten getoond wordt, kan het de click-through rate (CTR) naar de pagina verhogen. Het is een van de elementen waar gebruikers naar kijken om te beslissen of de pagina al dan niet relevant is voor hun zoekopdracht. Daarom is het best om keywords van de

36


pagina in de meta description te gebruiken. Wanneer ze overeenkomt met een zoekopdracht, wordt dit woord in het vet weergegeven. Dit verhoogt de kans dat men op de pagina klikt.

Voorbeeld van een meta description voor de zoekopdracht ‘interieurarchitect’. Omdat deze term in de titel en omschrijving gebruikt werd, wordt ze in het vet weergegeven.

Wanneer er geen meta description aanwezig is, zal Google zelf een korte omschrijving genereren. Dit kan in sommige gevallen voor rare, nietszeggende omschrijvingen zorgen. Het is dus best om voor elke pagina zelf een unieke meta description te schrijven. Maar zelfs als je wel een meta description gebruikt hebt, kan Google beslissen om zelf een omschrijving samen te stellen. Dit wordt gedaan indien er een relevantere omschrijving voor de zoekopdracht getoond kan worden dan de standaard meta description.

Meta robots tag Deze tag werd reeds besproken in een van voorgaande hoofdstukken. Via de meta robots tag bepaal je of de pagina al dan niet geïndexeerd en/of gearchiveerd mag worden. Je kan er ook voor zorgen dat de inhoudelijke links al dan niet gevolgd worden. De meta robots tag ziet er als volgt uit:

<meta name=”robots” content=”follow” />

37


Deze tag heeft ook enige SEO waarde. Ze is handig om problemen met duplicate content op te lossen en vertrouwelijke of irrelevante pagina’s uit de index te weren.

Title tag Hoewel de <title> niet echt een meta tag is, wordt ze vaak samen met andere meta tags vermeld. Deze code bevat de titel van de pagina en bevindt zich ook in het <head> gedeelte van de HTML: <title>Titel van de pagina</title>

De paginatitel is erg krachtig. Enerzijds is het een van de factoren waar zoekmachines mee rekening houden om de positie van een pagina te bepalen. Een goede paginatitel bevat dus het keyword van de pagina, liefst in het begin. Houd er rekening mee dat een paginatitel best niet langer is dan 70 tekens. Anderzijds wordt de inhoud van deze tag in de zoekresultaten getoond en heeft het dus een invloed op de CTR naar de pagina. De paginatitel moet de gebruiker overtuigen om er op te klikken. Er zijn heel wat tactieken die gebruikt worden om een aantrekkelijke paginatitel te schrijven. Sommige webmasters gebruiken lijstjes (‘Top 5 manieren om …’), overdrijven (‘De beste marketing tactieken…’), creëren curiositeit (‘Hoe ik een nieuwe klant bereikte met een flesje Cola’), enz.

Meta keywords tag Dit is een meta tag waar veel verwarring over bestaat. Enkele jaren geleden was dit nog een factor waar zoekmachines rekening mee hielden, maar dit is verleden tijd. De meta keywords tag heeft dus geen SEO waarde meer. Volgens sommige bronnen heeft het overmatig gebruik van deze tag zelfs een negatieve invloed.

38


Meta Tags Best Practices Er is heel wat verwarring omtrent het nut van meta tags. Op het vlak van SEO moet je met 3 meta tags rekening houden: de meta description, meta robots en title (hoewel dit niet echt een meta tag is, wordt ze vaak samen met andere meta tags vermeld).

Tips:

Gebruik een unieke meta description tag voor elke pagina. Beperk je meta description tot 160 tekens. Gebruik een unieke paginatitel voor elke pagina. Beperk de paginatitel tot 70 tekens. Gebruik keywords in je paginatitel en meta description op een natuurlijk manier. De meta keywords tag is overbodig.

› › ›

Improve snippets with a meta description makeover The anatomy of search results Are your titles irresistibly click worthy?

› › › › ›

Links:

39


Duplicate Content Een probleem dat op veel websites voorkomt is duplicate content. Vooral grote websites met honderden pagina’s hebben hier vaak last van. Maar waarom is dit een probleem en hoe kan het opgelost worden? In het volgende hoofdstuk lees je er alles over.

“To provide the best search experience, search engines will rarely show multiple duplicate pieces of content.”

40


Wat is duplicate content? Duplicate content, zoals je uit de term kan afleiden, zijn twee of meerdere pagina’s die er min of meer hetzelfde uitzien. Pagina A wordt dus aanzien als een kopie van pagina B. Dit probleem wordt veroorzaakt door de URL. Google ziet elke URL namelijk als een aparte pagina. Hierdoor worden onderstaande URLs aanzien als aparte pagina’s: › Originele pagina: website.be/tshirts › Gerangschikt op prijs: website.be/tshirts?order=asc Het enige verschil tussen deze pagina’s is de volgorde van de producten. Bij de tweede URL worden ze gerangschikt volgens een bepaalde parameter. Maar in principe bevatten beide pagina’s exact dezelfde inhoud. In theorie worden onderstaande voorbeelden dus ook als duplicaten aanzien, hoewel ze naar dezelfde pagina verwijzen: › http://www.website.be › http://website.be › http://website.be/index

Waarom duplicate content een probleem is Duplicate content zorgt voor verwarring bij zoekmachines. Het maakt het hen moeilijk om de meest relevante pagina te selecteren. Zoekmachines zullen nooit twee identieke pagina’s in de zoekresultaten tonen. Ze doen dit om de kwaliteit van hun diensten te garanderen. Het is immers niet interessant voor surfers om tweemaal dezelfde content terug te vinden. Daarnaast kan dit probleem er ook voor zorgen dat een pagina minder goed scoort. In plaats van een pagina met hoge autoriteit zijn er twee of meerdere pagina’s die suboptimaal presteren. Het is dus een SEO-gerelateerd probleem.

41


De oorzaak Duplicate content kan opzettelijk of per ongeluk gecreëerd worden. Ongeacht de oorzaak - het resultaat is hetzelfde. Een voorbeeld van duplicate content die opzettelijk gemaakt wordt is de printversie van een pagina. Wanneer deze printversie geïndexeerd wordt, kan het voor problemen zorgen. Daarnaast zijn er een aantal URL parameters die (vaak onbewust) zorgen voor problemen met duplicate content. URL parameters die frequent gebruikt worden zijn:

Session IDs Session IDs zijn variabelen die aan een URL worden toegevoegd om het gedrag van een bezoeker bij te houden. Zo kan deze persoon geïdentificeerd worden tijdens zijn bezoek aan verschillende pagina’s van een site. Session IDs werden vaak door webshops gebruikt om producten aan een winkelkarretje van de bezoeker te koppelen. Als alternatief kunnen er cookies gebruikt worden die op het toestel van de gebruiker zijn opgeslagen. Sorteerparameters Wanneer we over sorteeropties praten, denken veel mensen aan een online shop waar je producten op prijs, datum, rating … kan sorteren. Maar deze functie wordt op allerlei sites gebruikt, bijvoorbeeld op blogs, video sites, etc. Vaak komt de inhoud van deze pagina overeen met de originele versie – ze bevatten dezelfde producten/artikels/video’s… maar in een andere volgorde. Affiliate codes Affiliate codes worden gebruikt om een persoon (de referrer) te identificeren die een bezoeker aanbrengt. Wanneer deze bezoeker een bepaalde actie onderneemt (een PDF downloadt, een

42


bestelling plaatst, een video bekijkt…) krijgt deze referrer iets in ruil. Bijvoorbeeld; alle personen die via de link http://website.be/product?ref=ian een product bestellen, worden gelinkt aan de referrer (in dit geval ‘ian’). Deze persoon krijgt dan in ruil een percentage van de verkoop. Tracking Een gelijkaardig probleem zien we bij tracking parameters. Hierbij wordt er een code aan een URL verbonden die de verkeersbron identificeert. Via een tracking parameter kan je bijhouden waar je bezoekers vandaan komen. Deze URL parameter kan er als volgt uitzien: website.be/?source=newsletter. WWW Een van de oudste oorzaken van duplicate content, maar een die occasioneel nog voor problemen kan zorgen. Wanneer beide versies

van

een

website

(http://www.website.be

en

http://website.be) bereikbaar zijn, kan dit voor duplicate content problemen zorgen.

Duplicate content identificeren De makkelijkste manier om duplicate content te identificeren is via Google Webmaster Tools. Bij Search Appearance > HTML Improvements vind je een lijst met wederkerende paginatitels. Dit is vaak een indicator van duplicate content (elke pagina moet een unieke paginatitel hebben).

43


Als alternatief kan je de site:search operator in Google gebruiken. Hiermee vind je alle geïndexeerde pagina’s van een domein (vb: site:fuseo.be). Deze methode is erg handig als je vermoed dat een bepaalde pagina voor duplicate content zorgt. Als je onderaan het bericht “in order to show you the most relevant results, we have omitted some entries...” heb je waarschijnlijk last van duplicate content.

De oplossing Er zijn verschillende methoden om problemen met duplicate content op te lossen. Naargelang de oorzaak van het probleem kunnen een of meerdere oplossingen gebruikt worden. 301 redirect Een eenvoudige oplossing is de 301-redirect. Hierdoor worden bezoekers en zoekmachines van de dubbele pagina naar de originele pagina verwezen. De 301-redirect is een permanente redirect die ervoor zorgt dat alle link juice naar de originele pagina wordt overgebracht (in

44


tegenstelling tot een 302-redirect). Via deze methode kan er slechts een van beide pagina’s bezocht worden. Rel=canonical Aan de hand van deze tag kunnen we zoekmachines vertellen dat de huidige pagina een duplicaat is van een andere pagina. Indien pagina B een duplicaat is van pagina A, dan voegen we volgende code toe aan de <head> van pagina B: <link href=”http://website.be/pagina-a” rel=”canonical” />

Deze code zegt dat de originele versie van de pagina zich op website.be/pagina-a bevindt. Ze zorgt er ook voor dat alle SEO-signalen op de originele pagina gecumuleerd worden. De rel=canonical tag kan de rangschikking van een pagina dus een serieuze boost geven. In tegenstelling tot een 301-redirect, is de duplicate pagina nog steeds bereikbaar. Bezoekers kunnen dus beide pagina’s bekijken. Meta robots tag Door een meta robots tag met het noindex attribuut te implementeren, kunnen we ervoor zorgen dat de duplicate pagina niet geïndexeerd wordt. De pagina kan echter nog steeds rechtstreeks geraadpleegd worden door bezoekers. Omdat de pagina niet geïndexeerd mag worden, kan men de pagina echter niet via zoekmachines bereiken. URL rewriting In sommige gevallen kan de URL voor problemen zorgen. Stel dat er zowel de www als niet-www versie van een website geïndexeerd zijn. Via URL rewriting kunnen we ervoor zorgen dat elke URL automatisch naar een www-versie wordt herschreven. Zo ben je er zeker van dat er consistent dezelfde versie terug te vinden is.

45


Google Webmaster Tools Via Google Webmaster Tools (GWT) kan je aangeven of je de www of niet-www versie van je pagina’s verkiest. Google houdt hier rekening mee bij de indexatie van je website. Daarnaast kan je Google helpen bij het begrijpen van dynamische URL parameters. Google kan de meeste parameters correct implementeren, maar soms maakt het toch nog een aantal fouten. In GWT kan je via Crawl > URL Parameters aangeven hoe bepaalde parameters geïnterpreteerd moeten worden.

Vertalingen Een probleem dat gerelateerd is aan duplicate content zijn pagina’s die gericht zijn op een andere taalgroep. Stel dat een bedrijf een webshop heeft in België (webshop.be) en in Nederland (webshop.nl). Omdat er geen tijd is om unieke pagina’s te schrijven, gebruiken beide websites dezelfde content. Indien de Belgische webshop een hogere autoriteit heeft, kan het zelfs in Nederland beter scoren. Dit is waarschijnlijk niet wenselijk. Dit taalprobleem kan opgelost worden via de rel=”alternate” hreflang=”x” code. Hiermee vertellen we Google dat dezelfde content in een andere taal bestaat. Op de Belgische webshop (webshop.be) verwijzen we dan naar het Nederlandse equivalent. Onderstaande code voegen we toe aan de <head> van de site: <link rel="alternate" hreflang="nl-NL" href="http://webshop.nl/pagina.html" />

46


Zoals je ziet wordt er naar de Nederlandse pagina verwezen. Google weet nu dat die pagina in het Nederlands geschreven is en gericht is op Nederland (nl-NL). Op de Nederlandse pagina gebruiken we dan volgende code: <link rel="alternate" hreflang="nl-BE" href="http://webshop.be/pagina.html" />

Hier linken we naar de Nederlandstalige pagina voor Belgische bezoekers (nl-BE). Deze code gebruikt ISO 639-1 om de taal en ISO 3166-1 om de regio te identificeren. Internationale landingspagina’s Begin 2013 introduceerde Google de x-default hreflang annotatie. Deze code kan gebruikt worden voor internationale landingspagina’s. Veel internationale organisaties gebruiken landingspagina’s om bezoekers naar lokale pagina’s door te verwijzen. Hierdoor kan men content tonen die beter aan de noden van de doelgroep voldoet (denk maar aan prijzen, exclusieve producten, promoties…).

De internationale landingspagina van Apple.

47


Stel dat een internationaal bedrijf een aparte site voor verscheidene regio’s (waaronder de Verenigde Staten en het Verenigd Koninkrijk) heeft ontwikkeld. Deze sites hebben volgende URLs: › webshop.com – internationale landingspagina › webshop.com/en-us – voor klanten van de VS › webshop.com/en-uk – voor klanten van het VK Op de pagina van de VS en die voor het VK vinden we respectievelijk onderstaande codes: <link rel="alternate" hreflang="en-GB" href="http://webshop.com/en-uk" /> <link rel="alternate" hreflang="en-US" href="http://webshop.com/en-us" /> <link rel="alternate" hreflang="en-US"

href="http://webshop.com/en-us Een gelijkaardige code kunnen we niet gebruiken op de internationale landingspagina (webshop.com) omdat deze niet gelinkt is aan een specifieke regio. Hiervoor werd de nieuwe annotatie geïntroduceerd: <link rel="alternate" hreflang="x-default" href="http://webshop.com/" />

Deze code zorgt ervoor dat de internationale landingspagina getoond wordt indien er geen beter alternatief is. Hoe werkt dit in de praktijk? Indien een klant uit de Verenigde Staten van Amerika of het Verenigd Koninkrijk naar de webshop zoekt, komen ze op de juiste pagina terecht (webshop/en-us en webshop/en-uk respectievelijk). Maar als iemand uit Canada, België, Nederland, China … naar deze webshop zoekt, komen ze op de internationale landingspagina terecht. Dit komt omdat er geen lokale pagina gevonden werd voor deze landen. 48


Voorkomen is beter dan genezen Heel wat problemen met duplicate content kunnen voorkomen worden door op een consistente manier naar je pagina’s te linken. Als je de nietwww versie van je domein verkiest, zorg er dan voor dat al je links deze structuur volgen. Dit geldt zowel voor interne als externe links. Wees ook voorzichtig met het kopiëren van content van andere websites. Deze methode wordt maar al te vaak gebruikt om snel een groot aantal nieuwe pagina’s te maken. In sommige gevallen kan de uitkomst hiervan minder leuk zijn:

“In the rare cases in which Google perceives that duplicate content may be shown with intent to manipulate our rankings and deceive our users...the ranking of the site may suffer, or the site might be removed entirely from the Google index.”

49


Duplicate Content Best Practices Duplicate content is een probleem waar heel wat websites mee te maken hebben. Gelukkig bestaat er ook voor dit probleem een oplossing. Met behulp van een aantal aanpassingen kan je de rangschikking van een pagina een serieuze boost geven.

Tips: › › › › ›

Link op een consistente manier. Gebruik GWT om Google te helpen bij de interpretatie van URL parameters. Kies een www of niet-www versie in GWT. Gebruik een 301-redirect, rel=canonical, meta robots tag of URL rewriting om problemen met duplicate content op te lossen. Zorg ervoor dat al je pagina’s unieke content hebben (kopieer geen content van andere websites).

Gebruik de rel=alternate hreflang annotatie voor pagina’s die op een bepaalde regio gericht zijn.

› › › › ›

Rel=”canonical” Rel=”alternate” hreflang=”x” International landing pages URL rewriting: www of niet-www versie Hreflang tag generator

Links:

50


Sitemaps Sitemaps

Sommige websites bieden hun bezoekers een HTML Sitemap aan - een webpagina met de structuur van de site in de vorm van links. Er is echter nog een tweede soort Sitemap, namelijk de XML Sitemap. Deze wordt enkel door zoekmachines gebruikt.

“Sitemaps are an easy way for webmasters to inform search engines about pages on their sites that are available for crawling.”

51


Het nut van een Sitemap Een Sitemap is erg handig voor de indexatie van je website. Zoekmachines gebruiken dit bestand wanneer ze een website crawlen. Deze Sitemap kan vergeleken worden met een wegenkaart. Aan de hand hiervan kunnen zoekmachines controleren of ze alle pagina’s gevonden hebben. Normaal gezien gebruiken crawlers links (href of src) om alle pagina’s te ontdekken, maar in sommige gevallen glipt er een pagina door de mazen van het net. Een Sitemap zorgt er dus voor dat een crawler alle pagina’s bezoekt, ook de pagina’s die het anders niet gevonden had. Vooral voor websites met een groot aantal nieuwe of geüpdate pagina’s is een Sitemap interessant. Dit zorgt ervoor dat crawlers deze pagina’s sneller ontdekken, wat het indexatieproces versnelt. Er moet echter rekening gehouden worden met het feit dat een Sitemap geen garantie is dat de pagina in de zoekresultaten verschijnt. Het helpt zoekmachines enkel bij het beter begrijpen van de structuur van de site.

Soorten Sitemaps Zoals reeds gezegd zijn er verschillende soorten Sitemaps. Een HTML Sitemap is de meest bekende variant. Dit is een aparte pagina die de structuur van de site bevat in de vorm van links. Deze pagina is niet alleen nuttig voor bezoekers, maar ook voor zoekmachines. Een XML Sitemap daarentegen, wordt enkel door zoekmachines gebruikt. Alle grote zoekmachines (Google, Bing en Yahoo) gebruiken dit bestand om de structuur van de website beter te begrijpen. Tenslotte kan je ook een RSS feed gebruiken als Sitemap. Google accepteert namelijk ook een RSS 2.0 of Atom 1.0 feed. Het nadeel van deze techniek is dat oudere pagina’s vaak weggelaten worden.

52


Een XML Sitemap Maken Een XML Sitemap is vrij eenvoudig te maken. Het grote voordeel van dit bestand ten opzichte van een HTML versie is dat je extra informatie kan toevoegen in de vorm van metadata. Stap 1 Creëer een nieuw tekstbestand, geef het de naam ‘sitemap’ en sla het op met een .xml extensie. Stap 2 Nu moeten we zoekmachines duidelijk maken hoe dit bestand gelezen moet worden. Dit doen we aan de hand van volgende code: <?xml version="1.0" encoding="UTF-8"?> <urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"> </urlset>

Stap 3 Van zodra zoekmachines weten dat het om een Sitemap gaat, kunnen we de verschillende pagina’s toevoegen. We doen dit net voor de </urlset> tag. Een pagina kan er in een Sitemap als volgt uitzien:

<url> <loc>http://www.website.be/pagina</loc> <lastmod>2013-10-10</lastmod> <changefreq>daily</changefreq> <priority>1</priority> </url>

Er kunnen dus telkens 4 attributen toegevoegd worden, waarvan enkel <loc> verplicht is (<lastmod>, <changefreq> en <priority> zijn optioneel). 53


› <loc> bevat de URL van de pagina. › <lastmod> is de datum van de laatste aanpassing aan de pagina. › <changefreq> is de gemiddelde aanpassingsfrequentie van de pagina (hourly, daily, weekly, monthly of yearly). Gebruik ‘never’ voor gearchiveerde pagina’s. › <priority> kan gebruikt worden om een prioriteit te bepalen en is een getal tussen 0,0 en 1,0. De standaard prioriteit van een pagina is 0,5. Een hoger cijfer geeft de pagina een hogere prioriteit en vica versa. Elke pagina een maximum prioriteit geven (1,0) zorgt niet voor een betere rangschikking omdat de prioriteit relatief is (ze wordt enkel gebruikt om te differentiëren tussen interne pagina’s). Stap 4 Nadat we alle pagina’s aan de Sitemap toegevoegd hebben, is het tijd om het bestand naar de hosting server te uploaden. Een XML Sitemap moet aan de root directory van een site toegevoegd worden, bijvoorbeeld website.be/sitemap.xml. Beperkingen Bij de creatie van een XML Sitemap moet je met volgende beperkingen rekening houden: › › › ›

Alle URLs moeten van hetzelfde domein komen. De maximum lengte van een URL is 2048 tekens. Een Sitemap kan maximum 50000 URLs bevatten. De maximum grootte van een Sitemap is 50 MB.

Wanneer de Sitemap te groot is (meer dan 50000 URLs of groter dan 50 MB) kan je het bestand opsplitsen. In dit geval moet er een Index Sitemap gemaakt worden. Dit is een Sitemap die de kleinere Sitemaps verzamelt:

54


sdf

<?xml version="1.0" encoding="UTF-8"?> <sitemapindex xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"> <sitemap> <loc>http://www.website.be/sitemap1.xml </loc> </sitemap> <sitemap> <loc>http://www.website.be/sitemap2.xml </loc> </sitemap> </sitemapindex>

In theorie kan een Sitemap naar 50000 kleinere Sitemaps linken (wat in principe dus meer dan genoeg is).

Video Sitemap Het is ook mogelijk om een Sitemap voor video’s te maken. Video’s kunnen aan een gewone XML Sitemap toegevoegd worden of ondergebracht worden in een apart bestand.

Houd er rekening mee dat Google enkel video’s kan indexeren met volgende bestandstypen: wmv, mp4, mpeg, mpg, m4v, asf, flv, swf, avi en ram.

Een Video Sitemap lijkt erg op de originele versie, maar bevat een aantal extra tags. In de eerste plaats zorgen we ervoor dat het bestand als een Video Sitemap aanzien wordt: <urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9" xmlns:video="http://www.google.com/schemas/sitemapvideo/1.1">

55


Nadien voegen we de URL toe van de pagina waar de video kan gevonden worden. Net zoals bij een gewone XML Sitemap gebruiken we hier de <loc> tag voor: <url> <loc>http://website.be/pagina</loc> </url>

Het is mogelijk om een thumbnail van de video toe te voegen. Deze afbeelding kan in de zoekresultaten getoond worden. Hiervoor moeten we onderstaande code voor de </url> tag toevoegen: <video:video> <video:thumbnail_loc>http://website.be/thumbnail.jpg </video:thumbnail_loc> </video:video>

Daarnaast kan ook een titel en korte omschrijving aan de Sitemap toegevoegd worden. Deze code moeten we voor de </video:video> tag plaatsen: <video:title>Video Titel</video:title> <video:description>Een korte omschrijving van de video</video:description>

Wat we zeker niet mogen vergeten is de locatie van het videobestand (denk eraan dat slechts enkele bestandtypen geaccepteerd worden). Vergeet ook niet de lengte van de video te vermelden (in seconden): <video:content_loc>http://www.website.be/video.mp4</vid eo:content_loc> <video:duration>120</video:duration>

56


Kijk nog even na of alle tags gesloten zijn (<url> en <urlset>) voordat je het bestand opslaat.

Image Sitemap Naast een Sitemap voor video’s is het mogelijk om een aparte versie voor afbeeldingen te maken. Dit verhoogt de kans dat jouw afbeeldingen in Google Image Search vertoond worden. De Image Sitemap moet eerst en vooral geïdentificeerd worden als een Image Sitemap. Onderstaande code wordt hiervoor gebruikt: <?xml version="1.0" encoding="UTF-8"?> <urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9" xmlns:image="http://www.google.com/schemas/sitemapimage/1.1"> </urlset>

Daarna kunnen de afbeeldingen opgelijst worden. De afbeeldingen worden per pagina (URL) gegroepeerd. Je kan meerdere afbeeldingen per pagina toevoegen (maximum 1000). Onderstaande voorbeeld is van een pagina die twee afbeeldingen bevat: <url> <loc>http://website.be/pagina</loc> <image:image> <image:loc>http://website.be/afb1.jpg</image:loc> </image:image> <image:image> <image:loc>http://website.be/afb2.jpg</image:loc> </image:image> </url>

57


De laatste stap Nu dat we onze Sitemap(s) gemaakt hebben, is het tijd om zoekmachines op de hoogte te brengen. Je kan dit doen via Google en Bing Webmaster Tools. Ga in GWT naar Crawl > Sitemaps en gebruik de Add Sitemap knop. In Bing gebruik je de Sitemap Widget en klik je op de ‘Submit a Sitemap’ knop. Als alternatief kan je de locatie van je Sitemap in je robots.txt bestand vermelden, bijvoorbeeld: Sitemap: http://website.be/sitemap.xml

58


Sitemap Best Practices Sitemaps zijn niet alleen handig voor bezoekers, maar ook voor zoekmachines. Zorg er daarom voor dat er een XML Sitemap aanwezig is. Naast een algemene Sitemap kan je ook een specifieke Sitemap voor video’s en afbeeldingen creëren. Tips: › › › ›

Maak een HTML Sitemap voor bezoekers. Maak een XML Sitemap voor zoekmachines. Daarnaast kan je een Video Sitemap en Image Sitemap maken. Vermeld de locatie van je Sitemap in je robots.txt bestand of via Webmaster Tools.

› ›

Google Sitemap Generator About Sitemaps

Links:

59


Afbeeldingen Bijna elke webpagina bevat afbeeldingen. Het web staat dan ook vol met foto’s, illustraties, icoontjes en dergelijke. Helaas kunnen crawlers de inhoud van een afbeelding niet analyseren. Maar met behulp van een aantal kleine aanpassingen kan je ervoor zorgen dat afbeeldingen geoptimaliseerd zijn voor zoekmachines.

“You may not realize this, but images can generate a ton of traffic from image-based search engines.”

60


Het probleem van afbeeldingen Zoekmachines hebben een probleem met afbeeldingen; ze kunnen ze niet zien. Crawlers zien wel dat er een afbeelding op de pagina gebruikt wordt aan de hand van de HTML code, maar ze kunnen de inhoud ervan niet interpreteren. Stel dat we op basis van onderstaande code deze foto van Otis Blank op een pagina plaatsen: <img src=”http://website.be/DSC12264.jpg”>

Bovenstaande code is de informatie die zoekmachines te zien krijgen. Bezoekers zien onderstaande foto:

Iedereen kan zien dat het een afbeelding van een auto is (een Lamborghini Miura om precies te zijn). Zoekmachines zien enkel de URL van de afbeelding. Voor zover zij weten, gaat het om een afbeelding van Madonna of een vrachtvliegtuig. Aan de hand van een alt-attribuut en een correcte bestandnaam kunnen we zoekmachines helpen bij de interpretatie van afbeeldingen.

61


Alt attribuut Het alt-attribuut toont een alternatieve tekst indien de afbeelding niet kan weergegeven worden (door een fout, trage internetverbinding, screen reader…). Dit is niet alleen handig voor bezoekers, maar ook voor zoekmachines. Ze gebruiken deze informatie om de afbeelding te analyseren. Als we een alt-omschrijving aan de voorgaande afbeelding toevoegen, ziet de code er als volgt uit: <img src=http://website.be/DSC12264.jpg alt=”Rode Lamborghini Miura”>

Een alt-omschrijving bevat dus een korte omschrijving van de inhoud van de afbeelding. Daarnaast kan je best het keyword van de pagina in de alt-omschrijving verwerken. Wanneer je via een afbeelding naar een andere pagina linkt, wordt het alt-attribuut op dezelfde manier behandeld als de anchor text van een tekstlink. Het is echter best om geen afbeeldingen voor de navigatie van je website te gebruiken indien deze vervangen kunnen worden door tekstlinks.

Bestandnaam We kunnen nog een stap verder gaan in de optimalisatie van afbeeldingen door ze een beschrijvende bestandnaam te geven. Vaak hebben afbeeldingen een nietszeggende benaming, zoals DSC0013.jpg of untitled2.jpg. Het is beter om een omschrijvende term te gebruiken. Deze afbeelding van een Lamborghini kan dan bijvoorbeeld lamborghinimiura.jpg worden. Net zoals bij een URL is het aangeraden om liggende streepjes (-) in een bestandnaam te gebruiken om woorden te splitsen. 62


Bestandgrootte De laadsnelheid van een pagina wordt steeds belangrijker. Vooral omdat steeds meer mensen mobiel internet gebruiken. Een trage website is immers niet erg gebruiksvriendelijk. Afbeeldingen van hoge kwaliteit kunnen de laadsnelheid sterk vertragen. De optimalisatie van je afbeeldingen kan dus de prestaties van je site verbeteren. De grootte van het bestand wordt vooral bepaald door de resolutie. Afbeeldingen met een hoge resolutie zijn doorgaans groter. Je moet dus een afweging maken tussen bestandgrootte en kwaliteit. Het schalen van afbeeldingen via de <width> en <height> HTML attributen wordt best vermeden. Dit zorgt ervoor dat de originele afbeelding geladen wordt. Het is beter om een kleinere afbeelding te gebruiken die qua bestandgrootte minder zwaar is. De keuze van het juiste bestandtype is ook belangrijk. De drie belangrijkste typen afbeeldingen die op het web gebruikt worden zijn: › JPG: een afbeelding met een aanpasbare compressiegraad. JPG afbeeldingen laten kleine stukjes informatie die onzichtbaar zijn voor het oog weg, waardoor het bestand kleiner wordt. › PNG: een type dat vaak gebruikt wordt voor afbeeldingen die transparantie bevatten. › GIF: wordt vooral online gebruikt omdat het animaties toelaat. Het is aangeraden om de verschillende bestandtypen te testen om te kijken welke de beste kwaliteit ten opzichte van de bestandgrootte levert. Zo kan je een pagina met veel afbeeldingen gevoelig sneller maken.

63


Afbeeldingen Best Practices Zoekmachines hebben een probleem met afbeeldingen: ze kunnen de inhoud ervan niet interpreteren. Dit probleem kunnen we oplossen door een alt-omschrijving toe te voegen. Daarnaast kies je best voor een beschrijvende bestandsnaam, gesplitst met liggende streepjes. Vergeet niet om de bestandgrootte van je afbeeldingen te optimaliseren om de laadtijden van de pagina te verbeteren.

Tips: › › › › ›

Voeg een alt-omschrijving toe aan je afbeeldingen. Geef je afbeeldingen een beschrijvende bestandnaam. Voeg je afbeeldingen toe aan je Sitemap of Image Sitemap. Maak je afbeeldingen zo klein mogelijk (qua bestandgrootte). Gebruik geen HTML resize om afbeeldingen te schalen.

› › › › ›

Image Publishing Guidelines Image Sitemaps PNG Optimization Techniques JPEG Optimization Techniques Optimizing GIF Images

Links:

64


Paginering Paginering of pagination vindt men overal op het web. Het is een handige techniek om lange webpagina’s op te delen in kleinere, hapklare stukjes informatie. Google gebruikt het in haar zoekresultaten, fora gebruiken het om een topic in te delen en nieuwssites gebruiken het voor uitgebreide artikels. Paginering kan echter voor een aantal problemen zorgen.

“Pagination is used in some form in almost every web application to divide returned data and display it on multiple pages.”

65


Waarom websites paginering gebruiken Zoals eerder al vermeld, gebruiken verrassend veel websites paginering. Denk maar aan de resultaten van Google die per tien (in sommige gevallen zelfs minder) gegroepeerd worden. Ook fora gebruiken paginering om een discussie op te delen. Tenslotte zijn er nog websites die deze techniek gebruiken om hun bezoekers snel naar een bepaald deel van een artikel te laten navigeren. Bovenstaande voorbeelden worden gebruikt om de gebruikservaring te verbeteren. Via paginering kan een overdosis aan informatie makkelijk gestructureerd worden. Bovendien zorgt paginering ervoor dat een pagina sneller geladen wordt. Sommige webbrowsers laden automatisch de volgende pagina in een reeks om een snellere surfervaring aan te bieden. Maar er is nog een andere reden waarom websites paginering gebruiken: pageviews. Door een artikel in twee of drie stukken op te delen, kunnen ze het aantal pageviews verdubbelen of verdrievoudigen. Hierdoor kunnen extra advertenties vertoond worden, wat voor meer inkomsten kan zorgen.

Paginering en zoekmachines Paginering kan voor indexatieproblemen zorgen. Indien een irrelevante pagina genoeg autoriteit krijgt, kan de verkeerde pagina in de zoekresultaten verschijnen. Dit zorgt ervoor dat je SEO inspanning niet het maximale effect hebben. Gelukkig is er een oplossing voor dit probleem in de vorm van HTML link elementen.

66


HTML link elementen Sinds 2011 houdt Google rekening met de rel=”next” en rel=”prev” link elementen bij de indexatie. We kunnen deze HTML code gebruiken om de relatie tussen verschillende pagina’s duidelijk te maken. Hierdoor erkent Google deze pagina’s als een groter geheel. Stel dat we een lang artikel opgedeeld hebben in drie aparte pagina’s met onderstaande URLs: http://website.be/artikel-deel-1 http://website.be/artikel-deel-2 http://website.be/artikel-deel-3 Indien we Google willen duidelijk maken dat deze pagina’s samenhoren, kunnen we de rel=”next” en rel=”prev” annotatie gebruiken. Onderstaande code voegen we toe aan de <head> van de eerste pagina: <link rel=”next” href=”http://website.be/artikel-deel-2” />

Indien zoekmachines deze pagina crawlen, zien ze dat er een link is tussen beide URL’s. Ze wordt als de volgende pagina in een reeks aanzien. Op de tweede pagina moeten we ook rel=”prev” gebruiken. <link rel=”prev” href=”http://website.be/artikel-deel-1” /> <link rel=”next” href=”http://website.be/artikel-deel-3” />

Zoals je waarschijnlijk al had verwacht, hoeven we op de laatste pagina enkel de rel=”prev” tag te gebruiken: <link rel=”prev” href=”http://website.be/artikel-deel-2” />

67


Alternatieve oplossing Naast

de

rel=next/prev

elementen

kunnen

we

ook

de

rel=canonical tag gebruiken. Dit element werd ook gebruikt om problemen met duplicate content op te lossen. Deze techniek kunnen we toepassen indien er een view-all pagina aanwezig is. De aparte pagina’s worden dan aan de view-all pagina gelinkt via de rel=canonical tag. Dit zorgt ervoor dat enkel deze pagina geïndexeerd wordt. Indien je reeds een view-all pagina hebt, is de kans groot dat Google dit automatisch doet:

“When we detect that a paginated series also contains a view-all version, we're now making a larger effort to return the view-all page in search results when appropriate." Als je absoluut zeker wil zijn dat dit correct gebeurd, is het best om de rel=canonical tag te gebruiken. Zoals het spreekwoord zegt: “better safe than sorry.”

68


Paginering Best Practices Via HTML link elementen kunnen we ervoor zorgen dat gepagineerde pagina’s beter begrepen worden door zoekmachines. Als alternatief kunnen we een view-all pagina in combinatie met de rel=canonical tag gebruiken.

Tips: ›

Gebruik de rel=”next” en rel=”prev” elementen voor gepagineerde pagina’s.

Gebruik als alternatief de rel=”canonical” tag om naar een view-all pagina te linken.

Rel=”canonical”

Links: › Pagination with rel=”next” and rel=”prev”

69


Inhoudelijke Optimalisatie Tot hier toe hebben we het vooral over technische aanpassingen gehad om een website beter te laten scoren. Wat misschien nog belangrijker is, is de inhoud van je pagina’s. Deze content kunnen we niet alleen optimaliseren voor zoekmachines, maar ook voor je bezoekers.

“Google encourages marketers to create unique original content that builds a nucleus of engagement.”

70


Het belang van kwaliteitsvolle content Wanneer we een zoekmachine gebruiken, gaan we op zoek naar de oplossing voor een probleem. Deze problemen kunnen erg divers zijn: › Is dit product de moeite waard om te kopen? - zoek naar beoordelingen van gebruikers. › Ik wil ergens in de buurt gaan eten - zoek een goed lokaal restaurant via Google. › Mijn autobatterij is kapot - zoek naar artikels die uitleggen hoe je een autobatterij kan vervangen. › Ik verveel me - ga op zoek naar cat videos. Het doel van een zoekmachine is om de meest relevante pagina’s te tonen om deze problemen op te lossen. Wanneer we deze zoekresultaten analyseren, zien we vaak een groot verschil in kwaliteit. De content van de resultaten op de eerste pagina is normaal gezien van hogere kwaliteit dan de content op de vierde, vijfde…. pagina. Dit kom omdat kwaliteitsvolle content makkelijker links aantrekt. Hierdoor stijgt de autoriteit van de site en verschijnt ze hoger in de zoekresultaten. Daarnaast worden sterke artikels vaak gedeeld op sociale media zoals Twitter, Facebook, Google+ en Linkedin. Kwaliteitsvolle content kan dus voor heel wat extra bezoekers zorgen via de organische zoekresultaten, externe websites en sociale media.

Content strategie Een content strategie gaat over de planning, ontwikkeling en het beheer van de content van een website. De eerste vraag die we ons moeten stellen is; “waarom publiceren we content?”

71


Tegenwoordig publiceren heel wat bedrijven artikels om klanten te lokken (het zogenaamde ‘content marketing’). Maar een blogger heeft waarschijnlijk een ander doel in gedachten. Een content strategie is de link tussen de doelstellingen van een site (producten verkopen, autoriteit opbouwen, subscribers overtuigen…) en de noden van een bezoeker (een probleem oplossen).

Content planning Een goede content planning kan het verschil betekenen tussen 100 en 1000 bezoekers per dag. De eerste stap in dit proces is bepalen waarover we gaan schrijven. Het onderwerp In sommige gevallen weet je al waarover je gaat schrijven. In dit geval mag je deze stap overslaan. Helaas is het soms moeilijk om met een goed onderwerp op de proppen te komen. Gelukkig zijn er een aantal manieren om te ontdekken welke onderwerpen er binnen je doelgroep leven. Een van mijn favoriete methoden is om gebruik te maken van Quora. Zelfs voor saaie niches vind je hier interessante onderwerpen. Stel dat je bedrijf gazonmest verkoopt en een aantal artikels wil publiceren op je website. Als we op Quora zoeken naar ‘lawn’, vinden we meteen een paar leuke onderwerpen: › Voorkom dat hondenurine je gras kapot maakt. › Beste tijdstip van de dag om je gazon water te geven. › Hoe kan je mos verwijderen?

72


Er zijn natuurlijk nog heel wat andere technieken om onderwerpen te vinden. Je kan simpelweg gebruik maken van zoekmachines. Zoek naar een bepaald onderwerp en kijk wat er reeds over geschreven is. Zijn er misschien bepaalde aspecten die onderbelicht zijn of die ontbreken? Daarnaast kan je ook op sociale media op zoek gaan naar inspiratie. Twitter, Facebook, Google+ … bevat een schat aan informatie omtrent elk soort onderwerp. Ook fora zijn het bekijken waard. Voor heel wat thema’s bestaat er een specifiek forum waar gebruikers onderling allerlei onderwerpen discussiëren. Sommige van deze topics zijn de moeite waard om een web pagina aan te wijden. Neem tenslotte ook een kijkje naar de zoekwoorden die bezoekers gebruiken in de interne zoekfunctie op je site (als deze aanwezig is). Keyword research Het is een goed idee om wat keyword research te doen voordat je een artikel schrijft. De Google Adwords Keyword Planner (GAKP) is een handige tool voor deze taak. Een voorbeeldje: stel dat een bedrijf voetbaltenues online verkoopt en een artikel heeft geschreven over de nieuwste collectie. Dan kunnen we ons afvragen of mensen wel degelijk de term ‘voetbaltenues’ gebruiken. De kans bestaat dat de termen ‘voetbalshirts’ of ‘voetbaltruitjes’ populairder zijn. Met behulp van deze handige tool vinden we een antwoord op deze vraag.

73


In de meeste gevallen zal je de Keyword Planner gebruiken om nieuwe keywords te vinden (we selecteren dus ‘search for keyword and ad group ideas’). Je kan een of meerdere specifieke keywords ingeven die je wil testen. Als alternatief kan je de URL van een landingspagina gebruiken. Onderaan bevinden zich nog een aantal targeting opties. Let er vooral op dat je de correcte regio en taal selecteert. De overige opties (keyword filters, keyword options en include/exclude) zijn minder belangrijk. Wanneer we onze originele term testen (‘voetbaltenues’) krijgen we een schatting van het aantal maandelijkse zoekopdrachten voor deze term op basis van onze targeting instellingen. Dit keyword heeft een maandelijks zoekvolume van ongeveer 170 queries. De Keyword Planner zorgt ook voor een lijst alternatieve zoekwoorden. Wanneer we deze lijst bekijken zien we dat termen als ‘voetbaltruitjes (480 zoekopdrachten/maand) en ‘voetbalshirts’ (590 zoekopdrachten/maand) populairder zijn.

74


Vergeet niet dat de data in deze tool schattingen zijn. Het aantal bezoekers dat je zal ontvangen komt niet overeen met deze hoeveelheden. Dit hangt grotendeels af van de autoriteit van de pagina, rich snippets, etc. Met behulp van de GAKP vind je in de meeste gevallen wel een aantal nieuwe en interessante termen die je kan gebruiken. Sommige keywords hebben een hoog zoekvolume in combinatie met een lage concurrentiegraad en zijn dus erg interessant. Houd er rekening mee dat de waarde in het vak ‘competition’ (low, medium, high) van toepassing is op Adwords accounts. Het is dus aangeraden om een bepaalde term in Google te testen en de huidige zoekresultaten te analyseren. Zo kan je een betere inschatting maken van de concurrentiegraad in de natuurlijke zoekresultaten. Naast het gemiddeld aantal zoekopdrachten per maand vind je een overzicht van het zoekvolume gedurende de voorbije twaalf maanden. Deze historische gegevens zijn erg handig om trends te ontdekken. Je kan al deze informatie, inclusief keyword-data uit het verleden, downloaden als CSV bestand. Dit bestand kan je in Excel gebruiken om je keyword research verder uit te breiden.

75


Research Nu we een keyword gekozen hebben, is het aangeraden om nog wat bijkomend onderzoek te doen. In deze researchfase onderzoeken we wat we gaan vertellen en hoe we deze informatie gaan presenteren. De kans is groot dat er iemand al iets geschreven heeft over het keyword dat je gekozen hebt. Het web staat immers vol met informatie over de meest uiteenlopende onderwerpen. De vraag is dus hoe je jezelf kan differentiëren. Er zijn verschillende manieren om dit te doen. Misschien zijn ze belangrijke informatie vergeten of hebben ze fouten gemaakt? Misschien kan je een andere insteek gebruiken om een complex concept eenvoudig uit te leggen? Zorg er in ieder geval voor dat je content een unieke toegevoegde waarde heeft. Daarnaast hoeft je content niet altijd in tekstvorm te worden gepresenteerd. Infographics - een creatieve visualisatie van data zijn erg populair op het web. Video’s, comics, interactieve pagina’s, kwissen… behoren ook tot de mogelijkheden. Een flinke dosis creativiteit kan ervoor zorgen dat je content goed scoort bij bezoekers en op een natuurlijke manier links aantrekt.

76


Publicatieschema Zoekmachines houden ervan dat een website regelmatig geüpdate wordt. Daarom is het interessant om een publicatieschema op te stellen. In plaats van een reeks artikels te schrijven en deze allemaal op dezelfde dag te publiceren, is het best om deze over een bepaalde periode te spreiden. De dichtheid van deze planning varieert van website tot website. Bij sommige sectoren is een hoge updatefrequentie mogelijk, terwijl dit bij andere moeilijker is. Kies een publicatieschema dat haalbaar is en maak een planning op voor toekomstige updates. Dit is ook handig voor social media managers die statusupdates op Facebook, Google+, Twitter en dergelijke posten.

Content ontwikkeling Tot hier toe hebben we de ‘juiste’ keywords geselecteerd en wat onderzoek gedaan naar het onderwerp. Nu is het tijd om het artikel te schrijven. Hierbij is een goede structuur erg belangrijk. Niemand wil een groot stuk tekst lezen zonder paragrafen, koppen en andere structurele vormen. Door een tekst duidelijk en logisch te structureren wordt ze makkelijker leesbaar. Zowel bezoekers als zoekmachines zullen je dankbaar zijn. Structuur Een van de makkelijkste manieren om structuur in jouw artikel te brengen is via headings (kopteksten). De HTML code van een heading kan er als volgt uitzien: <h1>Dit is een koptekst</h1>

77


Naast een <h1> heading zijn er ook nog ondertitels, zoals <h2>, <h3>, <h4>… Deze titels hebben een vaste volgorde: een <h2> gebruik je best niet als er geen <h1> is, een <h3> enkel indien een <h2> aanwezig is, enz. Vooral <h1> en <h2> titels zijn belangrijk. Het is aangeraden om slechts een <h1> titel op een pagina te gebruiken. Er kunnen wel meerdere subtitels gebruikt worden. Ook vette tekst kan gebruikt worden. De SEO-waarde van deze tekst is verwaarloosbaar, maar het kan erg handig zijn voor bezoekers. Door bepaalde woorden in het vet te plaatsen, kan je snel zijn/haar aandacht trekken. Lijsten zijn ook een handige manier om informatie te structureren. Volgens Bill Slawski kan het toevoegen van lijsten, dankzij hun kortere semantische afstand, een positieve invloed hebben op de rangschikking van de pagina. Een afbeelding zegt meer dan duizend woorden. Afbeeldingen maken een artikel visueel aantrekkelijker. Vergeet niet je afbeeldingen te optimaliseren door een goede bestandnaam en alt-omschrijving te kiezen. Interne links kunnen ook handig zijn. Ze helpen een SEO-vriendelijke structuur te creëren en kunnen bezoekers naar andere, relevante pagina’s begeleiden. Zorg er tenslotte voor dat je content zichtbaar is above-the-fold. Sommige sites proppen deze ruimte vol met advertenties. Dit is niet erg gebruiksvriendelijk voor bezoekers. Daarom begon Google met het bestraffen van websites die hierin overdrijven. Zorg er dus voor dat je belangrijkste content onmiddellijk zichtbaar is.

78


Keyword gebruik Weet je nog dat we via de Adwords Keyword Planner een goed keyword gevonden hadden? We kunnen dit keyword op een aantal strategische posities gebruiken om onze SEO-inspanningen een boost te geven. Zoekmachines spenderen extra aandacht aan bepaalde elementen van een pagina. Daarom gebruiken we het keyword op deze plaatsen. Enkele voorbeelden: › › › › ›

De paginanaam: hierdoor komt het keyword in de URL. De paginatitel: gebruik het keyword in het begin van de titel. Headings: gebruik het keyword in een of meerdere koptitels. Afbeeldingen: in de bestandnaam en alt-omschrijving. Eerste paragraaf: gebruik het keyword zeker en vast in het begin van de tekst.

Daarnaast gebruik je waarschijnlijk het keyword regelmatig in het artikel zelf. Ook varianten zoals verkleinwoorden, meervouden en synoniemen kunnen niet ontbreken. Zorg dat je niet aan keyword stuffing doet. Keyword stuffing is het overmatig gebruik van een bepaalde term. Dit komt de leesbaarheid van de pagina niet ten goede. De tekst moet makkelijk leesbaar zijn en natuurlijk ogen. Keyword density De kans is groot dat je op het internet reeds artikels bent tegengekomen omtrent de perfecte keyword density. Keyword density is een percentage dat aangeeft hoe vaak een bepaalde term gebruikt werd (bv: 10 maal in een tekst van 1000 woorden is een keyword density van 1%). Is er een optimale keyword density?

79


Nee - keyword density is geen maatstaf voor kwaliteitsvolle content. Het toevoegen van irrelevante keywords zorgt er niet voor dat de pagina voor deze keywords goed zal scoren (bijvoorbeeld het keyword ‘rode mutsen’ in een artikel over tuinieren). Het is best om je keyword op een natuurlijke manier te gebruiken.

Content beheer Nu dat we het artikel geschreven en gepubliceerd hebben, wordt content beheer belangrijk. Er kan heel wat geschreven worden omtrent het beheer van content, maar wij zijn vooral geïnteresseerd in het SEO-aspect ervan. Hierbij gaat het voornamelijk om de toegankelijkheid van onze content. Redirects In sommige gevallen zal de locatie van een pagina verplaatst of gemigreerd worden naar een nieuw domein. In dit geval is het belangrijk om op een correcte manier een redirect te implementeren. De twee meest gebruikte methoden om dit te doen is via een 301 of 302 redirect. Een 302 redirect wordt als tijdelijk aanzien en geeft dus geen link juice aan de nieuwe URL. Het is dus aangeraden om een 301 redirect te gebruiken. Dit is een permanente omleiding die ervoor zorgt dat bijna alle autoriteit wordt overgedragen. Structured data Om de content toegankelijker te maken voor zoekmachines kunnen we structured data toevoegen. Hoe dit in zijn werk gaat bespreken we in een apart hoofdstuk. Structured data kan ervoor zorgen dat er rich snippets getoond worden. Dit kan de CTR naar de pagina verhogen.

80


Crawlable design Een mooie website is niet altijd toegankelijk voor zoekmachines. Een ontwerper wil een pagina die er goed uitziet, terwijl een SEO een pagina wil die makkelijk leesbaar is door crawlers. De uitdaging bestaat erin om deze twee met elkaar te combineren. Een probleem dat vaak opduikt is de implementatie van tekst in afbeeldingen. Ontwerpers kunnen hierdoor speciale fonts gebruiken, inclusief kleurovergangen, schaduweffecten, texturen, etc. Hoewel dit visueel erg mooi is, kan deze tekst niet gelezen worden door crawlers. Gelukkig kunnen we dit probleem oplossen door gebruik te maken van een combinatie van HTML en CSS. Web fonts bieden ook heel wat extra mogelijkheden aan web designers. Google heeft bijvoorbeeld een grote database open source web fonts die je gratis kan gebruiken. Een andere techniek om afbeeldingen leesbaar te maken voor zoekmachines is het zogenaamde mouse-over effect:

Zoals je in bovenstaande afbeelding ziet, wordt er een tekst getoond indien men met de muiscursor over de afbeelding beweegt. Dit combineert de visuele voorkeur van de ontwerper (de afbeelding) met de eisen van de SEO (tekst content). Content samenbrengen In sommige gevallen is het aangeraden om verschillende artikels te consolideren. Content omtrent hetzelfde onderwerp kan zo op een

81


pagina samengebracht worden. Hierdoor kan je je bezoekers een meer uitgebreid artikel met alle informatie aanbieden. Zorg in dit geval dat zoekmachines deze aanpassing begrijpen. Gebruik een 301-redirect op de oude artikels om bezoekers en zoekmachine naar de geconsolideerde pagina te verwijzen. Wil je de vorige pagina’s behouden? Gebruik dan de rel=canonical tag.

Bezoekers op de eerste plaats De belangrijkste take-away uit dit hoofdstuk is dat de bezoekers op de eerste plaats moet zetten. Ontwerp je site en content rond de noden van deze bezoekers en publiceer unieke content die aan hun behoeften voldoet. Bezoekers herkennen kwaliteitsvolle content wanneer ze deze zien en zullen deze willen delen met anderen. Dit doen ze via blog posts, sociale media, emails, fora, enz. Zoals Matt Cutts zegt: “Interesting sites will increase their recognition on their own.” Bezoekers komen dus op de eerste plaats.

82


Inhoudelijke Optimalisatie Best Practices Een van de belangrijkste elementen van een website is haar content. De creatie van unieke, relevante content die een meerwaarde biedt aan de bezoekers is dan ook een must. Bezoekers komen op de eerste plaats.

Tips:

› › › ›

Structureer een pagina op een duidelijke manier (headings, lijsten, vette tekst, etc.). Onderzoek welke termen je doelgroep gebruikt. Gebruik deze keywords in de paginanaam, paginatitel, headings en in de tekst. Schrijf unieke content. Zorg dat de content een toegevoegde waarde heeft. Zoekmachines houden van websites die geregeld geüpdate worden. Zorg ervoor dat alle content leesbaar is voor zoekmachines.

Adwords Keyword Planner

› › ›

Links:

83


Lokale SEO Heel wat websites richten zich op consumenten van over de hele wereld. Bedrijven zoals Amazon, Dell, Zappos … zijn wereldwijd actief en hebben op (vrijwel) elk continent klanten. Maar dit geldt niet voor alle ondernemingen. Sommige lokale bedrijven willen enkel consumenten in een bepaalde regio aanspreken. Lokale SEO kan hen hierbij helpen.

“Local SEO is a series of signposts that allow search engines to understand where you are in the world and what you're providing.”

84


Lokale zoekopdrachten Lokale zoekresultaten kunnen erg handig zijn. Als je op zoek bent naar een hotel in Parijs bijvoorbeeld, is het leuk om suggesties meteen in Google Maps te zien. Wanneer je op zoek bent naar een dokter laat Google automatisch de plaatselijke artsen zien. Deze locatiegebonden informatie kan al dan niet opzettelijk opgeroepen worden. Daarom worden lokale zoekopdrachten in twee groepen onderverdeeld: Impliciet lokale zoekopdrachten Google weet dat sommige zoekopdrachten locatiegebonden zijn zonder dat je dit expliciet vermeld. Wanneer je op zoek gaat naar een ‘boekhouder’ of ‘dokter’, is de kans groot dat je iemand in de buurt zoekt. Omdat er geen regio of stad gespecificeerd werd, noemen we dit impliciet lokale zoekopdrachten. Er zijn twee methoden die Google gebruikt om je locatie te bepalen. Enerzijds kan je handmatig een locatie instellen via Search Settings > Location (het tandwielicoontje aan de rechterkant). Houd er rekening mee dat je enkel een locatie kan instellen voor een adres binnen het huidige domein van Google (bijvoorbeeld een adres in België op Google.be). Als je geen locatie ingesteld hebt, gebruikt Google je IP adres. Expliciet lokale zoekopdrachten Lokale zoekresultaten kunnen ook opzettelijk opgevraagd worden door een locatie aan je zoekopdracht toe te voegen. Bijvoorbeeld: indien we zoeken naar ‘hotel Amsterdam’, zal Google hotels in de Nederlandse hoofdstad tonen. Deze informatie kan overal ter wereld geraadpleegd worden, in tegenstelling tot impliciet lokale zoekopdrachten.

85


Lokale SEO technieken Tijd om de handen uit de mouwen te steken. Er zijn heel wat technieken die gebruikt kunnen worden om beter te scoren in de lokale zoekresultaten, zoals: Google+ Local In het verleden werd Google Places hiervoor gebruikt, maar door de focus van Google op haar sociale netwerk werden deze functies overgedragen naar Google+. Deze feature kreeg de naam Google+ Local mee. Door een onderneming te registreren, wordt er extra informatie in de zoekresultaten getoond indien men op de naam van de onderneming zoekt. Deze extra info bevat de naam van de onderneming, het adres, telefoonnummer, de locatie op Google Maps, afbeeldingen en Zagat reviews. TLD Het top level domain (TLD) heeft ook een invloed op de prestaties in de locale zoekresultaten. Een country code top level domain (ccTLD), bijvoorbeeld .be, .nl, .fr, etc., zal minder goed scoren in het buitenland. Google weet automatisch dat zulke domeinextensies aan een bepaalde regio gerelateerd zijn en toont deze websites makkelijker aan gebruikers uit de regio in kwestie. Indien je een neutrale TLD gebruikt (.com, .net …) kan je in Google Webmaster Tools je website linken aan een bepaalde regio. Je kan dit doen via het tandwielicoontje rechts bovenaan; Site Settings > Geographic Target. Content Net zoals voor elk ander keyword, kunnen we een pagina optimaliseren voor een bepaalde regio. Door de locatie van de

86


onderneming op enkele strategische plaatsen te vermelden, kan de site beter scoren in de lokale zoekresultaten. Zo gebruikt het Sir Plantin Hotel in Antwerpen de locatie in de domeinnaam, titel, meta description en content van de pagina.

Zorg er ook voor dat het adres van de onderneming duidelijk zichtbaar is op de website. Gebruik hiervoor HTML in plaats van een afbeelding. Tekst die in een afbeelding verwerkt is kan immers niet gelezen worden door zoekmachines. HTML zorgt er ook voor dat bezoekers deze informatie makkelijk kunnen kopiëren. Structured data Structured data wordt gebruikt om rich snippets te genereren. Dit kan ook de lokale SEO ten goede komen. In een van volgende hoofdstukken leggen we het gebruik en de implementatie van structured data uit. Externe websites Google gebruikt ook informatie van andere websites voor lokale zoekopdrachten. Websites zoals Gouden Gids, Yelp, Foursquare, etc. kunnen je lokale SEO dus een duwtje in de rug geven. Zorg ervoor dat je adres en contactgegevens op deze websites up to date zijn. KML bestand Een andere bron waar Google locatie-informatie haalt is een KML bestand. KML staat voor keyhole markup language. Dit bestand bevat de lengte –en breedtegraad van een locatie. Sinds 2007 worden deze bestanden door Google geïndexeerd.

87


Een KML bestand heeft de volgende structuur: <?xml version="1.0" encoding="UTF-8"?> <kml xmlns="http://www.opengis.net/kml/2.2"> <Placemark> <name>Naam van de onderneming</name> <description>Een korte omschrijving</description> <Point> <coordinates>51.105691,4.640157,0</coordinates> </Point> </Placemark> </kml>

Het KML bestand bevat dus drie stukken informatie: › Name: de naam van de onderneming. › Description: een korte omschrijving van de producten of diensten van het bedrijf. › Coordinates: de coördinaten van de locatie. Deze vind je door in Google Maps met de rechtermuisknop op een locatie te klikken en “what’s here” te selecteren. De coördinaten verschijnen in de zoekbalk.

Meerdere locaties Sommige ondernemingen hebben winkels of kantoren op meerdere locaties. Denk bijvoorbeeld aan een kleine keten van koffieshops die verscheidene winkels heeft in Vlaanderen. Hoe kan men ervoor zorgen dat elke locatie geoptimaliseerd is? In dit geval is het best om voor elke locatie een aparte pagina aan te maken met een unieke URL. Op deze pagina kan je dan informatie plaatsen met betrekking tot de locatie, zoals openingsuren, contactgegevens, routebeschrijving, reviews, enz. Zo kan elk van deze pagina’s geoptimaliseerd worden voor een bepaalde regio.

88


Lokale SEO Best Practices Niet elke onderneming wil consumenten van over heel de wereld bereiken. Sommige bedrijven richten zich op mensen in hun directe omgeving. Lokale SEO kan hen hierbij helpen.

Tips:

› ›

Registreer je onderneming op Google+ Local. Zorg ervoor dat de contactgegevens zichtbaar zijn op je pagina (liefst in HTML). Voeg structured data toe aan je contactgegevens. Optimaliseer je site voor een locatie. Zorg voor links vanuit local directories zoals Gouden Gids, Foursquare, Yelp, etc. Maak voor elke locatie een aparte pagina met een unieke URL. Kies een relevante TLD of link je site aan een regio via GWT.

› › ›

Google+ Local Geo Sitemap Generator Web Page for Each Store Location

› › › › ›

Links:

› GWT Geotargeting

89


Social Snippets Social signals, het delen van een pagina op sociale media, worden steeds belangrijker voor SEO. Het aantal likes, tweets en +1’s hebben heel wat potentieel om een goede maatstaf voor kwaliteitsvolle content te zijn. Daarom beginnen zoekmachines steeds meer “If you don't optimize aandacht aan deze factoren te spenderen. Op dit moment is hun your page with the invloed nog niet erg groot, right code, your dreams of going viral may althans niet op SEO.

flop.”

Sociale media kan echter voor heel wat extra bezoekers zorgen. Virale content wordt vaak geboren op Facebook, Twitter of Google+. Daarom is het belangrijk dat we onze social snippets optimaliseren.

90


Wat zijn social snippets? Een social snippet krijgen we te zien wanneer we een pagina op sociale media delen. In plaats van een simpele link krijgen gebruikers een titel, afbeelding en omschrijving te zien.

Bovenstaande afbeelding is een voorbeeld van een social snippet op Facebook. Op Google+ ziet ze er ongeveer hetzelfde uit:

Deze snippets worden automatisch gegenereerd. De persoon die de pagina deelt heeft geen controle over de inhoud ervan. Deze informatie kan enkel gewijzigd worden door de webmaster.

91


Het belang van social snippets Wanneer de inhoud van een social snippet niet gespecificeerd is, kan het voor heel wat problemen zorgen. Vaak krijgt de bezoeker onvolledige informatie te zien. Onderstaande afbeelding is een social snippet van De Bakboetiek, een online shop die bakproducten verkoopt. In plaats van de naam, afbeelding en korte omschrijving van het product krijgen gebruikers een nietszeggende social snippet te zien.

Zoals je ziet is dit niet echt een snippet die uitnodigt om er op te klikken. Een goede social snippet overtuigt de gebruiker om de achterliggende pagina te bezoeken. Je kan dit dan ook zien als een gratis advertentie op sociale media. Schrijf een aantrekkelijke titel en een omschrijving die de mensen zin geeft om er op te klikken. Een duidelijke afbeelding die in het oog springt kan ook wonderen doen.

Het Open Graph Protocol Social snippets zijn gebaseerd op het Open Graph Protocol. Dit wordt gebruikt om een object in de Social Graph te identificeren. Facebook, Google en Twitter gebruiken deze informatie om de inhoud van een pagina beter te begrijpen. Open Graph (OG) is gebaseerd op RDFa (wat ook gebruikt kan worden voor structured data). We kunnen het aan een pagina toevoegen via <meta> tags in de <head> van de HTML code.

92


Een social snippet maken Tijd om zelf een social snippet te maken. Onderstaande instructies worden gebruikt door Facebook en Google+. De social snippets op Twitter bespreken we later. Thumbnail Dit is misschien een van de belangrijkste onderdelen van een social snippet. Het is dan ook het opvallendste element. De afbeelding die als thumbnail gebruikt wordt moet minstens 200 x 200 pixels groot zijn. Indien de afbeelding te klein is wordt er soms geen thumbnail getoond of gebruikt Facebook en Google+ een andere afbeelding van de pagina (in sommige gevallen een advertentie of banner). We gebruiken onderstaande code om een thumbnail te specificeren: <meta property="og:image" content="http://website.be/thumbnail.jpg" />

Titel De titel is het tweede meest belangrijke element van een social snippet. Het moet de gebruiker overtuigen om er op te klikken. Deze titel komt meestal overeen met de titel van de achterliggende pagina, maar kan eventueel aangepast worden. De HTML code ziet er als volgt uit: <meta property="og:title" content="Titel” />

93


Omschrijving Daarnaast kan je ook een korte omschrijving van de achterliggende pagina toevoegen via de og:description tag. In de meeste gevallen wordt dezelfde tekst als de meta description gebruikt: <meta property="og:description" content="Dit is een korte omschrijving van de inhoud." />

Content type De pagina kan gecategoriseerd worden aan de hand van een content type tag. Indien deze tag ontbreekt, wordt de pagina als ‘website’ aangeduid. Andere content typen zijn music, video, article, book, etc. Meer informatie vind je op deze pagina. <meta property="og:type" content="article" />

URL Dit is de pagina waar gebruikers naar worden doorverwezen wanneer ze op de social snippet klikken. Indien je meer inzicht in je bezoekers via sociale media wil krijgen, kan je URL parameters toevoegen. Gebruik hiervoor de Google URL Builder. De Open Graph code voor de URL kan er als volgt uitzien: <meta property="og:url" content="http://www.website.be/artikel" />

94


Twitter cards Twitter gebruikt extra code om Twitter Cards te genereren. Hiermee kan je media aan een tweet koppelen. Momenteel zijn er zes soorten Twitter Cards: › › › › › ›

Summary: thumbnail, titel en omschrijving van een pagina. Photo: een afbeelding of foto. Gallery: een verzameling foto’s. App: bevat informatie omtrent een applicatie. Product: om een product te presenteren. Player: een media player.

Twitter Cards kunnen gebruikt worden door een stukje extra HTML code aan een pagina toe te voegen. Wanneer men de URL van deze pagina in een tweet gebruikt, wordt de code gelezen en voegt Twitter extra informatie aan de tweet toe. Momenteel zijn er zes Twitter Cards beschikbaar. De kans is groot dat het bedrijf in de toekomst nog extra Twitter Cards zal ontwikkelen. Houd dus zeker en vast hun developer page in het oog om op de hoogte te blijven van de nieuwste updates.

Summary Een Summary Twitter Card lijkt op de social snippets die gebruikt worden door Facebook en Google+. Een extra element dat uniek is aan Twitter is de username van een gebruiker. Deze Twitter Card kan gebruikt worden voor allerlei doeleinden: artikels, blogposts, restaurants, etc.

95


Een Summary Card kunnen we als volgt opmaken: <meta name="twitter:card" content="summary"/> <meta name="twitter:url" content="http://website.be/artikel"/> <meta name="twitter:title" content="Paginatitel"/> <meta name="twitter:description" content="Een korte omschrijving."/> <meta name="twitter:image" content="http://website.be/thumbnail.jpg"/> <meta name=”twitter:creator” value=”@username” />

Photo Een Photo Card lijkt erg op voorgaande voorbeeld. Het grote verschil zit hem in de styling van de tweet. Dit soort Twitter Card zet een bepaalde afbeelding op de voorgrond, inclusief een omschrijving en URL. Deze afbeelding moet minstens 280 x 150 pixels groot zijn (voor kleinere afbeeldingen zal de Photo Card niet werken). Je kan ook een grootte en breedte specificeren om de aspect ratio van de afbeelding te behouden. Tenslotte mag een afbeelding niet groter zijn dan 1MB.

96


De HTML code voor een Photo Card kan er als volgt uitzien: <meta name="twitter:card" content="photo"/> <meta name="twitter:title" content="Mijn hond"/> <meta name="twitter:description" content="Een afbeelding van mijn hond, Sir Barksalot."/> <meta name=”twitter:creator” value=”@username” /> <meta name="twitter:image" content="http:// website.be/sir-barksalot.jpg"/> <meta name="twitter:image:width" content="800"> <meta name="twitter:image:height" content="600">

De velden twitter:card en twitter:image zijn verplicht, alle andere velden zijn optioneel. Het is echter aangeraden om de overige velden ook te benutten. Gallery Wil je meer dan een foto in een tweet verwerken, dan kan je een Gallery Card gebruiken. Elke Gallery Card kan een maximum van vier foto’s bevatten. De opmaak komt grotendeels overeen met de overige Twitter Cards, zoals uit onderstaand voorbeeld blijkt: <meta name="twitter:card" content="gallery"> <meta name="twitter:creator" content="@username"> <meta name="twitter:title" content="Titel"> <meta name="twitter:description" content="Korte omschrijving van de afbeeldingen."> <meta name="twitter:image0" content="http://website.be/afbeelding1.jpg"> <meta name="twitter:image1" content="http://website.be/afbeelding2.jpg"> <meta name="twitter:image2" content="http://website.be/afbeelding3.jpg"> <meta name="twitter:image3" content="http://website.be/afbeelding3.jpg">

97


App Op dit moment is een App Card enkel beschikbaar op iOS en Android toestellen. Ze is nog niet beschikbaar op de web versie van Twitter (dit kan in de toekomst nog veranderen). Een App Card is de ideale manier om je applicatie via Twitter te verspreiden. Gebruikers kunnen de naam, omschrijving, icoontje, rating en prijs van de applicatie zien. In deze Twitter Card worden een aantal nieuwe attributen gebruikt: <meta name="twitter:card" content="app"> <meta name="twitter:description" content="Korte omschrijving van de app."> <meta name="twitter:app:id:iphone" content="306934135"> <meta name="twitter:app:name:ipad" content="Example App"> <meta name="twitter:app:id:googleplay" content="com.example.app">

Zoals je ziet wordt er naar de App ID van je applicatie in de bijhorende App Store gerefereerd. Rating, aantal reviews, prijs en andere gegevens worden op basis van deze App ID door Twitter zelf ingevuld. Player Deze Twitter card wordt gebruikt voor audio en video. Media wordt via een iframe in de tweet geïmplementeerd. Het nadeel van deze Twitter Card is dat ze op voorhand door Twitter goedgekeurd worden en, in tegenstelling tot de andere Twitter Cards, aan heel wat eisen moet voldoen. Meer informatie vind je op de Twitter Developers Pagina.

98


Dit is een voorbeeld van de HTML code voor een Player Card: Sdf

<meta name="twitter:card" content="player"> <meta name="twitter:url" content="http:// website.be/video-pagina"> <meta name="twitter:title" content="Mijn video"> <meta name="twitter:description" content="Korte omschrijving."> <meta name="twitter:image" content="http://website.be/thumbnail.jpg"> <meta naStructured Datayer" content="https://website.be/embed/a"> <meta name="twitter:player:width" content="435"> <meta name="twitter:player:height" content="251">

De twitter:player tag bevat een HTTPS link naar de iframe speler. Net als bij de Photo card kan hier een hoogte en breedte bepaald worden. Alle attributen in bovenstaande code moeten ingevuld zijn om een geldige Player Card te maken.

Twitter en het Open Graph Protocol Twitter gaat eerst op zoek naar haar eigen code, maar indien het deze niet kan vinden gebruikt het informatie van het Open Graph protocol. Je kan de meta tags voor Facebook en Google+ dus simpelweg aanvullen met meta tags voor Twitter Cards. Volgende tags zijn gelijkaardig: twitter:url

=

og:url

twitter:description

=

og:description

twitter:title

=

og:title

twitter:image

=

og:image

twitter:image:width

=

og:image:width

twitter:image:height

=

og:image:height

99


Social snippets testen Na de implementatie van je Open Graph code wil je uiteraard controleren of er geen fouten gemaakt zijn. Dit kan je doen via de Facebook Debugger. Deze tool analyseert de Open Graph data van een bepaalde URL, wat erg handig is om fouten te identificeren. Om je te helpen bij de creatie van Twitter Cards, ontwikkelde het bedrijf een Card Validator. Deze tool heeft twee functies. Enerzijds kan je aan de hand van de Card Validator de HTML code van een Twitter Card genereren. Kies een Twitter Card, vul de bijhorende velden in en je krijgt de juiste HTML code te zien. Hierna hoef je enkel deze code te kopiëren en op je pagina te plaatsen. Anderzijds kan je deze tool gebruiken om de code op je website te controleren op fouten. Hiermee kan je ook de goedkeuring voor Player Cards vragen.

100


Social Snippets Best Practices Een eenvoudige manier om meer bezoekers uit sociale media te halen is via de optimalisatie van je social snippets. Google, Facebook, Linkedin en Twitter gebruiken het Open Graph Protocol om deze snippets te genereren. Daarnaast heeft Twitter een aantal specifieke meta tags voor haar Twitter Card.

Tips: › › › › ›

Voeg de Open Graph code toe aan elke pagina. Zorg ervoor dat je thumbnail minstens 200 x 200 pixels groot is (minstens 280 x 150 pixels voor Twitter). Test je Open Graph code via de Facebook Debugger. Test je Twitter Cards via de Card Validator. Tag je URLs met extra parameters om meer inzicht te krijgen in bezoekers van sociale media.

Links: › › › ›

Facebook Debugger Twitter Card Validator Twitter Cards The Open Graph Protocol

101


Structured Data Zoals eerder al gezegd is het voor zoekmachines soms moeilijk om de inhoud van een pagina te begrijpen. Sommige termen uit onze taal kunnen dubbelzinnig geïnterpreteerd worden. De uiteindelijke betekenis hangt dan vaak af van de achterliggende context. Structured data – informatie die begrijpbaar is voor machines - kan een oplossing zijn voor dit probleem. Zoekmachines gebruiken deze informatie om de kwaliteit van de zoekresultaten te verbeteren. Het helpt gebruikers om sneller relevante pagina’s te vinden via rich snippets.

“The term structured data refers to data that is identifiable because it is organized in a structure.”

102


Het nut van structured data Zoekmachines hebben vaak een beperkt begrip van de inhoud van een pagina. Structured data helpt hen om bepaalde elementen correct te classificeren. Stel dat we een pagina hebben over ‘jaguar’. Gaat het in dit geval over het dier of het automerk? En de cijfers 034550108 – is dit een telefoonnummer of faxnummer? Deze dubbelzinnigheid maakt het moeilijk voor zoekmachines om de correcte informatie te tonen. Structured data zorgt ervoor dat zoekmachines de inhoud van een pagina beter begrijpen en helpt ze om deze informatie op een duidelijke, gestructureerde manier weer te geven.

Rich snippets Het grote voordeel van de implementatie van structured data is een betere visibiliteit in de zoekresultaten. Structured data wordt door zoekmachines gebruikt om rich snippets te genereren. De kans is groot dat je deze rich snippets reeds in de zoekresultaten bent tegengekomen. Als je bijvoorbeeld in Google op zoek gaat naar een recept voor lasagne, zie je bij sommige zoekresultaten afbeeldingen, sterren-rating, het aantal reviews, kooktijden, etc. Dit zijn allemaal voorbeelden van rich snippets. Dankzij deze extra informatie kan je een pagina onderscheiden van de andere zoekresultaten. Het resulteert dan ook vaak in een verhoging van de click-through rate naar de website. Sommige bedrijven rapporteerden zelfs een toename van 30% van hun CTR dankzij de implementatie van structured data.

103


Soorten structured data Er zijn drie manieren om structured data te implementeren, namelijk; › Microdata › Microformats › RDFa Voordat we de verschillende soorten structured data uitleggen, is het belangrijk om te weten dat ze niet gemixt mogen worden. Je kan dus niet meer dan een type structured data op dezelfde pagina gebruiken. Voor meer informatie omtrent de technische specificaties van microdata, microformats en RDFa lees je best dit artikel van Manu Sporny.

Microdata Microdata is een initiatief van de drie grootste zoekmachines – Google, Bing en Yahoo. Om het gebruik van dit type structured data te stimuleren, richtten ze de website Schema.org op, waar je instructies vindt voor allerlei situaties. De code van microdata bestaat telkens uit drie elementen: itemscope, itemtype en itemprop. Het itemscope element bevat informatie omtrent een bepaald item. Het kan eenvoudig aan de HTML code toegevoegd worden: <div itemscope> Foo Fighters Concert </div>

104


Het itemtype element wordt gebruikt om de informatie aan een bepaalde klasse toe te voegen. Omdat het in dit geval over een muziekconcert gaat, gebruiken we ‘Event’ als itemtype. Op schema.org vind je een overzicht van alle itemtypes die mogelijk zijn. <div itemscope itemtype=”http://schema.org/Event”> Foo Fighters Concert </div>

Een itemtype wordt gespecificeerd aan de hand van een URL. Dankzij deze code weten zoekmachines dat alle informatie tussen de twee <div> elementen over een evenement gaat. De volgende stap bestaat erin om de informatie over het evenement te koppelen aan dit itemtype. Dit doen we aan de hand van een itemprop. Via deze code kunnen we meer gedetailleerde informatie geven over het itemtype. We kunnen bijvoorbeeld de locatie toevoegen aan het evenement op basis van onderstaande code: <div itemscope itemtype=”http://schema.org/Event”> <span itemprop=”name”>Foo Fighters Concert</span>. Locatie: <span itemprop=”location”>Sportpaleis Antwerpen</span>. </div>

Tijdsaanduidingen Tijdsaanduidingen kunnen voor interpretatie vatbaar zijn. Sommige regio’s gebruiken een specifieke tijdsaanduiding, wat voor verwarring kan zorgen. De datum 08/10/12 bijvoorbeeld, is dit 8 oktober 2012, 10 augustus 2012 of 12 augustus 2008? Om dit probleem te vermijden wordt er telkens dezelfde format gebruikt, namelijk YYYY-MM-DD. Dankzij het gebruik van deze standaard kunnen zoekmachines een tijdsaanduiding beter begrijpen. 105


Indien het Foo Fighters concert op 1 april 2014 plaatsvindt, kunnen we dit aan zoekmachines duidelijk maken: <time datetime="2014-04-01">1 april 2014</time>

Bij elk concert wordt er naast een datum ook een aanvangsuur gecommuniceerd. Deze tijd kan ook aan dezelfde code toegevoegd worden. Zoals je ziet wordt er een 24-uur tijdsaanduiding gebruikt: <time datetime="2014-04-01T19:30">1 april 2014 om 19.30u</time>

Tot hiertoe hebben we stuctured data aan een stukje tekst van een pagina toegevoegd. We hebben dit geclassificeerd als een ‘evenement’. Daarnaast hebben we het een naam gegeven en de locatie bepaald. Tenslotte hebben we via het datetime element een datum en aanvangsuur toegevoegd. Indien we alle informatie samenbrengen, ziet de HTML code voor het Foo Fighters concert er als volgt uit: <div itemscope itemtype=”http://schema.org/Event”> <span itemprop=”name”>Foo Fighters Concert</span>. Locatie: <span itemprop=”location”>Sportpaleis Antwerpen</span> Datum: <time datetime="2014-04-01T19:30">1 april 2014 om 19.30u</time>. </div>

Dankzij structured data weten zoekmachines dat er op 1 april 2014 om 19.30u een Foo Fighters concert is in het sportpaleis van Antwerpen.

106


Impliciete informatie Sommige informatie is niet zichtbaar voor bezoekers van een site. Ze kan bijvoorbeeld vervat zijn in een media object of niet expliciet vermeld worden op een pagina. Om aan dit soort informatie structured data toe te voegen, gebruiken we meta tags. Stel dat we een video op onze pagina hebben, waarvan we de lengte als rich snippet willen tonen. Omdat de lengte van de video niet vermeld wordt op de pagina zelf, moeten we meta tags gebruiken: <meta itemprop=”Duration” content=”T2M40S” />

Bovenstaande code vertelt aan zoekmachines dat de video 2 minuten en 40 seconden lang is (vergeet niet dat we het ISO8601 formaat voor tijdsaanduidingen gebruiken).

Microformats Microformats zijn een uitbreiding van de standaard HTML tags op basis van semantisch informatie. Hierbij wordt structured data toegevoegd via extra HTML classes. Microformats is dus een eenvoudige manier om structured data toe te voegen. De meest bekende soorten microformats zijn hCard, hCalendar en hReview. hCard wordt gebruikt ter identificatie van personen, bedrijven en organisaties. hCalendar wordt gebruikt voor evenementen en hReview voor informatie omtrent boeken, restaurants, films, etc. De implementatie is vrij eenvoudig. Aan de hand van een voorbeeld zal dit al snel duidelijk worden. Stel dat we een pagina over een voetbalwedstrijd hebben. In de eerste plaats moeten we aan

107


zoekmachines duidelijk maken dat het om een evenement gaat. In de <head> van de site refereren we naar een hCalendar: <head profile=”http://microformats.org/hcalendar”>

In de volgende stap moeten we een bepaalde deel van de pagina aan het evenement toewijzen. Hiervoor wordt de vevent class gebruikt: <div class=”vevent”> Arsenal – Real Madrid In het Emirates Stadion op 22 oktober 2013 om 20.30u. </div>

Zoals je ziet behoort alle informatie tussen de <div> - zoals de twee ploegen, locatie en tijdsaanduiding - tot de vevent class. Op basis van microformat classes kunnen we deze informatie correct als structured data implementeren: <div class=”vevent”> <span class=”summary”>Arsenal – Real Madrid</span> In het <span class=”location”>Emirates Stadion</span> op <time class=”dtstart” title=”2013-10-22T20:30”>22 oktober 2013 2012 om 20.30u.</time> </div>

Via deze microformats code weten zoekmachines dat er op 22 oktober 2013 om half 9 een voetbalwedstrijd tussen Arsenal en Real Madrid in het Emirates Stadion plaatsvindt. Meer informatie over microformats vind je in de Microformats Wiki.

108


RDFa Als derde methode om structured data te implementeren, kunnen we RDFa gebruiken. RDFa staat voor Resource Description Framework in Attributes en voegt ook extra attributen aan HTML tags toe om entiteiten te identificeren. Het bestaat uit vier basisattributen: voctype, typeof, property en resource. Het eerste attribuut, voctype, definieert de database voor deze structured data. Het vertelt zoekmachines hoe ze de informatie moeten interpreteren. In dit geval gebruiken we de structuur van schema.org (er zijn nog andere bronnen, zoals LOV of Dublin Core): <p vocab=”http://schema.org”> Hallo, mijn naam is An Vervoort! </p>

In de volgende stap moet de aanwezige informatie aan de juiste klasse toegevoegd worden. Gaat het om een evenement, persoon, restaurant, …? Hiervoor gebruiken we het typeof attribuut: <p vocab=”http://schema.org” typeof=”Person”> Hallo, mijn naam is An Vervoort! </p>

Zoekmachines weten nu dat het om een persoon gaat, maar ze weten niet veel over hem/haar. Via properties kunnen we extra informatie toevoegen: <p vocab=””http://schema.org” typeof=”Person”> Hallo, mijn naam is <span Link Buildinge”>An Vervoort</span>! </p>

109


We kunnen ook een unieke ID toevoegen om An Vervoort te identificeren. Hiervoor gebruiken we het resource attribuut: <p vocab=”http://schema.org” resource=”#anvervoort” typeof=”Person”> Hallo, mijn naam is<span property=”name”>An Vervoort</span>! </p>

Deze ID is erg handig indien we over dezelfde persoon spreken op een andere website. Meer informatie over RDFa vind je op de website van W3.org.

Structured data testen Je hebt net een aantal uren gespendeerd aan de implementatie van structured data op je website. Maar hoe weet je nu of dit correct is verlopen? Misschien heb je een aantal fouten gemaakt waardoor je structured data verkeerd wordt gelezen? Om je code te testen, ontwikkelde Google haar Structured Data Testing Tool. Op deze pagina kan je de URL van een pagina ingeven, waarna Google alle gevonden structured data analyseert. Als alternatief kan je een stukje HTML code met microdata, microformats of RDFa in het kadertje plakken.

110


Structured Data Best Practices Structured data wordt gebruikt door zoekmachines om bepaalde elementen van een pagina beter te begrijpen. Daarnaast gebruiken ze deze informatie om rich snippets te genereren. Dit kan de CTR naar je pagina verhogen.

Tips: › ›

Voeg structured data toe via microdata, microformats of RDFa. Gebruik slechts een soort structured data op een pagina.

Test je code aan de hand van de Structured Data Testing Tool.

Links: › › › › › › › ›

Schema.org Structured Data Markup Helper RDFa Microformats Structured Data Testing Tool Schema Creator hCard Creator hReview Creator

111


Link Building Google was een van de eerste zoekmachines die links gebruikte om de autoriteit van een site te bepalen. Elke link naar een site wordt aanzien als een stem voor die site – een representatie van de online democratie. Link building is een verzameling technieken om de autoriteit van een website te verhogen aan de hand van links. Het is een van de meest arbeidsintensieve taken van een SEO. Desalniettemin heeft het een grote invloed op de positie van een website.

“Thanks to this focus on links, growing the link profile of a website is essential to gaining traction, attention and traffic from search engines.”

112


Weet je nog… … dat we in het begin van deze gids zeiden dat links een belangrijk onderdeel vormen van het algoritme van zoekmachines? Ze gebruiken het niet alleen om pagina’s te ontdekken, maar ook om een waarde aan deze pagina’s toe te kennen. Link building is een verzameling technieken die gericht zijn op het maximaliseren van deze linkwaarde. Google en andere zoekmachines gebruiken links om de autoriteit van een site te bepalen. Elke link naar een site wordt aanzien als een stem voor die site. Des te meer links (of stemmen) een site krijgt, des te beter deze in de zoekresultaten zal scoren. Op dezelfde manier maken mensen vaak een keuze tussen alternatieven. Stel dat je volgende week met je partner op restaurant wil en je vraagt vier collega’s om suggesties. Een van je collega’s stelt restaurant A voor, terwijl de drie andere collega’s restaurant B voorstellen. De kans is groot dat je in dit geval voor restaurant B opteert. Zoekmachines behandelen links op dezelfde manier. Aan elke link moet echter een waarde toegekend worden. Niet elke links is immers evenveel waard. Hiervoor werd het PageRank algoritme ontwikkeld.

PageRank In tegenstelling tot wat veel mensen geloven, is de ‘page’ in PageRank niet de Engelse term voor ‘pagina’. Akkoord, ze wordt gebruikt om het linkprofiel van webpagina’s te analyseren, maar ze is vernoemd naar de uitvinder ervan; Larry Page. Deze naam doet misschien een belletje rinkelen – Larry Page is namelijk een van de oprichters van Google.

113


PageRank is een link analyse algoritme dat een waarde aan een web pagina toekent om het belang van een pagina te meten. Om de waarde van een pagina te meten worden links gebruikt. Elke pagina begint met een lage PageRank. Pagina’s kunnen hun PageRank verhogen door links van andere pagina’s te ontvangen. Dit is echter geen democratisch systeem (niet elke link is evenveel waard). Daarom zijn er een aantal factoren waar we rekening mee moeten houden: Autoriteit Links van autoritaire websites zijn invloedrijker dan links van minder populaire sites. Hier kunnen we opnieuw het voorbeeldje van het restaurant bijhalen. Stel dat twee collega’s voor restaurant A kiezen en twee collega’s voor restaurant B. In de tweede groep zit echter een restaurantcriticus van Gault Millau, een culinair expert dus. De kans is groot dat je hierdoor voor restaurant B kiest. De autoriteit van deze persoon is doorslaggevend. Dit geldt ook op het web. Diversiteit Is het beter om 1 link van 10 verschillende domeinen te krijgen dan 10 links van 1 domein (als we ervan uitgaan dat alle andere factoren identiek zijn)? In dit geval stel is het waarschijnlijk beter om voor een enkele link van 10 domeinen te gaan. Google houdt rekening met de domein diversiteit van inkomende links. Vijf links van een enkele domein helpen je dus niet om vijf keer zo goed te scoren. Daarom is het best om links vanuit verschillende domeinen te bouwen. Context De context of het onderwerp van de site is ook van belang. Idealiter heb je zoveel mogelijk links van sites die dezelfde thema’s behandelen als je eigen site. 114


Externe vs interne links Interne links bevinden zich op hetzelfde domein, terwijl externe links twee aparte domeinen met elkaar verbinden. Hoewel interne links heel wat SEO waarde hebben, zijn externe links veel krachtiger. Externe links hebben de grootste invloed op de rangschikking van je pagina’s. Positie Zoekmachines hebben een vrij goed beeld van de structuur van een pagina (body, footers, headings, sidebars…). Op basis van de locatie van een link kunnen ze er meer of minder aandacht aan besteden. Daarom zijn links in de body (de belangrijkste content) van een pagina belangrijker dan die in een footer of sidebar. Waarom? Omdat deze links waarschijnlijk gerelateerd zijn aan de content van de pagina zijn ze relevanter voor bezoekers. Anchor text Een anchor text is de klikbare tekst die gebruikt wordt om naar een pagina te linken (meestal in het blauw en onderlijnd). Deze tekst geeft bezoekers en zoekmachines meer informatie omtrent de achterliggende pagina. Generische termen als ‘klik hier’ of ‘deze pagina’ zijn niet erg nuttig. Daarom is het best om een beschrijvende term als anchor text te gebruiken, bijvoorbeeld ‘Nike voetbalshirts’. Zoals bij de meeste SEO praktijken is het best om hierin niet te overdrijven. Je hoeft dus geen volledige paragraaf als link te gebruiken of overdreven veel keywords in je anchor text te stoppen. Zorg ervoor dat je een natuurlijke mix van generieke en keyword anchor text hebt.

115


Link Building Tactieken Er zijn heel wat tactieken die gebruikt kunnen worden om links te bouwen. Deze kunnen onderverdeeld worden in twee grote groepen: › Natuurlijke link building › Manuele link building We spreken van natuurlijk link building wanneer iemand naar je site linkt zonder je tussenkomst. Dit is vaak het geval wanneer je interessante, relevante en unieke content publiceert. Zoals we reeds eerder zeiden; kwaliteitsvolle content trekt automatisch links aan. De kans is echter groot dat je flink wat tijd in link building moet investeren. Bij manuele link building ga je zelf actief op zoek naar link building opportuniteiten. Om je met link building te helpen, hebben we een aantal tactieken besproken: Natuurlijke link building tactieken De uitdaging bestaat erin om unieke content te publiceren. Je vindt over virtueel alles informatie op het web. Dit zorgt ervoor dat we twee opties hebben; ofwel meer uitgebreide informatie publiceren of als eerste een bepaald onderwerp aansnijden. Een creatieve format kiezen kan ook helpen om links aan te trekken. Sommige soorten content trekken veel sneller links aan, zoals infographics, comics en quizzen. Zo maakt Moz wekelijks een Whiteboard Friday – een artikel in de vorm van een video. In plaats van een eenvoudig tekstje te schrijven, presenteren ze elke vrijdag een concept met behulp van een whiteboard. Deze creatieve aanpak zorgt ervoor dat hun Whiteboard Fridays reeks een succesvol concept is dat heel wat bezoekers en links van andere sites aantrekt.

116


Rand Fishkin van Moz die een Whiteboard Friday presenteert.

Wat ook erg goed werkt is het oplossen van problemen van je bezoekers. Maak een how-to artikel of video en leg uit hoe ze een complex probleem kunnen oplossen. Dit is een techniek die in vrijwel elke sector werkt en je de kans geeft om jezelf als expert te profileren. Als je enige kennis van programmeren hebt, kan je een tool lanceren. Hoewel dit voor sommige sectoren moeilijk is, is het een erg efficiënte link building tactiek. Joost de Valk, beter bekend als Yoast, ontwikkeld Wordpress Plugins die bezoekers gratis kunnen downloaden. Gebruikers komen op zijn website terecht en bekijken uiteraard ook de andere diensten die hij aanbiedt. Daarnaast linken heel wat andere sites naar deze Wordpress Plugins.

Zoals je ziet linken er heel wat sites naar yoast.com

117


‘Gratis’ is ook vaak een recept voor succes. Iedereen krijgt graag gratis producten. Zo geven heel wat web designers gratis icoontjes, textures, templates en dergelijke weg op hun site. Zoals bij zoveel dingen gaat er niets boven een gezonde dosis creativiteit. Romain Brasair, bijvoorbeeld, maakte van zijn 404 pagina een echte blikvanger door er een game in te implementeren. Zelfs ecommerce sites kunnen heel wat links aantrekken door creatief na te denken. De Nederlands keten HEMA ontwierp een Rube Goldberg machine in hun online shop die heel wat nieuwe links genereerde. Manuele link building tactieken De eerste stap bij manuele link building is het vinden van relevante websites. De beste manier om deze te vinden is via een zoekmachine. Met de hulp van een aantal tools (bijvoorbeeld de Mozbar plugin van Moz) kan je meteen de autoriteit van de resultaten vergelijken. Wanneer je relevante sites gevonden hebt, is het tijd om de webmaster te contacteren. Een contactformulier, email adres, Twitter account … vinden mag normaal gezien geen probleem zijn. De volgende stap bestaat erin om deze webmaster te overtuigen om een link naar je site te plaatsen. Om je kans op slagen te vergroten is het aangeraden om een incentive in ruil te geven. Schrijvers geven de webmaster vaak een gastartikel in ruil voor een link. Dit komt beide partijen ten goede – de webmaster heeft een nieuw artikel voor zijn bezoekers en de SEO heeft een nieuwe link naar zijn site. Zorg ervoor dat je een relevant, kwaliteitsvol artikel aanbiedt, zoniet zal je vaak van een kale reis thuiskomen. Als alternatief kan je problemen helpen oplossen. Maak de webmaster attent op een aantal kapotte links op zijn site en vraag om ze naar jouw site te richten. Deze tactiek werkt erg goed wanneer je betere informatie kan aanbieden dan het originele artikel. 118


Indien je een product of dienst verkoopt, kan je een of meerdere gratis testversie weggeven. Webmasters staan vaak open voor zulke praktijken. Ze kunnen dit ofwel zelf gebruiken ofwel verloten onder hun bezoekers. Het is dus een win-win situatie. Je kan zelfs een plaatselijk evenement of team sponsoren. Vaak hebben deze organisaties een pagina op hun website waar ze hun sponsors bedanken, inclusief een link naar deze ondernemingen. Ook van je concurrenten kan je heel wat leren. Zoek websites die goed presteren voor de keywords waarop je zelf wil scoren en analyseer hun linkprofiel (er zijn een heleboel tools die je hiervoor kan gebruiken, zoals Ahrefs en OpenSiteExplorer). Dit is een uiterst efficiënte manier om nieuwe linkopportuniteiten te ontdekken. Zoals je ziet zijn er duizend en een methoden om links te bouwen. Dit waren slechts enkele voorbeelden, maar met een beetje creativiteit vind je vast en zeker nog tientallen andere link building tactieken.

Beheer je linkprofiel Een verdacht linkprofiel kan er (in het slechtste geval) voor zorgen dat je website een penalty krijgt van Google. Verdachte links zijn bijvoorbeeld een groot aantal links van lage kwaliteit met specifieke keywords, links van websites die malware verspreiden, enz. Omdat deze links voor problemen kunnen zorgen, moeten we in sommige gevallen een schoonmaakactie voeren. Door het linkprofiel van je website op een correcte manier te beheren, kan je jezelf heel wat zorgen besparen.

119


Er zijn twee manieren om je linkprofiel te beheren: De nofollow tag Een nofollow tag zorgt ervoor dat zoekmachines een link niet volgen. Er wordt dus ook geen PageRank doorgegeven. Deze tag kan enerzijds als meta robots tag toegevoegd worden. In dit geval is ze van toepassing op alle links van een pagina: <head> <meta name=”robots” content=”nofollow” /> </head>

Anderzijds kunnen we de nofollow tag aan een individuele link toekennen. Dit doen we via onderstaande code: <a href="http://website.be" rel="nofollow”>

Google vraagt webmasters om dit automatisch te doen voor paid links (links waarvoor men betaald heeft, bijvoorbeeld advertenties). Dit soort links voldoen niet aan de vereisten van Google’s Webmaster Guidelines. Daarnaast zijn nofollow links erg handig voor reacties op een artikel. ‘Comment spam’ is een frequent probleem waar heel wat webmasters reeds mee in contact zijn gekomen. Dit is een techniek waarbij bezoekers een reactie op een artikel plaatsen met een link naar een bepaalde website. Deze link zorgt ervoor dat er PageRank doorgegeven wordt naar de achterliggende pagina. Dit is niet altijd wenselijk. Door automatisch een nofollow attribuut aan dit soort links te geven, zorg je ervoor dat er geen autoriteit naar deze websites gaat.

120


Disavow tool In 2012 lanceerde Google de disavow tool. Hiermee kan je ervoor zorgen dat Google bepaalde links naar je website negeert. Deze tool kan gebruikt worden om een ‘unnatural link warning’ in GWT op te lossen. Indien je een groot aantal verdachte links van lage kwaliteit naar je website hebt, kan de disavow tool deze opkuisen. De disavow tool werkt als volgt: 1. Ga naar deze Google Webmaster Tools pagina (je moet de admin zijn van een site). 2. Selecteer het correct domein en klik op de ‘disavow links’ knop. 3. Selecteer het link bestand en klik op ‘submit’.

Het bestand dat je moet uploaden is een tekstbestand met een overzicht van alle onnatuurlijke links. Het ziet er als volgt uit: #contacted owner, no response http://website.com/page-name.html #multiple bad links from domain domain:website.com

Door een hekje in het begin van een lijn te gebruiken, voeg je een bijschrift toe. Dit is handig voor de persoon die het bestand moet nakijken. Elke URL moet op een aparte regel geplaatst worden. Je kan een aparte pagina toevoegen of een volledige domein.

121


James Farmer van WPMU, een bedrijf dat Wordpress thema’s verkoopt, was begin 2012 genoodzaakt om deze tool te gebruiken. Eind april werd hun site plots het doelwit van een Google Penalty, met de nodige gevolgen:

Dit probleem werd veroorzaakt door een link in de footer van hun Wordpress thema’s. Elk thema dat door hun gelanceerd wordt, bevat een tekstlink naar de website van WPMU. Enkele verdachte websites maakten echter gebruik van deze thema’s. Google pikte deze links op en besloot om maatregelen te treffen in de vorm van een penalty. Gelukkig kon James dit probleem dankzij de disavow tool oplossen.

Sociale media Wat is de invloed van links op sociale media, zoals Facebook, Twitter, Linkedin, Google+, etc. ? Hebben likes, tweets en +1s een impact op de rangschikking van een site? Er is nog veel onzekerheid over de invloed van dit type links. Een aantal studies hebben wel aangetoond dat ze steeds belangrijker worden. Ze kunnen – en waarschijnlijk zullen – een belangrijke rol spelen in de toekomst.

122


Dit blijkt nochmaals uit een artikel van Rob Toledo. Hij interviewde zijn moeder en vroeg hoe zij dacht dat zoekmachines werken. Een van de vragen die hij stelde was: “If you were looking for a veterinarian close to you, what would you do?” Waarop zijn moeder antwoorde: “I’d go to Google.com and type in “best veterinarian in Seattle” and look for people’s reviews. Or maybe ask a neighbor.” Er is een ding waar men meer op vertrouwd dan het eerste zoekresultaat in Google: persoonlijke aanbevelingen van vrienden en kennissen. Dit is de reden waarom signalen van sociale media in de toekomst een belangrijke rangschikkingfactor zullen zijn. Het is dus een goed idee om je website op sociale media uit te bouwen. Zorg ervoor dat je een account hebt op de meest relevante netwerken en engageert met je fans/volgers. Plaats ook op je website social share buttons om het delen te stimuleren. Dit kan voor een aantal extra bezoekers zorgen. Denk eraan dat je in dit geval best je social snippets optimaliseert.

123


Link Building Best Practices Link building heeft een grote invloed op de rangschikking van een pagina en moet dus continu een prioriteit zijn van elke webmaster. Link building kunnen we onderverdelen in twee groepen: natuurlijke link building waarbij je content ‘automatisch’ links aantrekt en manuele link building, waar je zelf op zoek gaat naar opportuniteiten. Creativiteit speelt bij dit onderdeel een belangrijke rol.

Tips:

› ›

Ga op zoek naar autoritaire websites voor je links, liefst in dezelfde niche. Zorg voor genoeg diversiteit in domeinen en anchor text. Probeer op een natuurlijke manier links aan te trekken door unieke en relevante content te publiceren. Beheer je linkprofiel via de nofollow tag en disavow tool. Geef betaalde links sowieso een nofollow tag.

› › › › ›

Comment Spam Disavow tool Rel=”nofollow” The Most Creative Link Building Post Ever The Second Most Creative Link Building Post Ever

› › ›

Links:

124


Authorship In een van voorgaande hoofdstukken in deze gids bespraken we structured data en hoe dit voor rich snippets kan zorgen. Er is echter nog een ander soort rich snippet dat gebruikt kan worden in de zoekresultaten – het profiel van de auteur. Hiervoor gebruiken we authorship.

“Content tied to verified online profiles will be ranked higher than content without such verification … the true cost of remaining anonymous might be irrelevance.”

Bij authorship wordt de content van een site aan een auteur gelinkt (via een Google+ profiel). Hierdoor kan Google populaire auteurs die frequent kwaliteitsvolle content publiceren belonen.

125


Wat is authorship? Authorship zorgt ervoor dat een artikel aan een bepaalde persoon gelinkt wordt. Hierdoor kan de auteur geïdentificeerd worden. Deze informatie wordt ook in de zoekresultaten gebruikt. In dit geval wordt een profielfoto van de auteur naast de paginaomschrijving getoond. Wanneer je op deze foto klikt, wordt je naar het bijhorende Google+ profiel doorverwezen. Authorship kan enkel gebruikt worden in combinatie met een Google+ account.

Voordelen van authorship Steeds meer bloggers en bedrijven ontdekken het nut van Authorship. Er zijn dan ook drie belangrijke voordelen aan verbonden: Hogere CTR Authorship kan de CTR naar je site ten goede komen. Vooral indien bezoekers je profiel herkennen en je associëren met kwaliteitsvolle content, zullen ze sneller geneigd zijn om de pagina te bezoeken. In dit geval kan een pagina die lager staat in de zoekresultaten nog steeds een hogere CTR krijgen dan beter gepositioneerde pagina’s. Je profielfoto zorgt er ook voor dat je meer opvalt tussen de andere zoekresultaten. Ook hier is het interessant om te experimenteren met verschillende profielfoto’s. Bonus links Een tweede, minder bekende voordeel van authorship zijn de bonus links. Wanneer je op een zoekresultaat met authorship klikt, het artikel leest en nadien terug naar de SERPs gaat, toont Google drie extra links. Deze links worden enkel getoond indien een bepaalde

126


tijd is verstreken. Google deelde niet mee hoe lang dit is, maar uit een aantal tests is gebleken dat dit ongeveer 2 minuten is. In de praktijk ziet dit er als volgt uit; onderstaand artikel werd geschreven door Lauren Drell. Haar profielfoto wordt getoond omdat ze authorship aan deze pagina toevoegde.

Na het artikel gelezen te hebben, keren we terug naar de SERPs. Deze keer werden er drie bonus links getoond onder het zoekresultaat:

Het voordeel van deze extra links is een hogere retentiegraad. Op deze manier zullen bezoekers sneller gerelateerde artikels lezen die ze anders misschien niet ontdekt hadden. Hogere rangschikking Last but not least; authorship kan voor een betere positie in de zoekresultaten zorgen. Google heeft vermeld dat authorship een van de factoren is waarmee ze rekening houdt. Wanneer Google merkt dat je een populaire auteur bent en regelmatig kwaliteitsvolle content publiceert, zullen je artikels beter scoren in de

127


zoekresultaten. Reeds in 2004 vroeg Google een patent aan voor dit systeem:

“…more well-received and popular ‘agents’ could have their associated content rank higher than unsigned content or the content of other lessauthoritative agents.” In de toekomst zal het dus belangrijk worden om als auteur een goede reputatie op te bouwen door kwaliteitsvolle content te genereren.

Authorship implementeren Authorship aan een pagina toevoegen is erg eenvoudig en kan op enkele minuten gedaan worden. Denk eraan dat je hiervoor een Google+ profiel moet hebben. Op dit moment zijn er drie manieren om authorship aan een website toe te voegen: Via een email adres Deze methode lukt enkel wanneer je een email adres hebt op dezelfde domein als je content (bijvoorbeeld frank@website.be en website.be). 1. Vermeld expliciet dat je de auteur van het artikel bent (bijvoorbeeld ‘artikel door Frank Vervoort’). 2. Bezoek deze pagina en voer je email adres in. Je email adres verschijnt in het ‘contributor to’ gedeelte van je profiel.

128


Via HTML Indien je geen email adres hebt van dezelfde website, kan je een stukje HTML code gebruiken om authorship toe te voegen: 1. Ga naar je Google+ profiel en kopieer de URL. 2. Creëer een link naar je profiel op de pagina. Voeg de parameter ?rel=author toe aan deze URL, bijvoorbeeld: <a href="https://plus.google.com/u/0/11332605484 0703230736?rel=author">Google+</a> 3. Vervolgens voeg je de website toe aan de ‘contributor to’ sectie van je Google+ profiel. Via het <link> element Authorship kan ook toegevoegd worden via een <link> element in de <head> van een site: 1. Ga naar je Google+ profiel en kopieer de URL. 2. Link naar deze URL in de <head> van de pagina via deze code: <link rel="author" href="Plak de URL hier"> 3. Verifieer deze link via de ‘contributer to’ sectie op Google+.

Rel=author vs Rel=Publisher Er zijn twee soorten tags die een auteur aan een artikel kunnen linken; enerzijds de rel=author tag en anderzijds rel=publisher. Maar wat is nu het verschil tussen beide versies? De rel=author tag wordt gebruikt voor individuen. Hiermee kunnen ze hun werk op verschillende sites promoten. Het resultaat van deze implementatie is dat de profielfoto van de auteur in de SERPs verschijnt. De rel=Publisher tag daarentegen, linkt een volledige site aan een Google+ pagina. Deze tag is voorbehouden voor bedrijven en

129


organisaties. In plaats van een profielfoto van de auteur, wordt er bij de rel=publisher een deel van de Google+ pagina van het merk getoond.

Implementatie testen Uiteraard wil je controleren of je code naar behoren functioneert. Omdat authorship een vorm van rich snippets is, kunnen we hiervoor de Structured Data Testing Tool van Google gebruiken. Aan de hand van deze tool kan je de authorship informatie op een site nakijken.

Als je bovenstaande bericht te zien krijgt, is authorship correct geïmplementeerd.

130


Authorship Best Practices Authorship zal in de toekomst een belangrijke rol spelen in het algoritme van Google. Het beloont auteurs voor het consistent publiceren van kwaliteitsvolle content met een betere rangschikking, bonus links en rich snippets.

Tips: › ›

Maak een Google+ profiel om authorship te gebruiken. Voeg authorship toe via een passend email adres, HTML link of een <link> element.

› ›

Gebruik de rel=”Publisher” tag als onderneming. Test je code via de Structured Data Testing Tool.

Structured Data Testing Tool

Links: › Link your content to a Google+ profile

131


Mobile SEO De verkoop van smartphones en tablets is de voorbije jaren explosief gestegen. Dankzij de WiFi-mogelijkheden en mobiel internet, gebruiken steeds meer mensen deze mobiele toestellen om op het internet te surfen. Om deze bezoekers een optimale gebruikservaring te garanderen, moeten er een aantal aanpassingen aan websites gebeuren. Ook zoekmachines zullen deze ingrepen appreciëren.

“Google plans to roll out several ranking changes in the near future that address sites that are misconfigured for smartphone users.”

132


Mobiel zoekgedrag Als we het zoekgedrag en de zoekresultaten op mobiele apparaten vergelijken met die van een klassieke desktop, zien we een aantal belangrijke verschillen. In de eerste plaats zijn mobiele zoekopdrachten doorgaans korter. Niemand typt graag een lange zin op een smartphonescherm, wat voor kortere seach queries zorgt. Daarnaast gebruiken sommige gebruikers de autocomplete functie van een zoekmachine. Het is dus aangeraden om deze termen te analyseren en eventueel te implementeren in je website. Mobiele zoekopdrachten zijn vaak locatiegebonden – je bent op zoek naar een lekker restaurant in de buurt of het telefoonnummer van een plaatselijke kapper. Daarom tonen zoekmachines vaker zoekresultaten die aan een locatie gebonden zijn (bijvoorbeeld Google Places of pagina’s met plaatsnamen). Uit voorgaande paragraaf kan je ook afleiden dat voor bepaalde sectoren een mobiele strategie belangrijker is dan andere. Vooral horecazaken zijn gebaat bij een sterke mobiele aanwezigheid. Een producent van industriële vaten zal waarschijnlijk minder voordelen ondervinden.

Mobiele websites Het web is aan een ware revolutie bezig nu steeds meer mensen hun smartphone of tablet gebruiken om te surfen. Websites zijn genoodzaakt om zich aan te passen aan dit type bezoekers. Vandaag de dag zijn er drie manieren om je content aan mobiele bezoekers aan te bieden:

133


Standaard website In dit geval wordt er geen aparte website voor mobiele gebruikers gemaakt. De bezoeker kan dezelfde URL gebruiken en krijgt de standaard layout en inhoud te zien. Het voordeel van deze methode is dat je geen extra ontwikkelingskosten hebt. Een belangrijk nadeel is dat in de meeste gevallen deze site niet erg gebruiksvriendelijk is (onleesbare tekst, lange laadtijden, functies die niet werken, etc.). Mobiele website Sommige bedrijven opteren dan weer voor een mobiele website. Deze website is specifiek gemaakt voor mobiele gebruikers en bevindt zich op een afzonderlijke URL (bijvoorbeeld m.website.be). Deze techniek kan echter voor duplicate content problemen zorgen. Responsive design Een oplossing die de laatste jaren erg populair is geworden, is een responsive design. Dit is een website die zichzelf aanpast o.b.v. de schermgrootte. Door haar structuur aan te passen, ziet de website er op een elk toestel even goed uit.

Voorbeeld van een responsive design: de website past zichzelf aan op basis van de schermgrootte.

134


Mobiele optimalisatie Er zijn een aantal zaken die ervoor kunnen zorgen dat een website geoptimaliseerd is voor mobiele gebruikers: Web design Op voorgaande pagina toonden we drie manieren om content aan mobiele gebruikers te presenteren. Welk van deze methoden is het beste - een standaard website, mobiele site of responsive design? Google raadt het gebruik van responsive design aan omdat het een aantal belangrijke voordelen biedt: › Er wordt slechts een URL gebruikt. Dit maakt het makkelijk voor gebruikers om de site te delen. Het helpt ook bij het indexatieproces van zoekmachines. › Er is geen redirect nodig, wat de laadtijden ten goede komt. › De website ziet er goed uit, ongeacht de grootte van het toestel. De ontwikkeling en implementatie van een responsive website vraagt een extra investering. Deze investering zal zich echter snel terugbetalen, vooral wanneer men een groot deel van de omzet online genereert (bijvoorbeeld webshops). Content Vergeet niet om ook je inhoud te optimaliseren. Zorg voor een duidelijke structuur en hierarchy zodat bezoekers snel de juiste informatie kunnen vinden. Grote stukken tekst zonder allinea’s en subtitels zijn uit den boze. Controlleer daarnaast of alle functies correct functioneren. Denk bijvoorbeeld aan formulieren, sliders met afbeeldingen, video’s, etc. Soms is het zelfs nodig om extra functies toe te voegen, zoals een interactief telefoonnummer in de contactgegevens.

135


Lokale SEO Zoals eerder al vermeld, tonen zoekmachines meer locatiegebonden zoekresultaten aan mobiele gebruikers. Zorg er dus voor dat je site geoptimaliseerd is voor deze bezoekers. In het hoofdstuk lokale SEO vond je al enkele tips, waaronder het gebruik van keywords, de implementatie van structured data en de registratie van op Google Places.

Mobiele websites testen Wanneer je een elektronicawinkel binnenstapt, zie je meteen een enorm aanbod aan smartphones en tablets. Merken als HTC, Sony, Nokia en Samsung hebben elk verschillende modellen met een variatie in schermgrootten. Om een website te testen is het dus onmogelijk om al deze toestellen in huis te halen. Gelukkig bestaan er een aantal diensten om je mobiele website te testen:

W3C mobileOK Checker Deze tool controleert of een website klaar is voor mobiele bezoekers. Na de analyse krijg je een lijst met suggesties om je site te optimaliseren. › W3C mobileOK Checker

MobiReady Deze tool geeft een score (van 1 tot 5) aan de mobiele versie van je site, inclusief tips om je mobiele site te verbeteren. › MobiReady

136


Screenfly Wil je weten hoe een site er op een iPhone 5, Blackberry 8300 of Google Nexus 7 uitziet? Dankzij Screenfly kan je een website testen op verschillende apparaten en resoluties. › Screenfly

User-agent switcher Er zijn browser-plugins die ervoor kunnen zorgen dat servers denken dat je een smartphone of tablet gebruikt, zelfs wanneer dit niet het geval is. Door de user-agent van je browser te veranderen, kan je eender welk mobiel toestel nabootsen. Dit is handig om mobiele sites te testen. Om dit te doen heb je de juiste User Agent Profile (UAProf) nodig. Dit is een code die gebruikt wordt om een toestel, bijvoorbeeld de Samsung Galaxy S3, te identificeren. Op de UAProf Repository vind je alvast een lijst met veelgebruikte codes. › User-agent switcher voor Google Chrome › User-agent switcher voor Mozilla Firefox

137


Mobiele SEO Best Practices De meeste webmasters zien het aantal mobiele gebruikers steeds toenemen. Het is een segment dat niet meer verwaarloost mag worden. Door onze website te optimaliseren voor deze bezoekers, zorgen we niet alleen voor een optimale gebruikservaring maar ook voor een sterke mobiele SEO.

Tips: › › › ›

Google raadt het gebruik van een responsive design aan. Houd tijdens je keyword research rekening met mobiele gebruikers. Controleer of alle functies naar behoren functioneren. Voeg een interactief telefoonnummer toe.

Lokale SEO is ook belangrijk voor mobiele gebruikers.

Building smartphone-optimized websites

Links: › Responsive web design

138


Site Speed Raak jij ook gefrustreerd als een website te traag laadt? Ik in ieder geval wel. Menig bezoeker heeft reeds een bezoek aan een website afgebroken omdat de laadsnelheid van een pagina te traag was. Gebruikers verwachten immers dat de “Slow loading pages inhoud op enkele milliseconden suffer from low user tevoorschijn komt. Wanneer dit niet engagement and can het geval is, breken heel wat mensen also have a negative hun bezoek af. Daarom heeft Google influence on the recent de laadsnelheid van een pagina in haar algoritme opgenomen. indexation.”

139


Het belang van een snelle website Ik hoef je niet te vertellen dat een snelle website heel wat frustraties kan vermijden. Websites die te traag laden zullen een groot deel van hun bezoekers zien verdwijnen. De invloed van de laadsnelheid valt niet te onderschatten. Uit een onderzoek van Brand Perfect blijkt dat twee derde (67%) van de Engelse consumenten een trage laadsnelheid aanhaalt als reden om een online shop te verlaten. Op basis van deze informatie reduceerde Phil Dixon van Shopzilla de laadtijd van zijn site van ~7 seconden naar ~2 seconden. Dit resulteerde in een stijging van 25% van het aantal pageviews, 12% meer omzet en 50% minder hardwarekosten. Dit laatste voorbeeld toont aan dat de optimalisatie van de laadsnelheid van een site een win-win situatie is; het zorgt voor een verhoging van de omzet en een verlaging van de operationele kosten.

Laadsnelheid en Google De snelheid van een site heeft niet alleen een invloed op de omzet en kosten maar ook op de rangschikking ervan. In april 2010 kondigde Google aan dat het site speed heeft opgenomen in haar algoritme. Hoewel de impact ervan miniem is, is de optimalisatie van je laadsnelheid een investering in de toekomst.

“Speeding up websites is important — not just to site owners, but to all Internet users. Faster sites create happy users”.

140


Laadsnelheid meten Om te bepalen of een website al dan niet te traag laadt, moeten we er eerst voor zorgen dat we de laadsnelheid kunnen meten. Hiervoor kunnen allerlei tools gebruikt worden. Google PageSpeed Insights is het ideale platform om je site speed te analyseren. Voer de URL van een pagina in en laat de tool zijn werk doen. Het is aangeraden om zowel de homepage als enkele diepere pagina’s te testen. Na de analyse krijg je een algemene score te zien. Dit is een goede indicator van de snelheid van je site als een geheel. Deze informatie wordt pas echt interessant als we de details gaan bekijken. Onderaan krijg je een aantal aanbevelingen te zien om je website nog sneller te maken. Klik op een suggestie voor meer informatie. Tot zover de eerste site speed test. Wat we zeker niet mogen vergeten is een analyse van de laadsnelheid voor mobiele gebruikers. Steeds meer mensen gebruiken smartphones of tablets om op het internet te surfen. Klik voor deze test rechts bovenaan op de knop ‘mobile’. Hierna krijg je opnieuw een algemen score en suggesties te zien.

Tip: je kan je site speed rechtstreeks in Google Analytics raadplegen via Content > Site Speed.

Ook Yahoo heeft een gelijkaardige tool, genaamd YSlow. YSlow kan gebruikt worden als browser plugin voor Chrome, Firefox, Safari en Opera. Surf naar de pagina die je wil testen en laat de tool zijn werk doen. Net als bij de PageSpeed Insights krijg je een lijst met aanbevelingen te zien.

141


Tips om je laadsnelheid te verbeteren Er zijn allerlei manieren om je website sneller te maken. Afhankelijk van de grootte, doelgroep en inhoud van je website kan een of meerdere van onderstaande technieken gebruikt worden. Afbeeldingen Afbeeldingen hebben een grote invloed op de laadsnelheid van een pagina. De kwaliteit van deze afbeeldingen bepaaldt in grote mate de laadtijd ervan. Gelukkig zijn er een aantal manieren om de bestandgrootte van afbeeldingen te verkleinen: › › ›

PNG afbeeldingen optimaliseren JPEG afbeeldingen optimaliseren GIF afbeeldingen optimaliseren

Om snel de grootte van alle afbeeldingen op een site te verzamelen, kan de Screaming Frog SEO Spider gebruikt worden. In het crawlrapport vind je een tabblad ‘images’ met een lijst van alle afbeeldingen. Hier kan je alle afbeeldingen die groter zijn dan 100kb filteren. Aan de hand van deze lijst kan je bovenstaande optimalisatietechnieken toepassen.

Dankzij Screaming Frog vind je eenvoudig alle afbeeldingen die groter zijn dan 100 kb.

142


Gebruik geen grotere afbeelding dan je nodig hebt. Sommige webmasters gebruiken een afbeelding en verkleinen deze met behulp van HTML naar een kleiner formaat. Bijvoorbeeld: het bestand ‘auto.jpg’ is een afbeelding van 600 x 400 pixels groot. Aan de hand van volgende HTML code wordt de foto verkleind: <img src=”auto.jpg” width=”300” height=”200”>

Bij het laden van de pagina wordt echter de originele afbeelding gedownloadt (600 x 400 pixels). Het is efficienter om meteen de kleinere afbeelding (300 x 200 pixels) te gebruiken. HTML-resize wordt dus best vermeden. Caching De meeste websites bevatten bestanden die zelden gewijzigd worden (CSS bestanden, Javascript bestanden, afbeeldingen, etc.). Deze bestanden worden gedownloadt telkens men de site bezoekt, wat voor langere laadtijden zorgt. Er wordt dus onnodig bandbreedte verspilt. Browser caching is een oplossing voor dit probleem. Met behulp van caching worden deze bestanden door een webbrowser opgeslagen. In plaats van het bestand opnieuw te downloaden bij elk bezoek, kan naar de lokale kopie verwezen worden. Caching zorgt dus niet alleen voor een betere laadtijd maar het neemt ook minder bandbreedte in beslag (wat voor sommige bedrijven een verlaging van de hostingkosten met zich meebrengt). Je kan zelf een caching optie toevoegen via het .htaccess bestand. Dit bestand bevindt zich in de root directory van je site (zorg ervoor dat je de verborgen bestanden kan zien). Vergeet niet om een backup van dit bestand te maken voordat je aanpassingen doet! 143


In het .htaccess bestand zorg je ervoor dat onderstaande code gebruikt wordt: RewriteEngine on

Hieronder voegen we een <FilesMatch> wrapper toe. Hierin sommen we alle bestanden op die we aan de cache willen toevoegen. Zoals je ziet gebruiken we enkel de extensie: <FilesMatch ".(gif|jpg|jpeg|png)$"> </FilesMatch>

Onderstaande code zorgt ervoor dat alle GIF, JPG, JPEG en PNG bestanden gedurende een week in de cache opgeslagen worden: <FilesMatch ".(gif|jpg|jpeg|png)$"> Header set Cache-Control “max-age=604800” </FilesMatch>

Dezelfde techniek kan gebruikt worden voor PDF bestanden (<Files *.pdf>), CSS bestanden (<Files *.css>), Javascript (<Files *.js>), enz. Zoals je ziet wordt de tijd in seconden ingevuld. Hieronder hebben we alvast enkele veelgebruikte timeframes uitgerekend: › › › › ›

1 dag = 86400 seconden 1 week = 604800 seconden 1 maand = 2629000 seconden 6 maanden = 15774000 seconden 1 jaar = 31536000 seconden

144


Hosting Een factor die veel webmasters vergeten: de hosting provider van een website. Des te meer bezoekers je site ontvangt, des te groter de nood voor een hogere bandbreedte. Onvoldoende bandbreedte zorgt voor vertragingen en in sommige gevallen zelfs voor de ontoegankelijkheid van een pagina. Houd ook rekening met plotselinge pieken - bijvoorbeeld tijdens online solden - en stem uw hosting hierop af.

Minify CSS & Javascript CSS en Javascript bestanden bevatten een hele reeks onnodige tekens. Deze overbodige informatie maakt het bestand groter en verhoogt de laadtijd. Dankzij het minify script worden comments, onnodige witregels en overbodige tekens uit je CSS en Javascript bestanden verwijderd. Daarnaast worden dankzij dit script CSS/Javascript bestanden gecombineerd. Omdat er slechts een bestand gedownloadt wordt, wordt het aantal http-requests (een download van de hostingserver naar de bezoeker) beperkt. Het Minify script vind je op code.google.com.

Gebruik CSS sprites Voor elke afbeelding die op een pagina te vinden is, wordt er een aparte http-request uitgevoerd. Des te meer van deze http-requests, des te minder efficient de pagina is. Dankzij CSS sprites kunnen we dit beperken.

145


Bij CSS sprites worden verschillende aparte afbeeldingen in een bestand gecombineerd. Om een bepaalde afbeelding uit dit ‘masterbestand’ te tonen, wordt een CSS-code gebruikt. Hierdoor wordt het aantal downloads beperkt, wat de laadsnelheid bevordert.

Apple gebruikt CSS sprites voor de verschillende staten van haar menu (normaal, hover, klik, etc.)

GZIP compressie Compressie wordt al jaar en dag gebruikt om grote bestanden uit te wisselen. ZIP, RAR, TAR … bestanden kunnen heel wat kilobytes en tijd besparen. Dezelfde techniek kan ook op websites toegepast worden. Dankzij GZIP compressie wordt de bestandgrootte drastisch verkleint. Ter illustratie; het index.html bestand van Yahoo gaat dankzij GZIP compressie van 101kb naar 15kb. Zoals je weet; een kleiner bestand zorgt voor een snellere download. Meer informatie omtrent GZIP compressie.

146


Site Speed Best Practices Trage websites zorgen voor heel wat frustraties. Een goede laadsnelheid heeft een invloed op de gebruiker, omzet en kosten. Sinds 2010 houdt Google rekening met de site speed. Hoewel de invloed hiervan miniem is, is het een goed idee om met deze factor rekening te houden.

Tips: › › › › › › ›

Optimaliseer je afbeeldingen en maak ze zo klein mogelijk. Gebruik geen HTML-resize voor afbeeldingen. Activeer browser caching. Zorg dat je webhosting aan de noden van je website voldoet. Gebruik GZIP compressie. Verklein je CSS en Javascript bestanden via Minify. Implementeer CSS sprites voor afbeeldingen.

› › › › › › › ›

PNG afbeeldingen optimaliseren JPEG afbeeldingen optimaliseren GIF afbeeldingen optimaliseren Optimize your site with GZIP Compression Optimize your site with HTTP caching W3 total cache Wordpress plugin Minify How to use CSS sprites

Links:

147


Resultaten Meten Zoals men vaak zegt: meten is weten. Data is cruciaal om het effect van SEO te meten en eventueel bij te sturen. Zo weet je of bepaalde aanpassingen een negatief of positief effect hebben op de rangschikking van je site.

148


Data verzamelen In de eerste plaats moeten we ervoor zorgen dat de juiste gegevens gemeten worden. Voor SEO heb je zowel gegevens nodig van je eigen domein als van externe bronnen. Statistieken van je eigen website kunnen makkelijk bijgehouden worden via een web analytics pakket. Een van de meest populaire programma’s is Google Analytics maar er bestaan diverse alternatieven zoals Clicky en Omniture. Ook de logfiles van je server kunnen handig zijn. Daarnaast zijn er allerlei methoden om off-site SEO signalen te meten, bijvoorbeeld Moz, LinkResearchTools of de zoekmachines zelf.

Parameters om te meten Er zijn een heleboel parameters die interessant zijn bij de optimalisatie van een website. Hieronder vind je een aantal voorbeelden. Afhankelijk van de aard en het doel van een website, kan deze lijst er anders uitzien. Bezoekers via zoekmachines Het aantal bezoekers die via een zoekmachine op je site terecht komen is een voor de hand liggende maatstaf. Voor websites die zich richten op België en/of Nederland zal vooral Google voor organisch zoekverkeer zorgen. Bing, Yahoo en andere zoekmachines mogen echter niet vergeten worden. Deze gegevens worden vooral gebruikt om een lange termijn trend te onderzoeken. Plotselinge dalingen kunnen te wijten zijn aan problemen met toegankelijkheid of penalty’s. Een snelle vergelijking met andere verkeersbronnen (direct verkeer, refererende websites, betaald verkeer) is aan te raden.

149


Gebruikte zoektermen Het aantal bezoekers van zoekmachines wordt pas echt interessant wanneer we een kijkje nemen naar de zoektermen die ze gebruikt hebben. Ook bij deze gegevens kan je al snel trends en/of seizoenaliteit ontdekken. Ze laten je ook toe om onderwerpen te vinden die relevant zijn voor je website/onderneming maar waarvoor je nog geen content hebt. Op basis van dit rapport kan je deze hiaten wegwerken. Gebruikers van Google Analytics zullen ongetwijfeld de zoekterm (not provided) tegenkomen. De boosdoener is een Google account. Wanneer een gebruiker is ingelogd, wordt standaard de beveiligde versie van Google Search gebruikt. Hierbij maakt men gebruik van een https-verbinding om de privacy van de gebruiker te beschermen. Dit wil ook zeggen dat er geen data over de gebruiker bijgehouden wordt. Er wordt dus geen search keyword opgeslagen (vandaar de naam not provided). Daarnaast zijn er browsers zoals Chrome en Firefox die de beveiligde verbinding van Google gebruiken als je de adresbalk gebruikt voor zoekopdrachten. Zoekterm en conversie Als we nog meer in detail gaan, kunnen we een zoekterm aan een conversiepercentage koppelen. De meeste websites hebben een bepaald doel – een product aankopen, inschrijven voor een nieuwsbrief, contact opnemen, etc. Door een zoekterm te koppelen aan dit doel, kunnen we een waarde toekennen aan deze termen. Zoektermen met een hoog conversiepercentage zijn de ideale kandidaten om je website te optimaliseren.

150


Indexstatus Als webmaster wil je ongetwijfeld zoveel mogelijk pagina’s van je site in de index krijgen. De indexstatus van je site kan je controleren via Webmaster Tools (Google Index > Index Status). Plotselinge dalingen zijn een slecht teken. Keyword prestaties De positie van je content in de zoekresultaten is een essentiële parameter. Deze positie is namelijk verbonden aan de click-through rate van een pagina. Hoger is (meestal) beter. Het doel van veel SEO’s is om hun content op de eerste pagina van de zoekresultaten te krijgen. Je kan deze positie manueel controleren, maar er zijn heel wat tools om deze gegevens bij te houden (bijvoorbeeld Positionly). Het is zelfs mogelijk om Google Analytics te gebruiken voor keyword tracking.

151


10 Tips om te onthouden Tot zover het overzicht van veelgebruikte SEO technieken. We hebben heel wat zaken besproken - gaande van link building tot de optimalisatie van de content van een site. Om enigszins een conclusie aan deze gids te breien, werden de tien belangrijkste tips samengevat. Op de volgende pagina’s vind je tien factoren waar je best rekening mee houdt.

152


1) Bezoekers op de eerste plaats Sommige webmasters spenderen teveel aandacht aan de technische optimalisatie van hun website voor zoekmachines. Deze tijd zou men beter investeren in de bezoekers. Bezoekers komen op de eerste plaats! Zorg dat je content een unieke toegevoegde waarde heeft. Er is een verschil tussen unieke content en een unieke toegevoegde waarde. Wanneer je een artikel van een andere site kopieert en een aantal woorden verandert, heb je technisch gezien unieke content gecreëerd maar geen unieke toegevoegde waarde. Het probleem is dat over elke onderwerp wel wat informatie te vinden is. Deze informatie simpelweg kopiëren zorgt niet voor een toegevoegde waarde. Probeer op een creatieve manier een meerwaarde aan de bezoeker aan te bieden. Een aantal technieken die je hiervoor kan gebruiken vind je in het hoofdstuk inhoudelijke optimalisatie.

2) De kracht van links De kracht van links is niet te onderschatten. Een groot deel van het algoritme van zoekmachines is nog steeds aan links gewijd. Elk type website kan profiteren van een investering in link building. Het is dan ook aangeraden om constant te streven naar een verbetering van het linkprofiel van je site. Hierbij moet met een aantal factoren rekening gehouden worden, zoals de autoriteit van de linkende website, anchor text, omringende termen, enz. (meer informatie vind je in het link building hoofdstuk).

153


3) Verzorg je SERP snippet De informatie die gebruikers in de zoekresultaten te zien krijgen, bepaalt in grote mate of ze er al dan niet op klikken. Spendeer daarom aandacht aan de paginatitel en meta description. Kies de juiste keywords (keywords die overeenkomen met de zoekopdracht worden in het vet weergegeven) en benut de beschikbare ruimte optimaal. Rich snippets kunnen de click-through rate ook gevoelig verhogen. Sterren-ratings, profielfoto’s van auteurs, thumbnails van video’s, etc zorgen ervoor dat je pagina extra opvalt tussen de andere zoekresultaten.

4) Investeer in sociale media Hoewel het effect van sociale media op de rangschikking van een pagina miniem is, is het aangeraden om hierin reeds te investeren. Sociale signalen zullen in de toekomst ongetwijfeld een belangrijke parameter worden. Sociale media kan op zich voor heel wat extra bezoekers zorgen. Vergeet daarom niet om je social snippets te optimaliseren. Gebruik een opvallende thumbnail, aantrekkelijke titel en duidelijke omschrijving. Door de URL te taggen met extra campagneparameters krijg je meer informatie omtrent de effectiviteit van je inspanningen op sociale media.

5) Optimaliseer op basis van data Op basis van de juiste gegevens kan je eenvoudig je SEOinspanningen bijsturen. Zoals het spreekwoord zegt: “meten is weten.”

154


Zorg er in de eerste plaats voor dat je een web analytics pakket installeert. Inzicht in het gedrag van bezoekers op de site, verkeersbronnen, populaire pagina’s, etc. is essentieel om een beeld te vormen van de invloed van je SEO-inspanningen. Een andere bron van informatie is de Webmaster Tools van Google en Bing. Hierin vind je alle informatie omtrent de indexatie van je pagina’s – erg handig om ongewenste problemen bloot te leggen. Tenslotte zijn er nog een aantal externe tools die waardevolle informatie kunnen produceren. Neem een kijkje in het hoofdstuk SEO Tools voor meer informatie.

6) Optimaliseer afbeeldingen Bijna elke webpagina bevat een of meerdere afbeeldingen. Deze kunnen op drie manieren geoptimaliseerd worden; via een duidelijke bestandnaam, een alt-omschrijving en een optimale bestandgrootte. De bestandnaam en alt-omschrijving vertelt zoekmachines meer over de inhoud van de afbeelding. Gebruik hiervoor dus beschrijvende termen. Door de bestandgrootte te verkleinen kan je de laadsnelheid van de pagina verbeteren. Het verschil is niet erg voelbaar bij een pagina met een of twee foto’s, maar bij een pagina met tientallen afbeeldingen is dit een wereld van verschil. Ook bezoekers met mobiel internet zullen dit appreciëren.

7) Structureer je site Een duidelijke site structuur is handig voor bezoekers en zoekmachines. Er zijn verschillende manieren om hiervoor te zorgen.

155


Wanneer je subfolders gebruikt, geef deze dan een duidelijke omschrijving, bijvoorbeeld website.be/tshirts/product in plaats van website.be/c103/product. Beschrijvende termen zijn veel duidelijker dan een nietszeggende combinatie van cijfers en letters. Hetzelfde geldt voor de andere elementen van een URL. Maak gebruik van een XML-Sitemap om de structuur van je site aan zoekmachines duidelijk te maken. Ook voor afbeeldingen en video’s kan je een sitemap maken. Interne links zijn ook een meerwaarde. Door op een pagina naar gerelateerde pagina’s te linken krijgen bezoekers en zoekmachines een beter beeld van de structuur van je site. Zorg ervoor dat deze interne links een relevante anchor text hebben. Vergeet niet om een individuele pagina wat structuur te geven. Via headings (h1, h2, h3,…), vette teksten en lijsten kan je een duidelijk hiërarchie instellen. Erg handig voor zowel bezoekers als zoekmachines.

8) Maak je site toegankelijk De toegankelijkheid van een site is een ruim begrip. In de eerste plaats denken we aan de toegankelijkheid voor bezoekers. Zorg dat ze snel de juiste informatie kunnen vinden. Houd hierbij rekening met je navigatiestructuur, zoekfunctie en het toestel dat ze gebruiken (desktop, smartphone, tablet…). Zoekmachines hebben vaak problemen met de toegankelijkheid van je content. Zoals eerder al vermeld, kunnen ze bepaalde elementen van een pagina niet analyseren (Flash, tekst in afbeeldingen, video’s…). Zorg ervoor dat de belangrijkste content leesbaar is door crawlers.

156


Daarnaast hebben ze soms wat hulp nodig bij het indexatieproces. Help zoekmachines met gepagineerde pagina’s via het rel=next/prev attribuut en los problemen met duplicate content op via de rel=”canonical” tag, een redirect of robots meta tag. Taalproblemen kan je voorkomen via het rel=”alternate” hreflang=”x” attribuut. 404-errors worden best vermeden. Deze fout krijg je te zien wanneer het adres van een bestand gewijzigd is. Wanneer je een pagina of bestand hernoemt of de URL-structuur veranderd, stel je best een 301-redirect in naar de nieuwe locatie.

9) SEO is meer dan SEO Maar al te vaak denken mensen dat SEO enkel rond de technische aanpassingen van een site draait. SEO is echter meer dan dat. SEO draait rond marketing – je doelgroep leren kennen en via gerichte communicatie hen overtuigen om een doel te bereiken (product kopen, informatie opvragen, inschrijven op een nieuwsbrief…). Tijdens dit proces gebruik je allerlei kanalen om kwaliteitsvolle content te verspreiden, zoals een nieuwsbrief, sociale media, je website, offline communicatie, enz. Men gaat van aandacht ‘kopen’ (banners, tv-advertenties, advertenties in kranten of magazines, …) naar aandacht ‘verdienen’ (relevante content produceren die makkelijk vindbaar is en een unieke meerwaarde biedt). Daarom is de term SEO misschien wat verouderd. De focus gaat van zoekmachines naar bezoekers. Daarom dat men vaak de term inbound marketing gebruikt – consumenten op een ‘natuurlijke’ manier leren kennis maken met je producten en diensten. Real company shit, zoals Wil Reynolds zegt.

157


Vergeet dus niet om SEO in de rest van je marketing mix te implementeren. Door een synergie tussen SEO, sociale media, SEA, email campagnes en offline communicatie kan je mooie resultaten bereiken. Een gezonde dosis creativiteit is zeker en vast een meerwaarde.

10) Blijf op de hoogte Last but not least: blijf op de hoogte van recente ontwikkelingen op het vlak van SEO. Zoekmachines optimalisatie is een niche die constant in beweging is; er zijn frequent algoritme updates, nieuwe tools, nieuwe web design technologieën, enz. Heel wat SEO technieken die in het verleden erg efficient waren (bijvoorbeeld meta keyword tag), zijn vandaag de dag niet meer relevant. Aan de andere kant werden er een heleboel nieuwe tactieken geintroduceerd. Door het nieuws omtrent zoekmachines en SEO op de voet te volgen, kan je snel nieuwe technieken implementeren wat een concurrentieel voordeel oplevert. Hieronder vind je alvast enkele interessante websites: › › › › › › ›

Search Engine Land Search Engine Watch Moz Blog Google Webmaster Central SEObook Search Engine Roundtable SEO by the SEA

158


SEO Checklist Bij de optimalisatie van een website zijn er een heleboel zaken waarmee je rekening moet houden. Het is dan ook geen verrassing dat heel wat webmasters door de bomen het bos niet meer zien. Om je hierbij te helpen, hebben we de meest belangrijke zaken in een overzicht gegoten. Op de volgende bladzijden vind je een handige SEO checklist.

159


Toegankelijkheid o Pagina’s: een onbereikbare pagina kan niet geïndexeerd worden. Zorg ervoor dat het robots.txt bestand of robots meta tags niet per ongeluk belangrijke pagina’s blokkeren. o Irrelevante pagina’s: onafgewerkte of vertrouwelijke pagina’s moeten wel geblokkeerd worden. o Paginering: help zoekmachines bij paginering via de rel=”next” en rel=”previous” tags. o Redirects: gebruik een 301-redirect voor verplaatste pagina’s en bestanden. o 404 errors: beperk het aantal 404 errors tot een minimum. o Snelheid: Google houdt rekening met de snelheid van een pagina. Sneller is beter. o Mobiele toegang: is je website toegankelijk voor mobiele apparaten? Google raadt een responsive design aan. o Duplicate content: los problemen omtrent duplicate content op via de rel=”canonical”, redirects, robots of URL rewriting. o Talen: zorg ervoor dat bezoekers op de juiste pagina landen via de hreflang tag.

URL Structuur o www of niet: kies een van beide versies en zorg ervoor dat alle interne links dezelfde structuur gebruiken. Voeg je voorkeur toe aan GWT of gebruik automatische URL herschrijving. o TLD: lokale ondernemingen kiezen best voor een landgebonden TLD (bijvoorbeeld .be voor België en .nl voor Nederland). o Subdomein of subfolder: subdomeinen worden soms aanzien als aparte domeinen. Voor niet-gerelateerde producten of diensten kunnen ze wel gebruikt worden.

160


o Beschrijvende URLs: gebruik beschrijvende termen in plaats van een reeks cijfers en letters. o Liggende streepjes: gebruik liggende streepjes om termen te scheiden. o URL parameters: help Google bij de interpretatie van URL parameters via GWT.

Sitemaps o HTML sitemap: een HTML sitemap is niet alleen handig voor bezoekers, maar ook voor zoekmachines. o XML sitemap: enkel zichtbaar voor bezoekers, maar geeft de mogelijkheid om meta data toe te voegen. o Image sitemap: een sitemap voor afbeeldingen. Helpt je beter scoren in Google Image Search. o Video sitemap: een sitemap voor video’s. Ook handig voor rich snippets.

Keyword o Een keyword per pagina: zorg ervoor dat elke pagina geoptimaliseerd is voor slechts een keyword. o Research: onderzoek welke keywords interessant zijn voor je website. o URL: gebruik het keyword in de URL van de pagina. o Titel: gebruik het keyword in de paginatitel. o Heading: gebruik het keyword in een of meerdere headings (h1, h2, h3, …). Een H1 wordt best slechts eenmaal per pagina gebruikt. o Inhoud: het is onmogelijk om over een onderwerp te schrijven zonder deze term in de content te gebruiken. Gebruik het op een natuurlijke manier.

161


Content o Titel: maximum 70 tekens lang, met het keyword in het begin van de titel. o Uniek: is je content uniek? o Toegankelijkheid: is je content toegankelijk voor zoekmachines (tekst in afbeeldingen, flash, etc.). o Freshness: wordt je site regelmatig geüpdate, wordt er geregeld nieuwe content gepubliceerd? o Lengte: er is een correlatie tussen de lengte van de content en de positie in de zoekresultaten. Langere artikels scoren meestal beter.

Afbeeldingen o Bestandnaam: gebruik een beschrijvende bestandnaam. o Alt-tag: voeg een alt-tag toe met een korte omschrijving van de afbeelding. o Grootte: maak je afbeeldingen zo klein mogelijk om de laadtijd te verbeteren.

SERPs o Meta description: voeg een unieke meta description toe aan elke pagina. Deze is best korter dan 160 tekens. o Structured data: voeg microdata, microformats of RDFa toe om rich snippets te implementeren. o Authorship: link een artikel aan je Google+ profiel.

Sociale Media o Thumbnail: kies een duidelijke afbeelding die in het oog springt en minstens 200 x 200 pixels groot is. o Titel: gebruik een titel die de gebruiker overtuigt om er op te klikken. o Description: voeg een korte omschrijving van de pagina toe. 162


o URL: de link naar de pagina. Tag deze URL met parameters voor meer informatie over het inkomend verkeer. o Twitter: Twitter heeft een aantal unieke tags voor haar Twitter Cards.

Lokale SEO o Optimalisatie: optimaliseer je lokale pagina’s zoals je voor elk ander keyword doet. o Structured data: voeg de locatie van een onderneming toe met structured data. o Meerdere locaties: creëer een unieke pagina voor elke locatie. o Google+: registreer je onderneming op Google+ Local. o Externe sites: registreer jezelf op sites als Gouden Gids, Yelp, Foursquare, etc.

Site Speed o Afbeeldingen: Optimaliseer je afbeeldingen en maak ze zo klein mogelijk. Gebruik geen HTML-resize voor afbeeldingen. o Browser caching: Activeer browser caching voor bestanden die niet frequent veranderen. o Hosting: Zorg dat je webhosting aan de noden van je website voldoet. o Compressie: Gebruik GZIP compressie om bestanden te verkleinen. o CSS/Javascript: Verklein je CSS en Javascript bestanden via Minify. Implementeer CSS sprites voor afbeeldingen.

Link building o Inkomende links: verhoog de autoriteit van je site door links naar je site te bouwen. o Autoriteit: bouw links vanuit autoritaire websites.

163


o Anchor text: wissel af tussen natuurlijke anchor text en anchor text die een keyword bevat. o Diversiteit: probeer links te bouwen op verschillende websites. o Nofollow: links met een nofollow attribuut geven geen PageRank door. o Links opkuisen: verwijder verdachte links of gebruik de disavow tool om ze te negeren.

164


Veelgestelde Vragen In deze gids hebben we heel wat vragen omtrent SEO beantwoord. Maar omdat zoekmachine optimalisatie een domein is dat vaak voor verwarring zorgt, heb je misschien nog een aantal vragen waarvoor je geen antwoord hebt gevonden. In dit hoofdstuk bundelen we nog een aantal veelgestelde vragen en de bijhorende oplossing.

165


Q: hoe werken zoekmachines? A: zoekmachines gebruiken crawlers om bestanden op het web te analyseren. Deze informatie wordt in gigantische datacenters opgeslagen. Wanneer iemand een zoekterm invoert, wordt er op basis van meer dan 200 factoren een rangschikking gemaakt van de meest relevante pagina’s. Q: wat is white hat / black hat SEO? A: White hat zijn SEO technieken die door zoekmachines aanbevolen worden. Black hat daarentegen, is een verzameling technieken die niet voldoen aan de richtlijnen van zoekmachines. Q: welke technieken zijn black hat? A: Er zijn heel wat technieken die als black hat gecategoriseerd worden; keyword stuffing (een groot aantal keywords op de pagina proppen), cloaking (een andere versie van de inhoud aan crawlers tonen), tekst verstoppen in de achtergrond, etc. Q: welke factoren hebben een invloed op mijn rangschikking? A: Er zijn meer dan 200 factoren die de positie van een pagina in de zoekresultaten bepalen, zoals het linkprofiel, inhoud van de pagina, update frequentie, authorship… Q: wat is Google Panda / Penguin? A: Panda en Penguin zijn de namen van twee grote updates aan het algoritme van Google. Het doel van deze updates is de kwaliteit van de zoekresultaten te verbeteren. Q: waarom zie ik mijn site niet in de zoekresultaten? A: er zijn heel wat factoren die ervoor kunnen zorgen dat je site niet in de zoekresultaten verschijnt. In de eerste plaats doe je

166


best een site: search (bijvoorbeeld ‘site:fuseo.be’). Als je pagina’s weergegeven worden, is het probleem waarschijnlijk de autoriteit van je site. Indien je geen resultaten ziet, is de site ofwel nog niet bezocht door de crawlers of werd je site verwijderd uit de index. Kijk ook steeds GWT na voor meer informatie. Q: hoe kan ik een pagina uit de index verwijderen? A: je kan voorkomen dat een pagina door Google geïndexeerd wordt via een robots.txt bestand of robots meta tag. Als je een pagina wil verwijderen die reeds in de index zit, kan je dit doen via Google Webmaster Tools > Google Index > Remove URLs. Q: kunnen pagina’s die beschermd worden door een paswoord geïndexeerd worden? A: nee, Google kan deze pagina’s niet bezoeken en dus ook niet indexeren. Q: kunnen pagina’s met een https-verbinding geïndexeerd worden? A: deze pagina’s kunnen wel geïndexeerd worden (de homepage van PayPal bijvoorbeeld). Let wel op dat dit een probleem kan vormen voor duplicate content. Q: heeft het aantal bezoekers een invloed op mijn rangschikking? A: het aantal bezoekers is geen factor waar zoekmachines rekening mee houden. Dit komt omdat zoekmachines beperkte informatie hebben. Ze weten hoeveel bezoekers zij naar de website sturen via de zoekresultaten, maar ze weten niet hoeveel direct verkeer of verkeer van andere sites er is. Google mag bijvoorbeeld geen gegevens van Google Analytics gebruiken om een site te rangschikken.

167


Q: waarom zien mijn zoekresultaten er anders uit dan die van mijn vriend/collega/partner…? A: dit komt door personalisatie van de zoekresultaten. Je zoekgeschiedenis wordt bijgehouden en gebruikt om je meer relevante zoekresultaten te tonen. Deze functie kan uitgeschakeld worden (meer informatie). Q: hoe kan mijn nieuwe site zo snel mogelijk geïndexeerd worden? A: in de eerste plaats maak je best een XML sitemap die je via Webmaster Tools naar zoekmachines stuurt. Door een aantal links naar je site te bouwen, kunnen crawlers makkelijker je site ontdekken. Je kan ook nog steeds handmatig je site toevoegen. Sommige mensen vinden deze methode verouderd, maar ze kan geen kwaad en neemt slechts enkele seconden in beslag. Q: vanaf wanneer zal mijn positie verbeteren? A: dit is een eenvoudige vraag die moeilijk te beantwoorden is. Het antwoord is dan ook “dat hangt ervan af.” Er zijn diverse factoren waar we rekening mee moeten houden, zoals de huidige staat van de website, het aantal veranderingen, concurrentie, etc. Resultaten kunnen na dagen, weken en soms zelfs maanden zichtbaar zijn. Q: hoe krijg ik mijn profielfoto in de zoekresultaten? A: je kan dit doen door Authorship te implementeren. Q: hoe krijg ik een sterren-rating in de zoekresultaten? A: sterren-ratings, afbeeldingen, aantal reviews… zijn allemaal rich snippets. Zoekmachines gebruiken structured data om deze te genereren.

168


Q: heeft een Google +1 een effect op mijn rangschikking? A: ja, maar het effect is verwaarloosbaar. Omdat Google nog uitzoekt hoe dit signaal een invloed heeft op de kwaliteit van een pagina, is het effect nog niet zo groot. Dit zal in de toekomst waarschijnlijk veranderen. Q: is een TLD belangrijk? A: ccTLD (domein extensies die aan landen verbonden zijn) kunnen ervoor zorgen dat je beter scoort in dat land. Q: ik heb net mijn site naar een nieuw domein verhuist. Waar moet ik op het vlak van SEO op letten? A: een van de meest belangrijke zaken waar je moet op letten zijn URL redirects. Gebruik 301-redirects om bezoekers en zoekmachines van de oude URL naar de nieuwe pagina te verwijzen. Q: moet ik mijn pagina voor het enkelvoud of meervoud van een zoekwoord optimaliseren? A: wanneer je over een bepaald onderwerp schrijft, zal je automatisch beide versies gebruiken. Zorg ervoor dat de tekst vlot leesbaar is en een meerwaarde is voor je bezoekers. Een tekst die te hard geoptimaliseerd is voor een bepaald keyword is meestal niet leuk om te lezen. Lezers komen dus op de eerste plaats. Q: wat is ‘long tail traffic’? A: long tail traffic is verkeer dat komt van specifiekere zoekwoorden, bijvoorbeeld ‘lederen salon met relax’ of ‘HTC Desire HD protector case’.

169


Q: welke meta tags moet ik gebruiken? A: de meta description is nog steeds handig om bezoekers te overtuigen om je pagina te bezoeken. De meta keywords tag is overbodig geworden. Q: wat is een zoekmachine-vriendelijk ontwerp? A: zoekmachines kunnen bepaalde elementen van een pagina niet of moeilijk lezen, zoals afbeeldingen en flash. Een Zoekmachine-vriendelijk ontwerp zorgt ervoor dat alle content toegankelijk is voor crawlers. Q: is de lengte van mijn pagina belangrijk? A: zoekmachines verkiezen meestal uitgebreide artikels. Dit wil niet zeggen dat kortere pagina’s het niet goed doen. Focus op de kwaliteit in plaats van de lengte. Q: hoe kan ik afbeeldingen optimaliseren? A: geef je afbeeldingen een beschrijvende bestandnaam en een alt-attribuut met een korte omschrijving. Optimaliseer je afbeeldingen op het vlak van bestandgrootte om laadtijden te verbeteren. Q: wat is duplicate content? A: duplicate content zijn twee pagina’s met (ongeveer) dezelfde inhoud maar een andere URL. Google zal slechts een van deze pagina’s in de zoekresultaten tonen. Duplicate content kan opzettelijk (bijvoorbeeld de printversie van een pagina) of onopzettelijk (via URL parameters, inconsistent linken …) gecreëerd worden.

170


Q: is het best om relatieve of absolute URLs te gebruiken voor interne links? A: het is best om absolute URLs (URLs die de domeinnaam bevatten) te gebruiken. Q: wat is de beste manier om termen in een URL te splitsen? A: het is best om liggende streepjes (-) te gebruiken. Andere tekens zoals underscores (_) en plustekens (+) worden best vermeden. Q: gebruik ik best subdomeinen of subfolders? A: het is best om subfolders te gebruiken. Dit vereenvoudigd de correcte indexatie van je pagina’s. Voor niet-gerelateerde producten of diensten kan een subdomein gebruikt worden (Google gebruikt dit bijvoorbeeld voor Google Maps; ‘maps.google.com’). Q: kan Google dynamische URLs indexeren? A: Google kan de meeste dynamische URLs correct interpreteren. Indien je fouten opmerkt kan je via Google Webmaster Tools > Crawl > URL Parameters de zoekmachine hierbij helpen. Q: zijn links in twee richtingen (site A ↔site B) slecht? A: nee, deze links zijn niet slecht. Nochtans lijken enkele links waardevoller te zijn. Q: wat is een nofollow link? A: een nofollow link zorgt ervoor dat er geen PageRank naar de achterliggende pagina wordt doorgegeven.

171


Q: wat is negatieve SEO? A: bij negatieve SEO wordt een website aangevallen door een groot aantal verdachte links te bouwen. Dit zou in theorie een negatief effect op de rangschikking hebben. Q: zorgt Adwords ervoor dat mijn site beter scoort? A: nee, gesponsorde zoekresultaten (Adwords) zorgen er niet voor dat je site beter scoort. Q: wordt er PageRank doorgegeven naar een site als er via een afbeelding gelinkt wordt? A: ja, een link in een afbeelding wordt op dezelfde manier behandeld als elke andere link. Q: hebben teveel redirects op dezelfde URL een negatief effect? A: een of twee redirects vormen geen probleem. Wanneer je hierin overdrijft (bijvoorbeeld 6 opeenvolgende redirects), zal de pagina waarschijnlijk overgeslagen worden. Vermijd ook het mixen van 301 en 302 redirects. Q: wat is het verschil tussen liggende streepjes (-) en underscores (_)? A: liggende streepjes worden gebruikt om een onderscheid te maken tussen verschillende woorden, underscores om woorden aan elkaar te linken. Je gebruikt dus best liggende streepjes in je URLs. Q: moet ik een ‘follow’ robots meta tag aan al mijn pagina’s toevoegen? A: zoekmachines volgen automatisch alle links op een pagina (tenzij de link zelf een nofollow attribuut heeft). Het is dus niet

172


nodig om aan elke pagina een follow robots meta tag toe te voegen. Q: wat is de optimale keyword density? A: er bestaat niet zoiets als de ‘optimale keyword density’. Gebruik het keyword waarvoor je wil scoren op een natuurlijke manier en publiceer kwaliteitsvolle content. Q: er verschijnen extra links onder mijn zoekresultaat, hoe kan ik pagina’s hieruit verwijderen? A: deze ‘sitelinks’ worden automatisch gegenereerd. Via Google Webmaster Tools (Search Appearance > Sitelinks) kan je ervoor zorgen dat een pagina niet als sitelink gebruikt wordt. Q: hoe vind ik alle pagina’s die voor een 404-error zorgen? A: je kan deze pagina’s vinden via GWT (Crawl > Crawl Errors > Not Found) of via een tool zoals ScreamingFrog.

173


SEO Tools SEO kan een arbeidsintensieve bezigheid zijn. Gelukkig zijn er heel wat tools beschikbaar die de optimalisatie van een website makkelijker kunnen maken. Een aantal van deze tools kan je gratis gebruiken, andere zijn dan weer betalend. Op volgende pagina’s vind je een overzicht.

174


Adwords Keyword Planner: geeft het aantal zoekopdrachten per maand weer voor een bepaalde zoekterm. Wordt gebruikt voor keyword research. (gratis) › Adwords Keyword Tool Ahrefs: analyseer het linkprofiel van een domein of URL: aantal backlinks, linkende pagina’s, TLD distributie, etc. (gratis, vanaf $79/maand voor meer queries) › Ahrefs Authority Labs: meet de prestaties van je keywords en vergelijk met je concurrenten. (vanaf $49/maand) › Authority Labs Browseo: weergave van een pagina zoals zoekmachines ze zien. Handig om elementen te identificeren die onzichtbaar zijn voor crawlers. (gratis) › Browseo CrazyEgg: genereert heatmaps van een pagina via eye tracking. Kan gebruikt worden voor conversion rate optimization. (vanaf $9/maand) › CrazyEgg Distilled Video Sitemap Generator: een Google Doc bestand dat automatisch de code voor een Video Sitemap genereert. (gratis) › Video Sitemap Generator Facebook Debugger: test de Open Graph code van een site. Kan gebruikt worden om de code voor je social snippets te controleren. (gratis) › Facebook debugger

175


GinzaMetrics: genereer de Open Graph code voor een pagina aan de hand van deze handige tool. (gratis) › GinzaMetrics Hreflang tag generator: genereert de hreflang-code op basis van een land en taal. (gratis) › Hreflang tag generator LinkResearchTools: €69/maand)

een volledig off-site SEO pakket.

(vanaf

› LinkResearchTools MajesticSEO: analyseer het linkprofiel van een site. (gratis, vanaf €39.99/maand voor alle functies). › MajesticSEO Minify: combineert en optimaliseert CSS/Javascript bestanden om de laadsnelheid te verbeteren. (gratis) › Minify MobiReady: deze tool geeft een score (van 1 tot 5) aan de mobiele versie van je site, inclusief tips om je mobiele site te verbeteren. (gratis) › MobiReady Moz: een pakket tools die gebruikt kunnen worden de optimalisatie van een site. (vanaf $99/maand). › Moz › Moz toolbar (gratis voor Chrome & Firefox)

176


Optimizely: A/B testing software om de gebruikservaring van je website te verbeteren. (vanaf $17/maand) › Optimizely OpenSiteExplorer: analyseer het linkprofiel van een site op basis van de interne en externe links. (gratis, Moz account nodig voor alle functies) › OpenSiteExplorer Pagespeed Insights: analyseer de inhoud van een site en bekijk suggesties om de laadsnelheid te verbeteren. (gratis) › Pagespeed Insights › Pagespeed Insights voor Google Chrome › Pagespeed Insights voor Mozilla Firefox Positionly: controleer de positie van je content in de zoekresultaten. (vanaf $19 per maand) › Positionly Raven: een volledig pakket tools voor online marketeers: SEO, link building, sociale media, PPC, etc. (vanaf $99/maand) › Raven Tools Robots.txt Checker: controleer het robots.txt bestand van een site op fouten, eventueel op basis van een bepaalde user agent. (gratis) › Robots.txt Checker Searchlatte: bekijk de SERP van een keyword per land, TLD en taal. (gratis) › Searchlatte

177


SEO-browser: bekijk een pagina door de ogen van een crawler. (gratis) › SEO-browser SEOquake: een browser-plugin voor Chrome of Firefox die SEOgerelateerde informatie over een pagina geeft. (gratis) › SEOquake SERPmetrics: onderzoek de volatiliteit van zoekresultaten voor een bepaald keyword. (gratis) › SERPmetrics Schema Creator: genereert automatisch een stuk HTML code met microdata. (gratis) › Schema Creator Screaming Frog: een computerprogramma dat een website crawlt vanuit een SEO perspectief. Handige tool om een on-site SEO analyse uit te voeren. (gratis voor max. 500 URLs, £99 per jaar voor alle functies) › Screaming Frog SEO spider tool Screenfly: test een website op verschillende apparaten en resoluties. (gratis) › Screenfly Snippet Optimizer: simuleer een pagina met zoekresultaten voor een zelfgemaakte search result snippet. (gratis) › Snippet Optimizer

178


Soovle: genereert nieuwe keyword ideeën op basis van een bepaalde term. (gratis) › Soovle Structured Data Markup Helper: een visuele tool die je helpt om structured data in een website of email te implementeren. (gratis) › Structured Data Markup Helper Structured Data Testing Tool: analyseer de structured data van een site of een stuk HTML code. (gratis) › Structured Data Testing Tool Traffic Travis: doe een SEO check van je site en ontdek fouten die je rangschikking kunnen schaden. (gratis) › Traffic Travis Ubersuggest: geeft een lijst met gerelateerde zoekwoorden voor een bepaalde term. (gratis) › Ubersuggest W3C mobileOK Checker: Deze tool controleert of een website klaar is voor mobiele bezoekers. Na de analyse krijg je een lijst met suggesties om je site te optimaliseren. (gratis) › W3C mobileOK Checker Web Analytics: inzicht in het gedrag van bezoekers op je website: verkeersbronnen, populairste pagina’s, bezoekersstroom, etc. › Google Analytics (gratis) › Webtrends (betalend) › KISSmetrics (betalend)

179


Webmaster Tools: informatie over je site(s), zoals het zoekverkeer, sitemaps, crawl errors, etc. (gratis) › Google Webmaster Tools › Bing Webmaster Tools Xenu Link Sleuth: programma dat kapotte links op een site verzameld. Kan voor een eigen site gebruikt worden of als link building tactiek op andere sites. (gratis) › Xenu Link Sleuth XML Sitemap Validator: controleer je sitemap op fouten voordat je het bestand in Webmaster Tools uploadt. (gratis). › XML Sitemap Validator Yoast SEO: een Wordpress optimaliseren. (gratis)

plugin

om

je

website/blog

te

› Yoast SEO YSlow: analyseert een web pagina en geeft suggesties om de laadsnelheid ervan te verbeteren. (gratis) › YSlow Zoekmachines: uiteraard kunnen de zoekmachines zelf voor een heel wat interessante informatie zorgen. Controleer hoe je pagina er in de SERP uitziet, de positie voor een keyword, concurrenten, etc. Advanced Search Operators, zoals intitle:, site: en inurl: zijn ook erg handig. (gratis) › Google › Bing › Yahoo

180


Verklarende Woordenlijst PageRank, TLD, SERP, Black Hat … In deze gids heb je een aantal SEOgerelateerde termen en afkortingen gezien. Ben je nog niet helemaal zeker van de betekenis van deze termen? Bekijk dan snel even de verklarende woordenlijst op volgende pagina’s.

181


Verklarende woordenlijst › Above the fold: gedeelte van een web pagina dat zichtbaar is wanneer de pagina volledig geladen is (zonder naar beneden te scrollen). › Anchor text: de tekst van een hyperlink (meestal in het blauw en onderlijnt). › Black hat: SEO-technieken die niet door zoekmachines goedgekeurd worden. › Browser caching: het tijdelijk lokaal opslaan van bestanden van een website om de laadsnelheid te verbeteren. › ccTLD: Country Code Top-Level Domain – domeinextensie die aan een land verbonden is, bijvoorbeeld .be voor België en .nl voor Nederland. › CMS: Content Management Systeem – software die gebruikt wordt als backend voor een website (bijvoorbeeld Wordpress, Joomla, Fork, etc.). › CSS: Cascading Style Sheet – computertaal die de styling van een web pagina bepaalt. › CTR: Click-through rate – percentage gebruikers dat een pagina bezoekt (aantal impressies/aantal kliks). › Flash: multimediaplatform van Adobe voor animaties, games en Rich Internet Applications. › GWT: Google Webmaster Tools – hulpprogramma van Google voor site eigenaars. › GYM: Google, Yahoo & Microsoft – de drie grootste zoekmachines. › HTML: Hyper Text Markup Language – een computertaal die gebruikt wordt om websites te bouwen. › Keyword stuffing: overmatig gebruik van een bepaalde term op een pagina.

182


› KML bestand: Keyhole Markup Language – wordt gebruikt om de locatie van een onderneming te identificeren. › Landing page: de pagina waar de bezoeker op terecht komt wanneer hij/zij op een zoekresultaat klikt. › Link building: een verzameling SEO-technieken om via links de autoriteit van een site te verhogen. › Link juice: onofficiële term voor autoriteit die via een link van site A naar site B gaat. › Long tail: langere, specifiekere zoekopdrachten, bijvoorbeeld ‘lederen salon met relax’. › Meta tags: extra informatie over de inhoud van een pagina die › › › › › ›

› › › ›

in de <head> van een website terug te vinden is. Microdata: een manier om structured data aan een pagina toe te voegen. Microformats: een manier om structured data aan een pagina toe te voegen. Organisch verkeer: bezoekers die van zoekmachines komen. PR: PageRank – onderdeel van het algoritme van Google dat het linkprofiel van een site analyseert. RDFa: Resource Description Framework in Attributes – een manier om structured data aan een pagina toe te voegen. Responsive design: een (mobiele) website die zichzelf aanpast op basis van de schermgrootte om een optimale gebruikservaring aan te bieden. Root directory: het hoogste niveau van het mappensysteem van een server, bijvoorbeeld http://website.be/. Search query: een zoekopdracht die in een zoekmachine ingegeven wordt. SEO: Search Engine Optimization – het optimaliseren van een website voor zoekmachines en gebruikers. SERP: Search Engine Results Page – pagina met zoekresultaten (i.e. de meest relevante pagina’s voor een zoekopdracht).

183


› TLD: Top-Level Domain – de domeinextensie van een site, bijvoorbeeld .com of .net. › Webcrawler (= webspider): softwareprogramma dat websites bezoekt en analyseert. › White hat: SEO-technieken die door zoekmachines aanbevolen worden. › UGC: User Generated Content – inhoud van een pagina die door gebruikers toegevoegd wordt. › 301 redirect: een permanente redirect naar een nieuwe URL. › 302 redirect: een tijdelijke redirect naar een nieuwe URL. › 404 error: fout die men te zien krijgt wanneer een pagina of bestand niet gevonden werd.

184


Over Fuseo Fuseo helpt bedrijven met hun online marketing via zoekmachine optimalisatie (SEO), content marketing, beheer en optimalisatie van online advertenties (SEA) en sociale media.

Welvaartstraat 62 2590 Berlaar Tel: +32472526611 Web: fuseo.be Email: hello@fuseo.be

Volg ons

185


www.fuseo.be hello@fuseo.be

© Fuseo, 2013

186


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.