Online archief


Zoekmachines hebben moeite om websites met frames te lezen. De sitestructuur wordt door de zoekmachines vaak verkeerd geïnterpreteerd. Dit komt omdat de navigatie van de webpagina’s veelal los van de content wordt aangeboden. Daarnaast wordt de kracht van de webpagina’s onderling minder goed doorgegeven met als gevolg dat de webpagina’s individueel minder goed presteren als webpagina’s zonder frames. Ook voor de gebruikers kan het gebruik van frames tot problemen leiden. Wanneer een gebruiker op een zoekresultaat klikt, krijgt deze alleen de desbetreffende pagina uit het frame te zien zonder de omliggende frames zoals bijvoorbeeld de navigatie. De gebruiker kan hierdoor niet verder door de website navigeren en zal hierdoor geneigd zijn de website weer te verlaten en terug te keren naar de zoekresultaten. Frames veroorzaken ook een probleem bij het opslaan van de website in de favorieten. Zodra gebruikers webpagina’s aan hun favorieten willen toevoegen, plaatsen ze ongemerkt een bookmark naar de homepage in plaats van de webpagina die op dat moment getoond wordt.

iFrames

Ook het gebruik van iframes is niet aan te bevelen wanneer je je website SEO wil optimaliseren. Een iframe wordt soms gebruikt wanneer er producten of andere website elementen van een externe bron worden ingeladen. Bijvoorbeeld wanneer je zonder content te creëren direct de producten van derden via je website inlaad en deze wil verkopen. Voor SEO doeleinden is het gebruik van iframes dus sterk af te raden. Google en andere zoekmachines kunnen deze iframes niet lezen en zien alles binnen het iframe niet als unieke content. Het wordt niet geïndexeerd en je kan er organisch dus ook niet mee presteren.

In onderstaand voorbeeld heb ik de producten van de Phabletshop middels een iframe ingeladen, op de Phabletshop kan je phablets vergelijken en online bestellen.

Hetgeen hierboven middels het iframe ingeladen wordt, wordt dus niet als zodanig op mijn website geïndexeerd. Voor de zoekmachines staat deze informatie niet hier, maar gewoon waar het oorspronkelijk hoort, bij de Phabletshop. Wil je je website of pagina’s dus SEO optimaliseren werk dan niet met frames of iframes.


Zoekmachines hebben moeite met het uitvoeren van een JavaScript; delen van de website die gegenereerd worden door middel van een JavaScript worden niet of slecht geïndexeerd. Het is hierbij dus van belang dat er geen content, belangrijke links of andere website elementen, zoals bijvoorbeeld de menu-items, door middel van JavaScript ingeladen worden. Google ondersteunt JavaScript sinds enige tijd in beperkte mate, maar deze ontwikkeling is nog in een vroeg stadium en verre van ideaal. Om indexatie problemen door de zoekmachines te voorkomen is het aan te raden om belangrijkste elementen van de website niet in JavaScript te maken.


De robots.txt is een tekstbestandje waarmee kan worden aangegeven welke delen wel of welke delen van de website juist niet geïndexeerd mogen worden. In het robots bestand kan aan Google en de overige zoekmachines zoals Bing en Yahoo, middels “Disallow” worden aangeven welke pagina’s in de website niet geïndexeerd mogen worden. Daarnaast is het mogelijk om aan te geven wat de locatie van de XML sitemap is. Het is van belang dat de inhoud van het robots bestand goed geformuleerd is. De spiders van de zoekmachines gaan altijd als eerst op zoek naar het robots.txt bestand. Bij verkeerd gebruik kunnen er indexatieproblemen met de website ontstaan.

Als voorbeeld vindt je het robots bestand van online-marketing.nu hier: Robots bestand.


Of een website met of zonder www wordt gemaakt, maakt voor de organische vindbaarheid niet uit. Wel is het belangrijk dat er een keuze gemaakt wordt en dat de overige variant, middels een 301, geredirect wordt. Wanneer een bezoeker dan de non-www versie van de website intypt, zou deze bezoeker met een 301 redirect doorgestuurd moeten worden naar de versie met www. Wanneer dit niet gebeurt zullen links op externe websites die naar de non-www versie verwijzen niet mee tellen in de waarde opbouw van de website in de zoekmachines. Ook is het mogelijk dat er duplicate content optreedt; dit houdt in dat zoekmachines de gehele website, of delen hiervan, niet of lager waardeert.

Voorbeeld www VS non-www

Zodra je de website van Clown Boeken bezoekt zonder www Clown-Boeken.nl wordt je automatisch geredirect naar de www variant van de website www.Clown-Boeken.nl. Hierdoor herkent de zoekmachine duidelijk voor welke variant is gekozen en gaat er bij een eventuele verwijzing naar de non-www variant geen waarde (autoriteit) verloren.

www vs non www


Bij sommige websites zie je dat de homepage via verschillende URL’s/pagina’s binnen de website te bereiken is. De zoekmachine ziet dan ook verschillende versies van dezelfde homepage. Deze zogenaamde dubbele homepages zie je veelal wanneer er een content management systeem of een andere web beheertool wordt gebruikt. Om deze reden kiest een zoekmachine zelf één van de homepages die aan de gebruikers getoond wordt. Ook is het zo dat externe en interne links naar de overige versies van de homepage de kracht die daaraan meegegeven wordt, niet ten goede komt aan de originele homepage. Daarbij dient, om duplicate content te voorkomen, ook altijd uitsluitend 1 homepage bereikbaar te zijn en de overige varianten middels een 301 geredirect te worden. Voorkom het gebruik van dubbele homepages.