Ondernemershuis Zuid-Oost
Image default
Bedrijfsvoering

SEO voor grotere websites | Ralf van Veen

In het bovenstaande voorbeeld heeft de kleurrijke spin van Google pagina “A” bereikt en ziet interne links naar de pagina’s “B” en “E”. Hoe belangrijk de pagina’s C en D ook mogen zijn voor de site, de spin heeft geen mogelijkheid om ze te bereiken – of zelfs maar te weten dat ze bestaan – omdat er geen directe, kruipbare links naar die pagina’s verwijzen. Wat Google betreft, deze pagina’s bestaan in principe niet – grote inhoud, goede keyword targeting en slimme marketing maken helemaal geen verschil als de spinnen die pagina’s niet kunnen bereiken.

Dit artikel wordt mede mogelijk gemaakt door Ralf van Veen.

De optimale structuur voor een website zou eruit zien als een piramide (waar de grote stip bovenaan de homepage is):

Deze structuur heeft een minimum aan links mogelijk tussen de homepage en een bepaalde pagina. Dit is nuttig omdat het link equity (ranking power) door de hele site kan stromen, waardoor het rangpotentieel voor elke pagina toeneemt. Deze structuur is gebruikelijk op veel goed presterende websites (zoals Amazon.com) in de vorm van categorie- en subcategorieënsystemen.

Maar hoe wordt dit bereikt? De beste manier om dit te doen is met interne links en aanvullende URL-structuren. Ze linken bijvoorbeeld intern naar een pagina op http://www.example.com/mammals… met de ankertekst “katten”. Hieronder staat het formaat voor een correct geformatteerde interne link. Stel je voor dat deze link op het domein jonwye.com staat.

In de bovenstaande illustratie geeft de “a”-tag het begin van een link aan. Link tags kunnen afbeeldingen, tekst of andere objecten bevatten, die allemaal een “klikbaar” gebied op de pagina vormen dat gebruikers kunnen gebruiken om naar een andere pagina te gaan. Dit is het oorspronkelijke concept van het internet: “hyperlinks.” De doorverwijslokatie geeft de browser en de zoekmachines aan waar de linkpunten zich bevinden. In dit voorbeeld wordt verwezen naar de URL http://www.jonwye.com. Vervolgens beschrijft het zichtbare gedeelte van de link voor bezoekers, de zogenaamde “anchor text” in de SEO-wereld, de pagina waar de link naartoe wijst. In dit voorbeeld gaat de pagina waarnaar verwezen wordt over custom belts van een man genaamd Jon Wye, dus de link gebruikt de ankertekst “Jon Wye’s Custom Designed Belts”. De </a> tag sluit de link af, zodat later op de pagina niet het link attribuut wordt toegepast op de elementen.

Dit is het meest elementaire formaat van een link – en het is zeer begrijpelijk voor de zoekmachines. De spiders van de zoekmachine weten dat ze deze link moeten toevoegen aan de linkgrafiek van het web, deze moeten gebruiken om quere-onafhankelijke variabelen (zoals MozRank) te berekenen en deze te volgen om de inhoud van de pagina waarnaar wordt verwezen te indexeren.

Hieronder staan enkele veel voorkomende redenen waarom pagina’s mogelijk niet bereikbaar zijn en dus niet geïndexeerd kunnen worden.

Koppelingen in de vereiste formulieren voor het indienen van aanvragen
Formulieren kunnen elementen bevatten die zo elementair zijn als een vervolgkeuzemenu of elementen die zo complex zijn als een volledige enquête. In beide gevallen zullen zoekspinnen niet proberen formulieren “in te dienen” en dus zijn alle inhoud of links die toegankelijk zijn via een formulier onzichtbaar voor de engines.

Links alleen toegankelijk via interne zoekvelden
Spinnen zullen niet proberen om zoekopdrachten uit te voeren om inhoud te vinden, en daarom wordt geschat dat miljoenen pagina’s verborgen zijn achter volledig ontoegankelijke interne zoekvakken.

Links in Niet-parseerbare Javascript
Links gebouwd met behulp van Javascript kan ofwel uncrawlable of gedevalueerd in gewicht, afhankelijk van hun implementatie. Om deze reden wordt aanbevolen om standaard HTML-links te gebruiken in plaats van op Javascript gebaseerde links op elke pagina waar het verkeer dat door zoekmachines wordt doorverwezen belangrijk is.

Links in Flash, Java, of andere plug-ins
Alle links ingebed in Flash, Java-applets en andere plug-ins zijn meestal niet toegankelijk voor zoekmachines.

Koppelingen die verwijzen naar Pagina’s die geblokkeerd worden door de Meta Robots Tag of Robots.txt
De Meta Robots-tag en het robots.txt-bestand stellen een site-eigenaar in staat om de toegang van spiders tot een pagina te beperken.

Koppelingen op pagina’s met honderden of duizenden koppelingen
De zoekmachines hebben allemaal een ruw crawl-limiet van 150 links per pagina voordat ze kunnen stoppen met het spinnen van extra pagina’s waarnaar wordt gelinkt vanaf de originele pagina. Deze limiet is enigszins flexibel, en bijzonder belangrijke pagina’s kunnen meer dan 200 of zelfs 250 links hebben, maar in de praktijk is het verstandig om het aantal links op een bepaalde pagina te beperken tot 150 of het risico te lopen dat de mogelijkheid om extra pagina’s te laten kruipen verloren gaat.

Links in Frames of I-Frames
Technisch gezien zijn de koppelingen in beide frames en I-Frames kruipend, maar beide vormen structurele problemen voor de motoren op het gebied van organisatie en opvolging. Alleen gevorderde gebruikers met een goed technisch inzicht in hoe zoekmachines indexeren en links in frames volgen, zouden deze elementen moeten gebruiken in combinatie met interne links.

Door deze valkuilen te vermijden, kan een webmaster schone, spiderable HTML-links hebben, die de spiders gemakkelijk toegang geven tot hun inhoudspagina’s. Links kunnen extra attributen hebben, maar de engines negeren bijna al deze attributen, met de belangrijke uitzondering van de rel=”nofollow” tag.

Wilt u snel een glimp opvangen van de indexering van uw site? Gebruik een hulpmiddel zoals Moz Pro, Link Explorer of S

Bezoek de website voor meer informatie : https://ralfvanveen.com