De beginnershandleiding voor SEO

Category:

De beginnershandleiding voor SEO

Zoekmachines hebben twee belangrijke functies: het crawlen en opbouwen van een index, en het aanbieden aan zoekgebruikers van een gerangschikte lijst van de websites waarvan zij hebben bepaald dat die het meest relevant zijn.

Elke halte is een uniek document (meestal een webpagina, maar soms een PDF, JPG, of ander bestand). De zoekmachines hebben een manier nodig om de hele stad te “crawlen” en alle haltes langs de weg te vinden, dus gebruiken ze de beste weg die beschikbaar is – links.

Kruipen en indexeren

Crawlen en indexeren van de miljarden documenten, pagina’s, bestanden, nieuws, video’s en media op het World Wide Web.

Antwoorden geven

Antwoorden geven op vragen van gebruikers, meestal via lijsten van relevante pagina’s die zij hebben opgehaald en op relevantie hebben gerangschikt.

De linkstructuur van het web dient om alle pagina’s met elkaar te verbinden.

Links stellen de geautomatiseerde robots van de zoekmachines, “crawlers” of “spiders” genoemd, in staat de vele miljarden onderling verbonden documenten op het web te bereiken.

Zodra de zoekmachines deze pagina’s hebben gevonden, ontcijferen zij de code ervan en slaan geselecteerde stukken op in enorme databanken, die later kunnen worden opgeroepen wanneer zij nodig zijn voor een zoekopdracht. Om de monumentale taak te volbrengen van het bewaren van miljarden pagina’s die in een fractie van een seconde kunnen worden opgevraagd, hebben de zoekmachine-bedrijven over de hele wereld datacentra gebouwd.

Deze reusachtige opslagfaciliteiten bevatten duizenden machines die grote hoeveelheden informatie zeer snel verwerken. Wanneer iemand een zoekopdracht geeft bij een van de grote zoekmachines, verlangt hij onmiddellijk resultaten; zelfs een vertraging van één of twee seconden kan ontevredenheid veroorzaken, zodat de zoekmachines hard werken om zo snel mogelijk antwoorden te geven.

Zoekmachines zijn antwoordmachines. Wanneer een persoon een online-zoekopdracht uitvoert, doorzoekt de zoekmachine zijn corpus van miljarden documenten en doet twee dingen: ten eerste geeft hij alleen die resultaten die relevant of nuttig zijn voor de zoekvraag van de zoeker; ten tweede rangschikt hij die resultaten volgens de populariteit van de websites die de informatie aanbieden. Het is zowel relevantie als populariteit die het proces van SEO moet beïnvloeden.

Hoe bepalen zoekmachines relevantie en populariteit?

Voor een zoekmachine betekent relevantie meer dan het vinden van een pagina met de juiste woorden. In de begindagen van het web gingen zoekmachines niet veel verder dan deze simplistische stap, en de zoekresultaten waren van beperkte waarde. In de loop der jaren hebben slimme ingenieurs betere manieren bedacht om resultaten af te stemmen op de zoekopdrachten van zoekers. Vandaag de dag hebben honderden factoren invloed op relevantie, en we zullen de belangrijkste hiervan in deze gids bespreken.

Zoekmachines gaan er doorgaans van uit dat hoe populairder een site, pagina of document is, hoe waardevoller de informatie moet zijn die deze bevat. Deze veronderstelling is tamelijk succesvol gebleken in termen van tevredenheid van de gebruiker over de zoekresultaten.

Populariteit en relevantie worden niet handmatig bepaald. In plaats daarvan gebruiken de engines wiskundige vergelijkingen (algoritmen) om het kaf van het koren (relevantie) te scheiden, en vervolgens het koren te rangschikken in volgorde van kwaliteit (populariteit).

Deze algoritmen omvatten vaak honderden variabelen. In het zoekmarketing veld, verwijzen we naar hen als “ranking factoren.” Moz maakte een bron specifiek over dit onderwerp: Search Engine Ranking Factors.

Je kunt hieruit afleiden dat zoekmachines denken dat Ohio State de meest relevante en populaire paginais voor de zoekopdracht “Universiteiten” terwijl de pagina voor Harvard minder relevant/populair is.

Hoe krijg ik wat succes aan het rollen?

De ingewikkelde algoritmen van zoekmachines kunnen ondoorgrondelijk lijken. Sterker nog, de zoekmachines zelf geven weinig inzicht in hoe je betere resultaten kunt behalen of meer traffic kunt vergaren. Wat ze ons wel geven over optimalisatie en best practices staat hieronder beschreven:

SEO INFORMATIE VAN GOOGLE WEBMASTER RICHTLIJNEN

Maak pagina’s in de eerste plaats voor gebruikers, niet voor zoekmachines. Misleid uw gebruikers niet en presenteer geen andere inhoud aan zoekmachines dan u aan gebruikers laat zien, een praktijk die “cloaking” wordt genoemd.

Maak een site met een duidelijke hiërarchie en tekstlinks. Elke pagina moet bereikbaar zijn via ten minste één statische tekstlink.

Maak een nuttige, informatierijke site, en schrijf pagina’s die uw inhoud duidelijk en nauwkeurig beschrijven. Zorg ervoor dat uw <title>-elementen en ALT-attributen beschrijvend en nauwkeurig zijn.

Gebruik trefwoorden om beschrijvende, mensvriendelijke URL’s te maken. Bied één versie van een URL om een document te bereiken, gebruik 301 redirects of het rel=”canonical” attribuut om duplicate content aan te pakken.

SEO INFORMATIE VAN BING WEBMASTER RICHTLIJNEN

Zorg voor een schone, trefwoordrijke URL-structuur.

Zorg ervoor dat de inhoud niet wordt verborgen in rijke media (Adobe Flash Player, JavaScript, Ajax) en controleer of rijke media geen links verbergen voor crawlers.

Creëer content die rijk is aan trefwoorden en pas trefwoorden aan aan waar gebruikers naar zoeken. Produceer regelmatig nieuwe inhoud.

Zet de tekst die u geïndexeerd wilt hebben niet in afbeeldingen. Als u bijvoorbeeld wilt dat uw bedrijfsnaam of adres wordt geïndexeerd, zorg er dan voor dat deze niet in een bedrijfslogo wordt weergegeven.

Heb geen angst, collega zoek marketeer!

Naast dit vrijelijk gegeven advies, hebben search-marketeers in de meer dan 15 jaar dat web search bestaat, methoden gevonden om informatie te extraheren over hoe de zoekmachines pagina’s rangschikken. SEO’s en marketeers gebruiken die gegevens om hun sites en hun klanten te helpen een betere positionering te bereiken.

Er is misschien geen groter instrument beschikbaar voor webmasters die onderzoek doen naar de activiteiten van de zoekmachines dan de vrijheid om de zoekmachines zelf te gebruiken om experimenten uit te voeren, hypothesen te testen en meningen te vormen. Het is door dit iteratieve – soms pijnlijke – proces dat een aanzienlijke hoeveelheid kennis over de functies van de zoekmachines is vergaard. Sommige van de experimenten die we hebben geprobeerd gaan ongeveer als volgt:

1. Registreer een nieuwe website met onzin zoekwoorden (bijv. ishkabibbell.com).

2. Maak meerdere pagina’s op die website, allemaal gericht op een vergelijkbare belachelijke term (bijv. yoogewgally).

5. Noteer de rangschikking van de pagina’s in zoekmachines.

6. Breng nu kleine wijzigingen aan op de pagina’s en beoordeel het effect daarvan op de zoekresultaten om te bepalen welke factoren een resultaat naar boven of naar beneden kunnen duwen ten opzichte van zijn collega’s.

3. Maak de pagina’s zo identiek mogelijk, verander dan één variabele per keer, experimenteer met de plaatsing van tekst, opmaak, gebruik van trefwoorden, linkstructuren, enz.

4. Wijs links naar het domein van geïndexeerde, goed gecrawlde pagina’s op andere domeinen.

7. Noteer alle resultaten die effectief lijken, en test ze opnieuw op andere domeinen of met andere termen. Als verschillende tests consequent dezelfde resultaten opleveren, is de kans groot dat u een patroon hebt ontdekt dat door de zoekmachines wordt gebruikt.

Een voorbeeld van een test die we uitvoerden

Dit proces is nuttig, maar is niet het enige dat helpt bij het opleiden van search marketeers.

Naast dit soort tests kunnen zoekmachinemarketeers ook informatie over de werking van zoekmachines vergaren via octrooiaanvragen die de grote zoekmachines bij de United States Patent Office hebben ingediend. Het beroemdste is misschien wel het systeem dat eind jaren negentig in de slaapzalen van Stanford aan de wieg stond van Google, PageRank, gedocumenteerd als Patent #6285999: “Method for node ranking in a linked database”. De oorspronkelijke paper over dit onderwerp – Anatomy of a Large-Scale Hypertextual Web Search Engine – is ook onderwerp geweest van veel studie. Maar maak je geen zorgen; je hoeft niet terug te gaan en remedial calculus te nemen om SEO te kunnen beoefenen!

Door middel van methodes zoals octrooianalyse, experimenten en live testing, zijn search marketeers als gemeenschap gekomen om veel van de basishandelingen van zoekmachines te begrijpen en de kritieke componenten van het creëren van websites en pagina’s die hoge rankings en significant verkeer verdienen.

De rest van deze gids is gewijd aan deze inzichten. Veel plezier!

Een van de belangrijkste elementen bij het opbouwen van een online marketingstrategie rond SEO is empathie voor uw publiek. Als u eenmaal begrijpt waar uw doelgroep naar op zoek is, kunt u die gebruikers effectiever bereiken en behouden.

Wij zeggen graag: “Bouw voor gebruikers, niet voor zoekmachines.” Er zijn drie soorten zoekopdrachten die mensen over het algemeen maken:

“Doe” transactionele vragen: Ik wil iets doen, zoals een vliegticket kopen of naar een liedje luisteren.

“Know” informatieve vragen: Ik heb informatie nodig, zoals de naam van een band of het beste restaurant in New York City.

“Ga” Navigatie Zoekopdrachten: Ik wil naar een bepaalde plaats op het Intrernet, zoals Facebook of de homepage van de NFL.

Wanneer bezoekers een zoekopdracht intypen in een zoekvak en op uw site terechtkomen, zullen ze dan tevreden zijn met wat ze vinden? Dit is de primaire vraag die zoekmachines elke dag miljarden keren proberen te beantwoorden. De primaire verantwoordelijkheid van zoekmachines is om relevante resultaten te bieden aan hun gebruikers. Vraag uzelf dus af waar uw doelklanten naar zoeken en zorg ervoor dat uw site hen dat levert.

Het begint allemaal met woorden die in een klein vakje worden getypt.

De ware kracht van inbound marketing met SEO

Google gaat aan de leiding in een onderzoek van comScore van oktober 2011:

Google leidde de Amerikaanse kernzoekmarkt in april met 65,4 procent van de uitgevoerde zoekopdrachten, gevolgd door Yahoo!

17,2 procent, en Microsoft met 13,4 procent. (Microsoft is verantwoordelijk voor Yahoo Search. In de echte wereld zien de meeste webmasters een veel hoger percentage van hun traffic van Google dan deze cijfers suggereren).

Amerikanen alleen al voerden in één maand maar liefst 20,3 miljard zoekopdrachten uit. Google was goed voor 13,4 miljard zoekopdrachten, gevolgd door Yahoo! (3,3 miljard), Microsoft (2,7 miljard), Ask Network (518 miljoen), en AOL LLC (277 miljoen).

Het totale aantal zoekopdrachten dat door Google-eigenschappen werd aangedreven, bedroeg 67,7 procent van alle zoekopdrachten, gevolgd door Bing, dat

26,7 procent van alle zoekopdrachten.

Miljarden uitgegeven aan online marketing uit een Forrester-rapport van augustus 2011:

De kosten van online marketing zullen in 2016 de 77 miljard dollar benaderen.

Dit bedrag vertegenwoordigt 26% van alle reclamebudgetten samen.

Search is de nieuwe Gouden Gids uit een Burke 2011 rapport:

76% van de respondenten gebruikte zoekmachines om lokale bedrijfsinformatie te vinden, tegenover 74% die zich tot gedrukte gouden gids wendden.

67% had de afgelopen 30 dagen zoekmachines gebruikt om lokale informatie te vinden, en 23% antwoordde dat zij online sociale netwerken als lokale mediabron hadden gebruikt.

Al deze indrukwekkende onderzoeksgegevens leiden ons tot belangrijke conclusies over zoeken op het web en marketing via zoekmachines. In het bijzonder zijn we in staat om de volgende uitspraken te doen:

Search is zeer, zeer populair. Met een sterke groei van bijna 20% per jaar bereikt het bijna elke online-Amerikaan en miljarden mensen over de hele wereld.

Search is de motor van een ongelooflijke hoeveelheid economische activiteit, zowel online als offline.

Een hogere positie in de eerste paar resultaten is van cruciaal belang voor de zichtbaarheid.

Een plaats bovenaan de resultaten levert niet alleen de grootste hoeveelheid traffic op, maar wekt bij de consument ook vertrouwen in de waarde en het relatieve belang van het bedrijf of de website.

Het leren van de basis van SEO is een vitale stap in het bereiken van deze

Uit een internetonderzoek van Pew van augustus 2011 blijkt:

Het percentage internetgebruikers dat op een doorsnee dag gebruik maakt van zoekmachines is gestaag gestegen van ongeveer een derde van alle gebruikers in 2002 tot een nieuw hoogtepunt van 59% van alle volwassen internetgebruikers.

Met deze stijging komt het aantal mensen dat op een doorsneedag een zoekmachine gebruikt steeds dichter in de buurt van de 61 procent van de internetgebruikers die op een doorsneedag e-mail gebruiken, misschien wel de belangrijkste killer-app van het internet.

StatCounter Global Stats rapporteert de top 5 zoekmachines die wereldwijd verkeer verzenden:

Google stuurt 90,62% van de traffic.

Yahoo! stuurt 3,78% van de traffic.

Bing stuurt 3,72% van de traffic.

Ask Jeeves stuurt .36% van de traffic.

Baidu stuurt .35% van de traffic.

Een onderzoek uit 2011 door Slingshot SEO onthult click-through rates voor rop rankings:

Een nummer 1 positie in de zoekresultaten van Google ontvangt 18,2% van alle doorklik traffic.

De tweede positie krijgt 10,1%, de derde 7,2%, de vierde 4,8%, en alle anderen minder dan 2%.

Een nummer 1 positie in de zoekresultaten van Bing geeft gemiddeld een doorklikpercentage van 9,66%.

Het totale gemiddelde doorklikpercentage voor de eerste tien resultaten bedroeg 52,32% voor Google en 26,32% voor Bing.

“Voor marketeers behoort het internet als geheel, en search in het bijzonder, tot de belangrijkste manieren om consumenten te bereiken en een bedrijf op te bouwen.”

doelen.

Een belangrijk aspect van SEO is uw website begrijpelijk te maken voor zowel gebruikers als robots van zoekmachines. Hoewel zoekmachines steeds geavanceerder zijn geworden, kunnen ze een webpagina nog steeds niet op dezelfde manier zien en begrijpen als een mens dat kan. SEO helpt de zoekmachines uit te vinden waar een pagina over gaat en hoe deze nuttig kan zijn voor gebruikers.

Een veelgehoord argument tegen SEO

We horen vaak uitspraken als deze:

“Geen enkele slimme ingenieur zou ooit een zoekmachine bouwen die eist dat websites bepaalde regels of principes volgen om te worden gerangschikt of geïndexeerd. Iedereen met een half brein zou een systeem willen dat door elke architectuur kan kruipen, elke hoeveelheid complexe of onvolmaakte code kan ontleden, en nog steeds een manier vindt om de meest relevante resultaten terug te geven, niet de resultaten die zijn ‘geoptimaliseerd’ door zoekmarketingexperts zonder licentie.”

Maar wacht…

Stel je voor dat je een foto van je familiehond online zet. Een mens zou de foto kunnen omschrijven als “een zwarte, middelgrote hond, lijkt op een Lab, die in het park aan het apporteren is”. Aan de andere kant zou de beste zoekmachine ter wereld moeite hebben om de foto te begrijpen op een niveau dat in de buurt komt van dat niveau van verfijning. Hoe zorg je ervoor dat een zoekmachine een foto begrijpt? Gelukkig stelt SEO webmasters in staat aanwijzingen te geven die de zoekmachines kunnen gebruiken om de inhoud te begrijpen. In feite is het toevoegen van de juiste structuur aan je inhoud essentieel voor SEO.

Inzicht in zowel de mogelijkheden en beperkingen van zoekmachines stelt u in staat om goed op te bouwen, te formatteren, en annoteren uw web content op een manier die zoekmachines kunnen verteren. Zonder SEO, kan een website onzichtbaar zijn voor zoekmachines.

De grenzen van zoekmachinetechnologie

Problemen met crawlen en indexeren

Online formulieren: Zoekmachines zijn niet goed in het invullen van online formulieren (zoals een login), en dus kan alle inhoud die zich daarachter bevindt verborgen blijven.

Dubbele pagina’s: Websites die gebruik maken van een CMS (Content Management System) maken vaak dubbele versies van dezelfde pagina; dit is een groot probleem voor zoekmachines die op zoek zijn naar volledig originele inhoud.

Geblokkeerd in de code: Fouten in de crawl-richtlijnen (robots.txt) van een website kunnen leiden tot het volledig blokkeren van zoekmachines.

Problemen met het koppelen van zoekopdrachten aan inhoud

Ongewone termen: Tekst die niet geschreven is in de gangbare termen die mensen gebruiken om te zoeken. Bijvoorbeeld, schrijven over “voedselkoelers” terwijl mensen eigenlijk zoeken naar “koelkasten”.

Taal en internationalisatie subtiliteiten: Bijvoorbeeld, “kleur” versus “kleur”. Bij twijfel, controleer waar mensen naar zoeken en gebruik exacte overeenkomsten in je content.

Incongruente locatie targeting: Targeting inhoud in het Pools

Slechte linkstructuren: Als de linkstructuur van een website niet begrijpelijk is voor de zoekmachines, kan het zijn dat ze niet alle inhoud van een website bereiken; of, als de website wordt gecrawld, kan de minimaal blootgestelde inhoud door de index van de motor als onbelangrijk worden beschouwd.

Niet-tekstuele inhoud: Hoewel de zoekmachines steeds beter worden in het lezen van niet-HTML tekst, is inhoud in rich media formaat nog steeds moeilijk te ontcijferen voor zoekmachines. Hieronder valt tekst in Flash-bestanden, afbeeldingen, foto’s, video, audio en plug-in content.

als de meerderheid van de mensen die uw website bezoeken uit Japan komen.

Gemengde contextuele signalen: De titel van uw blogbericht is bijvoorbeeld “Mexico’s Best Coffee”, maar het bericht zelf gaat over een vakantieoord in Canada dat toevallig ook geweldige coffee serveert. Deze gemengde boodschappen sturen verwarrende signalen naar zoekmachines.

Zorg ervoor dat uw inhoud gezien wordt

Het is belangrijk om de technische details van zoekmachine-vriendelijke web-ontwikkeling in orde te hebben, maar als de basis eenmaal is gelegd, moet u ook uw inhoud op de markt brengen. De zoekmachines zelf hebben geen formules om de kwaliteit van de inhoud op het web te meten. In plaats daarvan vertrouwt de zoektechnologie op de metriek van relevantie en belangrijkheid, en zij meten die metriek door bij te houden wat mensen doen: wat ze ontdekken, reageren, becommentariëren, en linken naar. Je kunt dus niet alleen een perfecte website bouwen en geweldige inhoud schrijven; je moet er ook voor zorgen dat die inhoud gedeeld en besproken wordt.

Voortdurend veranderende SEO

De toekomst is onzeker, maar in de wereld van search is verandering een constante. Om deze reden zal search marketing een prioriteit blijven voor degenen die concurrerend willen blijven op het web.

Sommigen hebben beweerd dat SEO dood is, of dat SEO neerkomt op spam. Zoals wij het zien, is er geen noodzaak voor een verdediging anders dan eenvoudige logica: websites concurreren om aandacht en plaatsing in de zoekmachines, en degenen met de kennis en ervaring om de ranking van hun website te verbeteren zullen de voordelen van een verhoogde traffic en zichtbaarheid ontvangen.

Indexeerbare inhoud

Uw site zien zoals de zoekmachines dat doen

Veel websites hebben aanzienlijke problemen met indexeerbare inhoud, dus een dubbele controle is de moeite waard. Door gebruik te maken van tools zoals Google’s cache, SEO-browser.com, en de MozBar kunt u zien welke elementen van uw inhoud zichtbaar en indexeerbaar zijn voor de zoekmachines. Kijk eens naar Google’s tekst cache van de pagina die u nu leest. Zie je hoe anders het eruit ziet?

“Ik heb een probleem om gevonden te worden. Ik heb een grote Flash site gebouwd voor jonglerende panda’s en ik kom nergens op Google. Wat is er aan de hand?”

Whoa! Zien we er zo uit?

Met behulp van de cache-functie van Google kunnen we zien dat de homepage van JugglingPandas.com voor een zoekmachine niet alle rijke informatie bevat die wij zien. Dit maakt het difficult voor zoekmachines om relevantie te interpreteren.

Hé, waar is het plezier gebleven?

Uh oh … via Google cache, kunnen we zien dat de pagina een dorre woestenij is. Er is niet eens tekst die ons vertelt dat de pagina de Bijlen Vechtende Apen bevat. De site is volledig in Flash gebouwd, maar helaas betekent dit dat zoekmachines geen enkele van de tekstuele inhoud kunnen indexeren, of zelfs maar de links naar de individuele spellen.

Zonder HTML-tekst zou deze pagina het erg moeilijk hebben om in de zoekresultaten te komen.

Het is verstandig om niet alleen te controleren op tekstuele inhoud, maar ook om met SEO tools dubbel te controleren of de pagina’s die je bouwt zichtbaar zijn voor de zoekmachines. Dit geldt voor uw afbeeldingen, en zoals we hieronder zien, ook voor uw links.

Crawlable Link Structures

Honderdduizenden sites maken de kritieke fout hun navigatie zo te structureren dat zoekmachines er niet bij kunnen, wat hun vermogen belemmert om pagina’s in de indexen van zoekmachines te krijgen.

Hieronder hebben we geïllustreerd hoe dit probleem zich kan voordoen:

In het bovenstaande voorbeeld heeft Google’s crawler pagina A bereikt en

ziet links naar pagina’s B en E. Maar ook al zijn C en D belangrijke pagina’s op de site, de crawler kan ze op geen enkele manier bereiken (of zelfs maar weten dat ze bestaan). Dat komt omdat er geen directe, crawlbare links zijn naar pagina’s C en D. Voor zover Google kan zien, bestaan ze niet! Goede inhoud, goede trefwoord targeting, en slimme marketing zal geen enkel verschil maken als de crawlers niet kunnen bereiken uw pagina’s in de eerste plaats.

Formulieren die moeten worden ingediend

Als u van gebruikers verlangt dat ze een online formulier invullen voordat ze toegang krijgen tot bepaalde content, is de kans groot dat zoekmachines die afgeschermde pagina’s nooit te zien krijgen. Formulieren kunnen een wachtwoord-beveiligde login of een volledige enquête zijn. In beide gevallen zullen crawlers over het algemeen niet proberen formulieren in te vullen, dus alle inhoud of links die toegankelijk zijn via een formulier zijn onzichtbaar voor de zoekmachines.

Links in niet te ontcijferen JavaScript

Als u JavaScript gebruikt voor links, zult u merken dat zoekmachines

Robots gebruiken geen zoekformulieren

Hoewel dit rechtstreeks verband houdt met de bovenstaande waarschuwing over formulieren, is het zo’n veel voorkomend probleem dat het toch vermeld moet worden. Sommige webmasters denken dat als ze een zoekvak op hun site zetten, dat de zoekmachines dan alles kunnen vinden waar bezoekers naar zoeken.

Helaas voeren crawlers geen zoekopdrachten uit om inhoud te vinden, waardoor miljoenen pagina’s ontoegankelijk blijven en gedoemd zijn tot anonimiteit totdat een gecrawlde pagina naar hen linkt.

Links in Flash, Java en andere plug-ins

crawlen niet of geven heel weinig gewicht aan de links die erin staan. Standaard HTML-links moeten JavaScript vervangen (of vergezellen) op elke pagina die je door crawlers wilt laten crawlen.

Links die verwijzen naar pagina’s die geblokkeerd zijn door de Meta Robots tag of robots.txt

Met de Meta Robots tag en het robots.txt bestand kan een site-eigenaar de toegang van crawlers tot een pagina beperken. Wees er wel op bedacht dat veel webmasters deze richtlijnen onbedoeld hebben gebruikt om de toegang voor malafide bots te blokkeren, om er vervolgens achter te komen dat zoekmachines hun crawl stopzetten.

Frames of iframes

Technisch gezien zijn links in zowel frames als iframes crawlbaar, maar beide leveren structurele problemen op voor de zoekmachines in termen van organisatie en volgen. Tenzij je een gevorderde gebruiker bent met een goed technisch begrip van hoe zoekmachines links in frames indexeren en volgen, kun je ze beter links laten staan.

De links op de Juggling Panda site (uit ons voorbeeld hierboven) zijn een perfecte illustratie van dit fenomeen. Hoewel er tientallen panda’s op de pagina staan vermeld en er naar gelinkt wordt, kan geen enkele crawler ze bereiken via de linkstructuur van de site, waardoor ze onzichtbaar zijn voor de engines en verborgen blijven voor de zoekopdrachten van gebruikers.

Links op pagina’s met vele honderden of duizenden links

Zoekmachines crawlen maar een beperkt aantal links op een pagina. Deze beperking is nodig om spam tegen te gaan en rankings te behouden. Pagina’s met honderden links lopen het risico dat niet al die links worden gecrawld en geïndexeerd.

Rel=”nofollow” kan worden gebruikt met de volgende syntaxis:

<a href=” http://moz.com” rel=”nofollow”>Lousy Punks!</a>

Links kunnen veel attributen hebben. De zoekmachines negeren ze bijna allemaal, met de belangrijke uitzondering van het rel=”nofollow” attribuut. In het voorbeeld hierboven vertelt de toevoeging van het rel=”nofollow” attribuut aan de link tag de zoekmachines dat de site-eigenaren niet willen dat deze link wordt geïnterpreteerd als een goedkeuring van de doelpagina.

Nofollow, letterlijk genomen, instrueert zoekmachines om een link niet te volgen (hoewel sommigen dat wel doen). De nofollow-tag is ontstaan als een methode om geautomatiseerde spam over blogcommentaren, gastenboeken en linkinjecties tegen te gaan (lees hier meer over de lancering), maar is in de loop der tijd veranderd in een manier om de zoekmachines te vertellen dat ze de waarde van een link die normaal wel wordt doorgegeven, moeten aftrekken. Links gelabeld met nofollow worden door elk van de engines iets anders geïnterpreteerd, maar het is duidelijk dat ze niet evenveel gewicht in de schaal leggen als normale links.

Zijn nofollow links slecht?

Hoewel ze niet zoveel waarde doorgeven als hun gevolgde neven, zijn nofollowed links een natuurlijk onderdeel van een divers linkprofiel. Een website met veel inkomende links zal veel nofollowed links verzamelen, en dit is geen slechte zaak. In feite toonde Moz’s Ranking Factors aan dat hoog gerangschikte sites een hoger percentage inkomende nofollow links hebben dan lager gerangschikte sites.

Trefwoordgebruik en targeting

Als u wilt dat uw pagina een kans maakt om te scoren in de zoekresultaten voor “hond”, is het uiteraard verstandig om ervoor te zorgen dat het woord “hond” deel uitmaakt van de crawlbare inhoud van uw document.

Trefwoord Overheersing

Zoekmachines meten hoe trefwoorden worden gebruikt op pagina’s om de relevantie van een bepaald document voor een zoekopdracht te helpen bepalen. Een van de beste manieren om de ranking van een pagina te optimaliseren is ervoor te zorgen dat de trefwoorden waarop u wilt scoren prominent worden gebruikt in titels, tekst en metadata.

In het algemeen, als u uw zoekwoorden meer specifiek maakt, verkleint u de concurrentie voor zoekresultaten, en verbetert u uw kansen om een hogere ranking te bereiken. De kaart grafiek aan de linkerkant vergelijkt de relevantie van de brede term “boeken” met de specifieke titel Tale of Two Cities. Merk op dat terwijl er veel resultaten zijn voor de brede term, er aanzienlijk minder resultaten zijn (en dus minder concurrentie) voor het specifieke resultaat.

Trefwoord misbruik

In de begindagen vertrouwden zoekmachines op het gebruik van trefwoorden als een belangrijk relevantiesignaal, ongeacht hoe de trefwoorden werkelijk werden gebruikt. Vandaag de dag kunnen zoekmachines nog steeds niet zo goed tekst lezen en begrijpen als een mens, maar het gebruik van machine learning heeft hen in staat gesteld dichter bij dit ideaal te komen.

De beste praktijk is om uw zoekwoorden natuurlijk en strategisch te gebruiken (meer hierover hieronder). Als uw pagina zich richt op het trefwoord “Eiffeltoren” dan kunt u natuurlijk inhoud opnemen over de Eiffeltoren zelf, de geschiedenis van de toren, of zelfs aanbevolen hotels in Parijs. Aan de andere kant, als je gewoon strooi de woorden “Eiffeltoren” op een pagina met irrelevante inhoud, zoals een pagina over honden fokken, dan is uw inspanningen om te rangschikken voor “Eiffeltoren” zal een lange, bergopwaarts gevecht zijn. Het punt van het gebruik van zoekwoorden is niet om hoog te scoren voor alle zoekwoorden, maar om hoog te scoren voor de zoekwoorden die mensen zoeken wanneer ze willen wat uw site biedt.

Op-pagina optimalisatie

ranking algoritmen, en we kunnen een aantal effectieve technieken voor het gebruik van trefwoorden toepassen om pagina’s te maken die goed geoptimaliseerd zijn. Hier bij Moz houden we ons bezig met veel testen en krijgen we een enorm aantal zoekresultaten en verschuivingen te zien op basis van tactieken voor het gebruik van trefwoorden. Als u met een van uw eigen sites werkt, is dit het proces dat we aanbevelen. Gebruik de zoekwoordzin:

Tenminste één keer in de title tag. Probeer de trefwoordzin zo dicht mogelijk bij het begin van de title-tag te houden. Meer details over title tags volgen later in deze sectie.

Eenmaal prominent bovenaan de pagina.

Minstens twee of drie keer, inclusief variaties, in de body copy op de pagina. Misschien een paar keer meer als er veel tekst in staat. U kunt extra waarde vinden in het gebruik van het zoekwoord of variaties meer dan dit, maar in onze ervaring het toevoegen van meer gevallen van een term of zin heeft weinig of geen invloed op de rankings.

Tenminste één keer in het alt-attribuut van een afbeelding op de pagina. Dit helpt niet alleen bij het zoeken op het web, maar ook bij het zoeken naar afbeeldingen, wat af en toe waardevolle traffic kan opleveren.

Eenmaal in de URL. Aanvullende regels voor URL’s en trefwoorden worden verderop in dit hoofdstuk besproken.

Minstens één keer in de meta description tag. Merk op dat de meta description tag niet wordt gebruikt door de engines voor rankings, maar eerder helpt om clicks aan te trekken door zoekers die de resultaten pagina lezen, aangezien de meta description de snippet van tekst wordt die door de zoekmachines wordt gebruikt.

En je moet over het algemeen geen trefwoorden gebruiken in de ankertekst van links die naar andere pagina’s op je site verwijzen; dit staat bekend als Keyword Cannibalization.

Hoe zou de optimale paginadichtheid er dan uit moeten zien? Een optimale pagina voor de uitdrukking “hardloopschoenen” zou er ongeveer zo uitzien:

U kunt meer informatie lezen over On-Page Optimalisatie in deze post.

De title-tag van elke pagina verschijnt bovenaan in browsersoftware op internet, en wordt vaak gebruikt als titel wanneer uw inhoud wordt gedeeld via sociale media of opnieuw wordt gepubliceerd.

Het gebruik van trefwoorden in de title-tag betekent dat zoekmachines deze termen in de zoekresultaten vetgedrukt zullen weergeven wanneer een gebruiker een

Titel Markeringen

Aangezien title tags zo’n belangrijk onderdeel zijn van zoekmachine optimalisatie, zijn de volgende best practices voor het maken van title tags geweldig laaghangend SEO fruit. De aanbevelingen hieronder omvatten de kritische stappen om title tags te optimaliseren voor zoekmachines en voor bruikbaarheid.

Let op de lengte

Zoekmachines tonen alleen de eerste 65-75 tekens van een title-tag in de zoekresultaten (daarna tonen de engines een ellips – “…”

– om aan te geven wanneer een title-tag is afgesneden). Dit is ook de algemene limiet die door de meeste social media sites wordt toegestaan, dus het is over het algemeen verstandig om deze limiet aan te houden. Als u zich echter richt op meerdere trefwoorden (of een bijzonder lange trefwoordzin), en het hebben van deze trefwoorden in de title-tag is essentieel voor de ranking, kan het raadzaam zijn om langer te gaan.

Plaats belangrijke trefwoorden dicht bij de voorgrond

Hoe dichter bij het begin van de title-tag uw zoekwoorden staan, hoe nuttiger ze zullen zijn voor de ranking, en hoe groter de kans dat een gebruiker erop zal klikken in de zoekresultaten.

Merknamen opnemen

Bij Moz houden we ervan om elke title-tag af te sluiten met een vermelding van een merknaam, omdat die helpen om de merkbekendheid te vergroten, en een hoger doorklikpercentage creëren voor mensen die een merk leuk en bekend vinden. Soms is het zinvol om uw merk aan het begin van

query met die termen. Dit zorgt voor een grotere zichtbaarheid en een hogere click-through rate.

De laatste belangrijke reden om beschrijvende, keyword-beladen title tags te maken is voor ranking bij de zoekmachines. In Moz’s tweejaarlijkse enquête onder SEO industrie leiders, zei 94% van de deelnemers dat het gebruik van trefwoorden in de title-tag de belangrijkste plaats is om trefwoorden te gebruiken om hoge rankings te bereiken.

de title-tag, zoals uw homepage. Aangezien woorden aan het begin van de title-tag meer gewicht in de schaal leggen, moet u goed bedenken waar u voor wilt scoren.

Denk aan leesbaarheid en emotionele impact

Title tags moeten beschrijvend en leesbaar zijn. De title-tag is de eerste interactie van een nieuwe bezoeker met uw merk en moet een zo positief mogelijke indruk maken. Het maken van een overtuigende title-tag zal helpen om de aandacht te trekken op de zoekresultaten pagina, en meer bezoekers naar uw site te trekken. Dit onderstreept dat SEO niet alleen draait om optimalisatie en strategisch zoekwoordgebruik, maar om de hele gebruikerservaring.

Meta Tags

Meta Robots

De Meta Robots tag kan worden gebruikt om zoekmachine crawler activiteit te controleren (voor alle grote zoekmachines) op een per-pagina niveau. Er zijn verschillende manieren om Meta Robots te gebruiken om te bepalen hoe zoekmachines een pagina behandelen:

index/noindex vertelt de engines of de pagina moet worden gecrawled en in de index van de engines moet worden bewaard om te worden opgehaald. Als je kiest voor “noindex”, wordt de pagina niet opgenomen in de index. Zoekmachines gaan er standaard van uit dat ze alle pagina’s kunnen indexeren, dus het gebruik van de “index” waarde is over het algemeen onnodig.

follow/nofollow vertelt de engines of links op de pagina gecrawld moeten worden. Als u ervoor kiest om “nofollow” te gebruiken, zullen de zoekmachines de links op de pagina negeren voor zoekdoeleinden, rankingdoeleinden, of beide. Standaard wordt aangenomen dat alle pagina’s het “follow” attribuut hebben.

Voorbeeld: <META NAME=”ROBOTS” CONTENT=”NOINDEX, NOFOLLOW”>

noarchive wordt gebruikt om te voorkomen dat zoekmachines een kopie van de pagina in de cache bewaren. Standaard bewaren de zoekmachines zichtbare kopieën van alle pagina’s die ze geïndexeerd hebben, toegankelijk voor zoekers via de cached link in de zoekresultaten.

nosnippet laat de zoekmachines weten dat ze moeten afzien van het weergeven van een beschrijvend tekstblok naast de titel en de URL van de pagina in de zoekresultaten.

noodp/noydir zijn gespecialiseerde tags die de zoekmachines vertellen dat ze geen beschrijvend stukje over een pagina van het Open Directory Project (DMOZ) of de Yahoo! Directory moeten overnemen voor weergave in de zoekresultaten.

De X-Robots-Tag HTTP header richtlijn bereikt dezelfde doelen. Deze techniek werkt vooral goed voor inhoud in niet-HTML-bestanden, zoals afbeeldingen.

Meta Beschrijving

De meta description tag bestaat als een korte beschrijving van de inhoud van een pagina. Zoekmachines gebruiken de zoekwoorden of zinnen in deze tag niet voor rankings, maar metabeschrijvingen zijn de primaire bron voor het stukje tekst dat onder een vermelding in de resultaten wordt weergegeven.

De meta description tag heeft de functie van reclametekst, die lezers naar uw site trekt vanuit de resultaten. Het is een uiterst belangrijk onderdeel van zoekmarketing. Het maken van een leesbare, overtuigende beschrijving met belangrijke zoekwoorden (merk op hoe Google de gezochte zoekwoorden in de beschrijving vet maakt) kan een veel hogere click-through rate van zoekers naar uw pagina trekken.

Meta beschrijvingen kunnen elke lengte hebben, maar zoekmachines knippen over het algemeen snippets van meer dan 160 karakters af, dus het is over het algemeen verstandig om binnen deze grenzen te blijven.

Bij gebrek aan metabeschrijvingen, zullen zoekmachines de zoeksnelkoppeling creëren uit andere elementen van de pagina. Voor pagina’s die zich richten op meerdere zoekwoorden en onderwerpen, is dit een perfect geldige tactiek.

Niet zo belangrijke meta tags

Meta Trefwoorden: De meta keywords tag had ooit waarde, maar is niet langer waardevol of belangrijk voor zoekmachine optimalisatie. Voor meer over de geschiedenis en een volledig verslag van waarom meta keywords in onbruik is geraakt, lees Meta Keywords Tag 101 van SearchEngineLand.

Meta Refresh, Meta Revisit-after, Meta Content-type, en andere: Hoewel deze tags nuttig kunnen zijn voor zoekmachine optimalisatie, zijn ze minder cruciaal voor het proces, en dus laten we het over aan Google’s Webmaster Tools Help om ze in meer detail te bespreken.

URL-structuren

URL’s – de adressen voor documenten op het web – zijn van grote waarde vanuit een zoekperspectief. Ze verschijnen op meerdere belangrijke plaatsen.

Aangezien zoekmachines URL’s in de resultaten weergeven, kunnen deze van invloed zijn op de doorklik en de zichtbaarheid. URL’s worden ook gebruikt bij het rangschikken van documenten, en de pagina’s waarvan de naam de gezochte zoektermen bevat, hebben enig voordeel bij een juist, beschrijvend gebruik van trefwoorden.

URL’s verschijnen in de adresbalk van de webbrowser, en hoewel dit over het algemeen weinig invloed heeft op zoekmachines, kunnen een slechte URL-structuur en -ontwerp leiden tot een negatieve gebruikerservaring.

De URL hierboven wordt gebruikt als de ankertekst van de link die wijst naar de pagina waarnaar verwezen wordt in dit blogbericht.

URL-bouwrichtlijnen

Plaats uzelf in de gedachten van een gebruiker en kijk naar uw URL. Als u gemakkelijk en nauwkeurig kunt voorspellen welke inhoud u op de pagina zou verwachten, is uw URL voldoende beschrijvend. U hoeft niet elk detail in de URL te beschrijven, maar een ruw idee is een goed uitgangspunt.

Korter is beter

Hoewel een beschrijvende URL belangrijk is, zal het minimaliseren van de lengte en de achterliggende slashes uw URL’s gemakkelijker te kopiëren en te plakken maken (in e-mails, blog posts, tekstberichten, enz.) en zal volledig zichtbaar zijn in de zoekresultaten.

Gebruik van trefwoorden is belangrijk (maar overmatig gebruik is gevaarlijk)

Als uw pagina gericht is op een specifieke term of uitdrukking, zorg er dan voor deze in de URL op te nemen. Overdrijf echter niet door er meerdere trefwoorden in te proppen voor SEO-doeleinden; overmatig gebruik zal resulteren in minder bruikbare URL’s en kan spamfilters doen trippen.

Ga statisch

De beste URL’s zijn menselijk leesbaar en zonder veel parameters, getallen en symbolen. Met behulp van technologieën zoals mod_rewrite voor Apache en ISAPI_rewrite voor Microsoft, kun je eenvoudig dynamische URL’s zoals deze http://moz.com/blog?

id=123 in een meer leesbare statische versie als deze:

http://moz.com/blog/google-fresh-factor. Zelfs afzonderlijke dynamische parameters in een URL kunnen resulteren in een lagere algemene ranking en indexering.

Gebruik koppeltekens om woorden van elkaar te scheiden

Niet alle webtoepassingen interpreteren scheidingstekens zoals underscores (_), plustekens (+) of spaties (%20) nauwkeurig, dus gebruik in plaats daarvan het koppelteken (-) om woorden in een URL te scheiden, zoals in het “google- fresh-factor” URL-voorbeeld hierboven.

Canonieke en duplicaatversies van inhoud

Canonicalisatie gebeurt wanneer twee of meer dubbele versies van een webpagina op verschillende URL’s verschijnen. Dit is heel gebruikelijk bij moderne Content Management Systemen. U kunt bijvoorbeeld een gewone versie van een pagina aanbieden en een voor afdrukken geoptimaliseerde versie. Duplicate content kan zelfs op meerdere websites voorkomen. Voor zoekmachines is dit een groot probleem: welke versie van deze content moeten ze aan zoekers laten zien? In SEO-kringen wordt dit probleem vaak aangeduid als duplicate content, dat hier nader wordt beschreven.

De zoekmachines zijn kieskeurig wat betreft dubbele versies van een enkel stuk materiaal. Om de beste zoekerservaring te bieden, zullen ze zelden meerdere, dubbele stukken content tonen, en in plaats daarvan kiezen welke versie het meest waarschijnlijk het origineel is. Het eindresultaat is dat al uw dubbele inhoud lager kan scoren dan zou moeten.

Canonicalisatie is de praktijk van het organiseren van je inhoud op een zodanige manier dat elk uniek stuk één, en slechts één, URL heeft. Als je meerdere versies van content op een website (of websites) laat staan, kun je terechtkomen in een scenario zoals hiernaast: welke diamant is de juiste?

In plaats daarvan, als de site-eigenaar die drie pagina’s zou 301- redirecten, zouden de zoekmachines slechts één sterke paginahebben om te tonen in de lijsten van die site.

Wanneer meerdere pagina’s met het potentieel om goed te ranken worden gecombineerd in een enkele pagina, concurreren ze niet alleen niet meer met elkaar, maar creëren ze ook een sterker relevantie- en populariteitssignaal. Dit zal een positieve invloed hebben op uw vermogen om te scoren

goed in de zoekmachines.

Canonical Tag naar de redding!

Een andere optie van de zoekmachines, genaamd de Canonical URL Tag, is een andere manier om het aantal gevallen van duplicate content op een enkele site te verminderen en deze te canoniseren naar een individuele URL. Dit kan ook worden gebruikt over verschillende websites, van één URL op één domein naar een andere URL op een ander domein.

Gebruik de canonical tag binnen de pagina die duplicate content bevat. Het doel van de canonical tag wijst naar de hoofd URL waar je voor wilt ranken.

Vanuit een SEO perspectief is het Canonical URL tag attribuut vergelijkbaar met een 301 redirect. In essentie vertel je de engines dat meerdere pagina’s moeten worden beschouwd als één (wat een 301 doet), maar zonder daadwerkelijk bezoekers door te sturen naar de nieuwe URL. Dit heeft als bijkomend voordeel dat het uw ontwikkelaars veel hartzeer bespaart.

Voor meer over de verschillende soorten duplicate content, verdient deze post van Dr. Pete een speciale vermelding.

Rich Snippets

Hoewel het gebruik van rich snippets en gestructureerde gegevens geen verplicht element is van zoekmachinevriendelijk ontwerp, betekent het toenemende gebruik ervan dat webmasters die er gebruik van maken in sommige omstandigheden een voordeel kunnen genieten.

Gestructureerde gegevens betekent het toevoegen van markup aan je inhoud, zodat zoekmachines gemakkelijk kunnen identificeren wat voor soort inhoud het is. Schema.org geeft enkele voorbeelden van gegevens die baat kunnen hebben bij gestructureerde opmaak, zoals mensen, producten, beoordelingen, bedrijven, recepten en evenementen.

Vaak nemen de zoekmachines gestructureerde gegevens op in de zoekresultaten, zoals in het geval van gebruikersrecensies (sterren) en auteursprofielen (foto’s). Er zijn verschillende goede bronnen voor meer informatie

over rich snippets online, waaronder informatie op Schema.org en Google’s Rich Snippet Testing Tool.

De eer van uw site verdedigen

Helaas is het web bezaaid met websites zonder scrupules die voor hun business- en handelsmodellen afhankelijk zijn van het plukken van inhoud van andere sites en het hergebruik daarvan (soms op vreemd aangepaste manieren) op hun eigen domeinen. Deze praktijk waarbij inhoud wordt opgehaald en opnieuw gepubliceerd, wordt “scraping” genoemd, en de scrapers doen het opmerkelijk goed in de zoekmachineranking, vaak hoger dan de oorspronkelijke sites.

Wanneer je inhoud publiceert in eender welk type feedformaat, zoals RSS of XML, moet je ervoor zorgen dat je de belangrijkste blogging- en traceringsdiensten (Google, Technorati, Yahoo!, enz.) pingt. Je kunt instructies vinden voor het pingen van diensten als Google en Technorati direct vanaf hun sites, of een dienst als Pingomatic gebruiken om het proces te automatiseren. Als je publishing software op maat gemaakt is, is het meestal verstandig dat de ontwikkelaar(s) auto-pinging inbouwen bij het publiceren.

Vervolgens kunt u de luiheid van de scrapers tegen hen gebruiken. De meeste scrapers op het web zullen inhoud herpubliceren zonder het te bewerken. Dus, door links op te nemen naar je site, en naar de specifieke post die je hebt geschreven, kun je ervoor zorgen dat de zoekmachines de meeste kopieën naar jou zien teruglinken (wat aangeeft dat jouw bron waarschijnlijk de originator is). Om dit te doen, moet je absolute, in plaats van relatieve links gebruiken in je interne linking structuur. Dus, in plaats van te linken naar uw homepage met:

<a href=”../”>Home</a>

Je zou in plaats daarvan gebruiken:

<a href=“http://moz.com”>Home</a>

Op die manier, wanneer een scraper de inhoud oppikt en kopieert, blijft de link naar uw site wijzen.

Er zijn meer geavanceerde manieren om je te beschermen tegen scraping, maar geen enkele is helemaal waterdicht. Je mag verwachten dat hoe populairder en zichtbaarder je site wordt, hoe vaker je inhoud geschraapt en opnieuw gepubliceerd zal worden. Vaak kunt u dit probleem negeren, maar als het erg ernstig wordt en de scrapers uw rankings en traffic wegnemen, kunt u overwegen een DMCA takedown te gebruiken. Moz CEO Sarah Bird biedt een aantal goede adviezen over dit onderwerp: Vier manieren om uw auteursrecht af te dwingen: Wat te doen wanneer uw online inhoud wordt gestolen.

Trefwoord onderzoek is een van de meest belangrijke, waardevolle, en hoog rendement activiteiten op het gebied van zoek marketing. Ranking voor de juiste zoekwoorden kan uw website maken of breken. Door onderzoek te doen naar de vraag naar trefwoorden in uw markt, kunt u niet alleen leren op welke termen en zinnen u zich moet richten met SEO, maar ook meer leren over uw klanten als geheel.

Het gaat niet altijd over het krijgen van bezoekers naar uw site, maar over het krijgen van de juiste soort bezoekers. Het nut van deze intelligentie kan niet worden overschat; met trefwoord onderzoek kunt u verschuivingen in de vraag voorspellen, reageren op veranderende marktomstandigheden, en de producten, diensten en inhoud produceren waarnaar webzoekers actief op zoek zijn. In de geschiedenis van marketing is er nog nooit zo’n lage drempel geweest voor het begrijpen van de motivaties van consumenten in vrijwel elke niche.

Hoe de waarde van een trefwoord te beoordelen

Zelfs de beste schattingen van de waarde vallen in het niet bij het praktische proces van optimalisatie en het berekenen van de ROI. Zoekmachine optimalisatie impliceert voortdurend testen, experimenteren, en verbetering. Vergeet niet, ook al is SEO typisch een van de hoogste rendement

marketinginvesteringen, is het meten van succes nog steeds van cruciaal belang voor het proces.

Het begrijpen van de lange staart van Keyword vraag

Het is prachtig om te gaan met zoekwoorden die 5.000 zoekopdrachten per dag, of zelfs 500 zoekopdrachten per dag hebben, maar in werkelijkheid, deze populaire zoektermen maken in feite minder dan 30% van de zoekopdrachten uitgevoerd op het web. De resterende 70% ligt in wat wordt genoemd de “lange staart” van zoeken. De lange staart bevat honderden miljoenen unieke zoekopdrachten die misschien een paar keer worden uitgevoerd in een bepaalde dag, maar, wanneer samen, de meerderheid van het zoekvolume in de wereld omvatten.

Een andere les die search marketeers hebben geleerd is dat long tail keywords vaak beter converteren, omdat ze mensen later in de koop/conversie cyclus pakken. Een persoon die zoekt naar “schoenen” is waarschijnlijk aan het rondkijken, en nog niet klaar om te kopen. Aan de andere kant, iemand die zoekt naar “beste prijs voor Air Jordan maat 12” heeft praktisch zijn portemonnee al klaar liggen!

Het begrijpen van de zoekvraag curve is van cruciaal belang. Aan de rechterkant hebben we een voorbeeld trefwoord vraagcurve opgenomen, ter illustratie van het kleine aantal zoekopdrachten dat grotere hoeveelheden traffic stuurt naast het volume van minder gezochte termen en zinnen die het leeuwendeel van onze zoekreferenties opleveren.

Trefwoord Onderzoek

Waar halen we al deze kennis over keyword vraag en keyword verwijzingen vandaan? Van onderzoeksbronnen zoals deze:

Google AdWords Trefwoord Planner Tool

Google Trends

Microsoft Bing Ads Inlichtingen

Google’s AdWords Keyword Tool biedt gesuggereerde trefwoord- en volumegegevens.

Gratis basis trefwoord vraag van Wordtracker

Google’s AdWords Keyword Planner tool is een veelgebruikt startpunt voor SEO trefwoord onderzoek. Het suggereert niet alleen zoekwoorden en biedt geschat zoekvolume, maar voorspelt ook de kosten van het uitvoeren van betaalde campagnes voor deze termen. Om het volume voor een bepaald zoekwoord te bepalen, zorg ervoor dat u het Match Type instelt op [Exact] en kijk onder Lokale Maandelijkse Zoekopdrachten. Onthoud dat dit het totaal aantal zoekopdrachten is. Afhankelijk van uw ranking en click- through rate, zal het werkelijke aantal bezoekers dat u bereikt voor deze zoekwoorden meestal veel lager zijn.

Er bestaan andere bronnen voor informatie over trefwoorden, evenals tools met meer geavanceerde gegevens. De Moz blog categorie over Trefwoord Onderzoek is een uitstekende plek om te beginnen.

Trefwoord Moeilijkheid

Om te weten op welke trefwoorden u zich moet richten, is het essentieel om niet alleen de vraag naar een bepaalde term of uitdrukking te begrijpen, maar ook het werk dat nodig is om hoge posities te bereiken. Als grote merken de top 10 resultaten bezetten en je bent net begonnen op het web, kan de strijd om een hoge positie kan jaren van inspanning kosten. Dit is waarom het essentieel is om trefwoord difficulty te begrijpen.

Verschillende tools op het web helpen bij het verstrekken van deze informatie. Een van deze, Moz’s eigen Keyword Analysis Tool doet goed werk met het verzamelen van al deze metriek en het verstrekken van een vergelijkende score voor een bepaalde zoekterm of zin.

De zoekmachines streven er voortdurend naar hun prestaties te verbeteren door de best mogelijke resultaten te leveren. Hoewel “beste” subjectief is, hebben de zoekmachines een zeer goed idee van het soort pagina’s en sites die hun zoekers bevredigen. Over het algemeen hebben deze sites een aantal kenmerken gemeen:

Gemakkelijk te gebruiken, te navigeren en te begrijpen

Directe, bruikbare informatie verschaffen die relevant is voor de zoekvraag

Professioneel ontworpen en toegankelijk voor moderne browsers

Lever kwalitatief hoogstaande, legitieme, geloofwaardige inhoud

Ondanks verbazingwekkende technologische vooruitgang kunnen zoekmachines nog geen tekst begrijpen, afbeeldingen bekijken of video bekijken zoals een mens dat kan. Om inhoud te ontcijferen en te rangschikken vertrouwen ze op meta-informatie (niet noodzakelijk meta-tags) over hoe mensen omgaan met sites en pagina’s, en dit geeft hen inzicht in de kwaliteit van de pagina’s zelf.

De impact van bruikbaarheid en gebruikerservaring

Er is een beperkt aantal variabelen waarmee zoekmachines rechtstreeks rekening kunnen houden, zoals trefwoorden, links en sitestructuur. Echter, door middel van linking patronen, gebruikersbetrokkenheid metrics, en machine learning, de motoren maken een aanzienlijk aantal intuïties over een bepaalde site. Bruikbaarheid en gebruikerservaring zijn tweede orde invloeden op zoekmachine ranking succes. Ze leveren een indirect maar meetbaar voordeel op voor de externe populariteit van een site, die de zoekmachines vervolgens kunnen interpreteren als een signaal van hogere kwaliteit. Dit wordt het “niemand linkt graag naar een waardeloze site” fenomeen genoemd.

Het creëren van een doordachte, empathische gebruikerservaring helpt ervoor te zorgen dat bezoekers uw site positief ervaren, wat delen, bookmarking, herhalingsbezoeken en inkomende links aanmoedigt – allemaal signalen die doorsijpelen naar de zoekmachines en bijdragen tot hoge rankings.

Signalen van kwaliteitsinhoud

Wanneer een zoekmachine u een pagina met resultaten voorlegt, kan zij het succes van de rangschikking meten door te observeren hoe u met die resultaten omgaat. Als u op de eerste link klikt en dan onmiddellijk op de terugknop drukt om de tweede link te proberen, geeft dit aan dat u niet tevreden was met het eerste resultaat. Zoekmachines zoeken de “lange klik” – waar gebruikers op een resultaat klikken zonder onmiddellijk terug te keren naar de zoekpagina om het opnieuw te proberen. Bij elkaar genomen over miljoenen en miljoenen zoekopdrachten per dag, bouwen de zoekmachines een goede pool van gegevens op om de kwaliteit van hun resultaten te beoordelen.

2. Machine Leren

In 2011 introduceerde Google de Panda-update van zijn rankingalgoritme, waardoor de manier waarop websites op kwaliteit werden beoordeeld aanzienlijk veranderde. Google begon met het gebruik van menselijke beoordelaars om handmatig

duizenden sites beoordelen, op zoek naar inhoud van lage kwaliteit. Google paste vervolgens machinaal leren toe om de menselijke beoordelaars na te bootsen. Zodra de computers nauwkeurig konden voorspellen wat de mensen zouden beoordelen als een site van lage kwaliteit, werd het algoritme ingevoerd op miljoenen sites op het hele internet. Het eindresultaat was een seismische verschuiving die meer dan 20% van alle zoekresultaten van Google herschikte. Voor meer informatie over de Panda update, kan je hier en hier enkele goede bronnen vinden.

3. Verbindingspatronen

De zoekmachines ontdekten al vroeg dat de linkstructuur van het web kon dienen als proxy voor stemmen en populariteit; sites en informatie van hogere kwaliteit verdienden meer links dan hun minder bruikbare, minder kwaliteitsvolle soortgenoten. Tegenwoordig zijn de algoritmen voor het analyseren van links aanzienlijk verbeterd, maar deze principes gelden nog steeds.

Al die positieve aandacht en opwinding over de inhoud van de nieuwe site vertaalt zich in een machinaal te ontleden (en algoritmisch-waardevolle) verzameling links. De timing, de bron, de anchor-tekst en het aantal links naar de nieuwe site worden allemaal meegewogen in de potentiële prestaties (d.w.z. ranking) voor relevante zoekopdrachten bij de zoekmachines.

Stel je nu eens voor dat die site niet zo geweldig was – laten we zeggen dat het een gewone site is zonder iets unieks of indrukwekkends.

Crafting inhoud

“Ontwikkel geweldige inhoud” is misschien wel de meest herhaalde suggestie in de SEO-wereld. Ondanks de clichématige status, is dit een goed advies. Aantrekkelijke, nuttige inhoud is van cruciaal belang voor zoekmachine optimalisatie. Elke zoekopdracht die wordt uitgevoerd bij de zoekmachines komt met een intentie – om te vinden, leren, oplossen, kopen, repareren, behandelen, of begrijpen. Zoekmachines plaatsen webpagina’s in hun resultaten om zo goed mogelijk aan die intentie te voldoen. Het maken van bevredigende, grondige inhoud die ingaat op de behoeften van zoekers verbeterde uw kans om top rankings te verdienen.

Zoek Intent Flavors

Transactionele Zoekopdrachten

Een plaatselijke zaak identificeren, online een aankoop doen, of een taak voltooien.

Bij transactionele zoekopdrachten hoeft het niet per se om een creditcard of bankoverschrijving te gaan. Aanmelden voor een gratis proefaccount bij Cook’s Illustrated, een Gmail-account aanmaken, of de beste plaatselijke Mexicaanse keuken vinden (in Seattle is dat Carta de Oaxaca) zijn allemaal zoekopdrachten met een transactie.

Informatieve zoekopdrachten

Onderzoeken van niet-transactionele informatie, snel antwoorden krijgen, of ego-onderzoeken.

Het zoeken naar informatie omvat een groot aantal vragen, gaande van het plaatselijke weer tot kaarten en routebeschrijvingen om te weten te komen hoe lang die reis naar Mars echt duurt (ongeveer acht maanden). De rode draad hierbij is dat de zoekopdrachten in de eerste plaats niet-commercieel en niet-transactiegericht van aard zijn; de informatie zelf is het doel, en er is geen interactie vereist buiten klikken en lezen.

Het is aan u om deze intenties te verwezenlijken. Creativiteit, schrijven van hoge kwaliteit, gebruik van voorbeelden, en het opnemen van afbeeldingen en multimedia kunnen allemaal helpen bij het maken van inhoud die perfect aansluit bij de doelen van een zoeker. Uw beloning is tevreden zoekers die hun positieve ervaring laten blijken door betrokkenheid bij uw site of door links ernaar.

Voor zoekmachines die de uitgestrekte metropool van het web doorkruisen, zijn links de straten tussen pagina’s. Met behulp van geavanceerde linkanalyse kunnen de zoekmachines ontdekken hoe pagina’s aan elkaar gerelateerd zijn en op welke manieren.

Sinds eind jaren negentig hebben zoekmachines links behandeld als stemmen voor populariteit en belang in de voortdurende democratische opiniepeiling van het web. De zoekmachines zelf hebben het gebruik van linkgegevens tot een kunst verheven, en gebruiken complexe algoritmen om op basis van deze informatie genuanceerde evaluaties van sites en pagina’s uit te voeren.

Links zijn niet alles in SEO, maar zoekprofessionals schrijven een groot deel van de algoritmes van de engines toe aan link-gerelateerde factoren (zie Search Engine Ranking Factors). Door middel van links, kunnen motoren niet alleen de populariteit van websites en pagina’s analyseren op basis van het aantal en de populariteit van pagina’s die naar hen linken, maar ook metriek zoals vertrouwen, spam, en autoriteit.

Betrouwbare sites hebben de neiging naar andere betrouwbare sites te linken, terwijl spamsites heel weinig links van betrouwbare bronnen krijgen (zie MozTrust). Autoriteitmodellen, zoals die in het Hilltop Algorithm, suggereren dat links een zeer goede manier zijn om deskundige documenten over een bepaald onderwerp te identificeren.

Verbindingssignalen

Hoe kennen zoekmachines waarde toe aan links? Om dit te beantwoorden, moeten we de individuele elementen van een link onderzoeken, en kijken hoe de zoekmachines deze elementen beoordelen. We begrijpen de metriek die zoekmachines gebruiken niet volledig, maar door analyse van octrooiaanvragen, jarenlange ervaring en praktijktests, kunnen we een aantal intelligente aannames doen die in de echte wereld stand houden. Hieronder is een lijst van opmerkelijke factoren die het overwegen waard zijn. Deze signalen, en nog veel meer, worden door professionele SEO’s in overweging genomen bij het meten van de linkwaarde en het linkprofiel van een site. U kunt ook genieten van wat verder op de Moz Blog lezen over zoekmachine waardering van links.

Wereldwijde Populariteit

Hoe populairder en belangrijker een site is, hoe meer links van die site ertoe doen. Een site als Wikipedia heeft duizenden verschillende sites die er naar linken, wat betekent dat het waarschijnlijk een populaire en belangrijke site is. Om vertrouwen en autoriteit te verdienen bij de engines, heb je de hulp nodig van andere link partners. Hoe populairder, hoe beter.

Lokale/onderwerp-specifieke populariteit

Het concept van “lokale” populariteit, voor het eerst uitgevonden door de Teoma

zoekmachine, suggereert dat links van sites binnen een onderwerpspecifieke gemeenschap er meer toe doen dan links van algemene of off-topic sites. Als uw website bijvoorbeeld hondenhokken verkoopt, is een link van de Society of Dog Breeders veel belangrijker dan een link van een site over rolschaatsen.

Ankertekst

Een van de sterkste signalen die de zoekmachines gebruiken in hun ranking is ankertekst. Als tientallen links verwijzen naar een pagina met de juiste zoekwoorden, heeft die pagina een zeer goede kans om goed te scoren voor de beoogde zin in die ankertekst. U kunt voorbeelden hiervan in actie zien met zoekopdrachten zoals “klik hier,” waar veel resultaten alleen maar scoren door de ankertekst van inkomende links.

TrustRank

Het is geen verrassing dat het internet enorme hoeveelheden spam bevat. Sommigen schatten dat maar liefst 60% van de webpagina’s uit spam bestaat. Om deze irrelevante inhoud te verwijderen, gebruiken zoekmachines systemen om vertrouwen te meten, waarvan vele gebaseerd zijn op de linkgrafiek. Het verdienen van links van zeer vertrouwde domeinen kan resulteren in een aanzienlijke boost voor deze scoringsmetriek. Universiteiten, overheidswebsites en non-profitorganisaties zijn voorbeelden van domeinen met een hoge mate van vertrouwen.

Link buurt

Spamlinks werken vaak twee kanten op. Een website die linkt naar spam is waarschijnlijk zelf ook spam, en heeft op zijn beurt vaak weer veel spam-sites die naar hem linken. Door te kijken naar deze links in het geheel, kunnen zoekmachines de “link buurt” begrijpen waarin uw website bestaat. Het is dus verstandig om de sites waarnaar u linkt zorgvuldig te kiezen en even selectief te zijn met de sites waar u links van probeert te verdienen.

Versheid

Link signalen hebben de neiging om na verloop van tijd te vervallen. Sites die ooit populair waren, worden vaak afgezaagd, en uiteindelijk verdienen ze geen nieuwe links meer. Het is dus belangrijk om na verloop van tijd links te blijven verdienen. Zoekmachines gebruiken de versheidssignalen van links om de huidige populariteit en relevantie te beoordelen, ook wel “FreshRank” genoemd.

Sociaal delen

De laatste jaren is er een explosie geweest in de hoeveelheid content die gedeeld wordt via sociale diensten zoals Facebook, Twitter, en Google+. Hoewel zoekmachines sociaal gedeelde links anders behandelen dan andere soorten links, merken ze ze toch op. Er is veel discussie onder zoekprofessionals over hoe zoekmachines precies sociale linksignalen in hun algoritmen opnemen, maar het toenemende belang van sociale kanalen valt niet te ontkennen.

De grondbeginselen van linkbuilding

“Natuurlijke” redactionele links

Links die op natuurlijke wijze worden gegeven door sites en pagina’s die naar uw inhoud of bedrijf willen linken. Deze links vereisen geen specifieke actie van de SEO, anders dan het creëren van waardig materiaal (geweldige inhoud) en het vermogen om er bekendheid aan te geven.

Handmatig “Outreach” Link Building

De SEO creëert deze links door bloggers te e-mailen voor links, door sites voor te leggen aan directories, of door te betalen voor allerlei soorten vermeldingen. De SEO creëert vaak een waarde propositie door uit te leggen aan de link doelwit waarom het creëren van de link is in hun belang. Voorbeelden zijn het invullen van formulieren voor inzendingen voor een website award programma of het overtuigen van een professor dat jouw bron het waard is om in de openbare syllabus te worden opgenomen.

Zelf gemaakt, niet redactioneel

Honderdduizenden websites bieden elke bezoeker de mogelijkheid om links te creëren via handtekeningen in gastenboeken, forumhandtekeningen, blogcommentaren of gebruikersprofielen.

Deze links bieden de laagste waarde, maar kunnen, in het totaal, nog steeds een impact hebben voor sommige sites. In het algemeen blijven zoekmachines de meeste van dit soort links devalueren, en het is bekend dat ze sites bestraffen die deze links agressief nastreven. Vandaag de dag worden dit soort links vaak beschouwd als spammy en moeten ze met voorzichtigheid worden nagestreefd.

Het is aan u, als SEO, om te kiezen welke van deze het hoogste rendement zullen hebben op de geïnvesteerde inspanning. Als algemene regel geldt dat het verstandig is om een zo uitgebreid en gevarieerd mogelijk linkprofiel op te bouwen, omdat dit de beste zoekmachineresultaten oplevert. Elke link building patroon dat lijkt niet-standaard, onnatuurlijk, of manipulatieve zal uiteindelijk een doelwit voor de oprukkende zoekalgoritmen te kort te doen.

Zoals bij elke marketingactiviteit is de eerste stap in elke linkbuildingcampagne het opstellen van doelstellingen en strategieën. Helaas is linkbuilding een van de meest moeilijke activiteiten om te meten. Hoewel de engines intern elke link wegen met precieze, wiskundige metriek, is het onmogelijk voor mensen van buitenaf om toegang te krijgen tot deze informatie.

SEO’s vertrouwen op een aantal signalen om te helpen een beoordelingsschaal van linkwaarde op te bouwen. Samen met de gegevens van de hierboven genoemde link signalen, omvatten deze metrieken het volgende:

Een van de beste manieren om te bepalen hoe hoog een zoekmachine een bepaalde pagina waardeert is door te zoeken op een aantal van de zoekwoorden en zinnen waarop die pagina zich richt (met name die in de title-tag en de kop). Bijvoorbeeld, als je probeert te scoren voor de zin “hondenkennel,” het verdienen van links van pagina’s die al voor deze zin zou aanzienlijk helpen.

MozRank

MozRank (mR) geeft aan hoe populair een bepaalde webpagina op het web is. Pagina’s met een hoge MozRank score hebben de neiging om beter te ranken. Hoe meer links naar een bepaalde pagina, hoe populairder deze wordt. Links van belangrijke pagina’s (zoals www.cnn.com of www.irs.gov) verhogen de populariteit van een pagina, en dus ook de MozRank, meer dan niet-populaire websites.

De MozRank van een pagina kan verbeterd worden door veel links te krijgen van semi-populaire pagina’s, of een paar links van zeer populaire pagina’s.

Domein Autoriteit

Moz Domain Authority (of DA) is een query-onafhankelijke maatstaf die aangeeft hoe waarschijnlijk het is dat een domein voor een bepaalde query in de rankings komt. DA wordt berekend door de domeingrafiek van het internet te analyseren en een bepaald domein te vergelijken met tienduizenden query’s in Google.

Door het onderzoeken van de backlinks (inkomende links) van een website die al goed scoort voor uw doel trefwoord zin, krijg je waardevolle informatie over de links die hen helpen deze ranking te bereiken. Met behulp van tools zoals Open Site Explorer, kunnen SEO’s deze links ontdekken en zich op deze domeinen richten in hun eigen linkbuilding campagnes.

Aantal links op een pagina

Volgens de oorspronkelijke PageRank-formule wordt de waarde die een link doorgeeft, afgezwakt door de aanwezigheid van andere links op een pagina. Dus, als alle andere dingen gelijk zijn, is het beter om gelinkt te worden door een pagina met weinig links dan door een pagina met veel links. De mate waarin dit relevant is, is onbekend (in onze tests lijkt het belangrijk te zijn, maar niet overweldigend), maar het is zeker iets om bewust van te zijn als u uw link acquisitie campagne uitvoert.

Potentieel verwijzingsverkeer

Link building moet nooit alleen om zoekmachines draaien. Links met een hoog aantal directe doorkliks leveren niet alleen een betere zoekmachinewaarde op voor de rankings, maar sturen ook gerichte, waardevolle bezoekers naar uw site (het basisdoel van alle internetmarketing). Dit is iets wat u kunt schatten op basis van het aantal bezoeken of pageviews volgens site analytics. Als u hier geen toegang toe hebt, kunnen diensten als Google Trends u een ruw idee geven van ten minste domeinbrede traffic, hoewel bekend is dat deze schattingen soms erg onnauwkeurig zijn.

Het vergt tijd, oefening en ervaring om vertrouwd te raken met deze variabelen als ze betrekking hebben op zoekmachine verkeer. Echter, met behulp van uw website analytics, moet u in staat zijn om te bepalen of uw campagne succesvol is.

Succes komt wanneer je een toename ziet in zoekverkeer, hogere rankings, vaker crawlen door zoekmachines en een toename in verwijzend linkverkeer. Als deze statistieken niet stijgen na een succesvolle link building campagne, is het mogelijk dat u ofwel op zoek moet gaan naar kwalitatief betere link targets, of uw on-page optimalisatie moet verbeteren.

Vijf voorbeelden van Link Building strategieën

Als u partners heeft waar u regelmatig mee samenwerkt, of trouwe klanten die van uw merk houden, kunt u hierop inspelen door partnership badges uit te sturen – grafische icoontjes die teruglinken naar uw site (zoals Google vaak doet met hun AdWords certificatie programma). Net zoals u klanten krijgt die uw t-shirts dragen of uw bumperstickers dragen, zijn links de beste manier om hetzelfde te bereiken op het web. Bekijk deze post over e-commerce links voor meer informatie.

Bouw een bedrijfsblog; maak er een waardevolle, informatieve en onderhoudende bron van

Deze content- en linkbuildingstrategie is zo populair en waardevol dat het een van de weinige is die persoonlijk wordt aanbevolen door de ingenieurs bij Google (zie voor meer hierover de artikelen op USA Today en Stone Temple). Blogs hebben de unieke mogelijkheid om op een consistente basis vers materiaal bij te dragen, deel te nemen aan gesprekken op het web, en vermeldingen en links te verdienen van andere blogs, inclusief blogrollen en blogdirectory’s.

Creëer inhoud die inspireert tot viraal delen en natuurlijk linken

In de SEO wereld noemen we dit vaak “linkbait.” Goede voorbeelden zijn bijvoorbeeld David Mihm’s Local Search Ranking Factors, Compare the Meerkat, of het grappige How Not To Clean a Window. Elk maakt gebruik van aspecten van bruikbaarheid, informatieverspreiding, of humor om een viraal effect te creëren. Gebruikers die het een keer zien, willen het delen met vrienden, en bloggers/techneuten webmasters die het zien, doen dat vaak via links. Dergelijke hoge kwaliteit, redactioneel verdiende stemmen zijn van onschatbare waarde voor het opbouwen van vertrouwen, autoriteit, en rankings potentieel.

Nieuwswaardig zijn

De aandacht trekken van de pers, bloggers en nieuwsmedia is een effectieve, aloude manier om links te verdienen. Soms is dit zo eenvoudig als iets gratis weggeven, een geweldig nieuw product uitbrengen, of iets controversieels beweren.

Show Me the Money

Google en Bing proberen de invloed van betaalde links in hun organische zoekresultaten te beperken. Hoewel het voor hen onmogelijk is om alle betaalde links te detecteren en te discrediteren, steken de zoekmachines veel tijd en middelen in het vinden van manieren om deze te detecteren. Websites die betrapt worden op het kopen van links of het deelnemen aan link schema’s riskeren zware straffen die hun rankings naar de vergetelheid zullen doen dalen. Ondanks deze inspanningen werkt het kopen van links soms; veel zoekprofessionals zouden willen dat de zoekmachines nog meer zouden doen om dit te ontmoedigen.

Wij bij Moz raden u aan uw tijd te besteden aan lange termijn link building strategieën die zich richten op het natuurlijk opbouwen van links.

SEO’s hebben de neiging om een heleboel tools te gebruiken. Sommige van de meest bruikbare worden geleverd door de zoekmachines zelf. Zoekmachines willen dat webmasters sites en inhoud op een toegankelijke manier maken, dus bieden ze een verscheidenheid aan tools, analytics en begeleiding. Deze gratis hulpmiddelen bieden datapunten en unieke mogelijkheden om informatie uit te wisselen met de zoekmachines.

Hieronder lichten wij de gemeenschappelijke elementen toe die elk van de grote zoekmachines ondersteunt en geven wij aan waarom zij nuttig zijn.

Gemeenschappelijke Zoekmachine Protocollen

Denk aan een sitemap als een lijst van bestanden die hints geven aan de zoekmachines over hoe ze uw website kunnen crawlen. Sitemaps helpen zoekmachines inhoud op uw site te vinden en te classificeren die ze zelf misschien niet gevonden hebben. Sitemaps zijn er ook in verschillende formaten en kunnen veel verschillende soorten content markeren, waaronder video, afbeeldingen, nieuws en mobiel.

U kunt de volledige details van de protocollen lezen op Sitemaps.org. Bovendien kunt u uw eigen sitemaps bouwen op XML-Sitemaps.com. Sitemaps zijn er in drie varianten:

XML

Extensible Markup Language (aanbevolen formaat)

Dit is het meest geaccepteerde formaat voor sitemaps. Het is zeer gemakkelijk voor zoekmachines om te parsen en kan worden geproduceerd door een overvloed aan sitemap generatoren. Bovendien zorgt het voor de meest granulaire controle van pagina parameters.

Relatief grote bestanden. Aangezien XML een open tag en een close tag rond elk element vereist, kan de bestandsgrootte erg groot worden.

RSS

Echt Eenvoudige Syndicatie of Rijke Site Samenvatting

Gemakkelijk te onderhouden. RSS-sitemaps kunnen gemakkelijk worden gecodeerd om automatisch te worden bijgewerkt wanneer nieuwe inhoud wordt toegevoegd.

Moeilijker te beheren. Hoewel RSS een dialect van XML is, is het door zijn actualiseringseigenschappen eigenlijk veel moeilijker te beheren.

Txt

Tekstbestand

Uiterst gemakkelijk. Het tekst sitemap formaat is één URL per regel tot 50.000 regels.

Biedt niet de mogelijkheid om meta-gegevens aan pagina’s toe te voegen.

2. Robots.txt

Het robots.txt-bestand, een product van het Robots Exclusion Protocol, is een bestand dat wordt opgeslagen in de hoofdmap van een website (bijv. www. google.com/robots.txt). Het robots.txt-bestand geeft instructies aan geautomatiseerde webcrawlers die uw site bezoeken, inclusief zoekcrawlers.

Met robots.txt kunnen webmasters zoekmachines laten weten welke delen van een site ze niet door bots willen laten crawlen. Ook kunnen ze de locatie van sitemap-bestanden en crawl-delay-parameters aangeven. Meer informatie hierover kunt u vinden op de robots.txt Knowledge Center-pagina.

De volgende commando’s zijn beschikbaar:

Disallow

Voorkomt dat robots die aan de regels voldoen specifieke pagina’s of mappen kunnen openen.

Sitemap

Geeft de locatie aan van de sitemap of sitemaps van een website.

Kruip Vertraging

Geeft de snelheid (in milliseconden) aan waarmee een robot een server kan crawlen.

Waarschuwing: Niet alle webrobots volgen robots.txt. Mensen met slechte bedoelingen (bijv. scrapers van e-mailadressen) bouwen bots die dit protocol niet volgen; en in extreme gevallen kunnen ze dit gebruiken om de locatie van privégegevens te achterhalen. Daarom wordt aanbevolen de locatie van administratie- en andere privé-gedeelten van openbaar toegankelijke websites niet op te nemen in het robots.txt-bestand. In plaats daarvan kunnen deze pagina’s gebruikmaken van de meta robots-tag (die hierna wordt besproken) om te voorkomen dat de belangrijkste zoekmachines hun risicovolle inhoud indexeren.

3. Meta Robots

De meta robots tag creëert instructies op paginaniveau voor zoekmachine bots.

De meta robots tag moet worden opgenomen in de head sectie van het HTML document.

In het bovenstaande voorbeeld vertelt “NOINDEX, NOFOLLOW” robots om de gegeven pagina niet op te nemen in hun indexen, en ook om geen van de links op de pagina te volgen.

5. Rel=”canonical”

Vaak verschijnen twee of meer kopieën van exact dezelfde inhoud op uw website onder verschillende URL’s. De volgende URL’s kunnen bijvoorbeeld allemaal naar één homepage verwijzen:

http://www.example.com/

http://www.example.com/default.asp

http://example.com/

http://example.com/default.asp

http://Example.com/Default.asp

Voor zoekmachines verschijnen deze als vijf afzonderlijke pagina’s. Omdat

de inhoud op elke pagina identiek is, kan dit ertoe leiden dat de zoekmachines de inhoud en de potentiële rangschikking devalueren.

De canonical tag lost dit probleem op door de zoekrobots te vertellen welke pagina de enige, gezaghebbende versie is die moet meetellen in de webresultaten.

4. Rel=”Nofollow”

Weet je nog hoe links werken als stemmen? Het rel=nofollow attribuut staat je toe te linken naar een bron, terwijl je je “stem” voor zoekmachine doeleinden verwijdert. Letterlijk, “nofollow” vertelt zoekmachines om de link niet te volgen, hoewel sommige motoren ze nog steeds volgen om nieuwe pagina’s te ontdekken. Deze links geven zeker minder waarde (en in de meeste gevallen geen “juice”) door dan hun gevolgde tegenhangers, maar zijn nuttig in verschillende situaties waarin je linkt naar een onvertrouwde bron.

In het bovenstaande voorbeeld zou de waarde van de link niet worden doorgegeven aan example.com omdat het rel=nofollow attribuut is toegevoegd.

In het bovenstaande voorbeeld vertelt rel=canonical aan robots dat deze pagina een kopie is van http://www.example.com, en dat ze de laatste URL als de canonieke en gezaghebbende moeten beschouwen

één.

Zoekmachine Gereedschap

Google Webmasterhulpprogramma’s

Belangrijkste kenmerken

Geografisch doel – Als een bepaalde site zich richt op gebruikers in een bepaalde locatie, kunnen webmasters Google informatie verstrekken die helpt bepalen hoe die site wordt weergegeven in de landspecifieke zoekresultaten, en ook de zoekresultaten van Google voor geografische zoekopdrachten verbeteren.

Voorkeursdomein – Het voorkeursdomein is het domein dat een webmaster wil gebruiken om de pagina’s van zijn site te indexeren. Als een webmaster een voorkeursdomein opgeeft als http://www.example.com en Google vindt een link naar die site die is opgemaakt als http://example.com, zal Google die link behandelen alsof die verwijst naar http://www.example.com.

URL-parameters – U kunt Google informatie geven over elke parameter op uw site, zoals “sort=price” en “sessionid=2“. Dit helpt Google uw site efficiënter te crawlen.

Crawlsnelheid – De crawlsnelheid beïnvloedt de snelheid (maar niet de frequentie) van de verzoeken van Googlebot tijdens het crawlproces.

Malware – Google informeert u als er malware op uw site is aangetroffen. Malware zorgt voor een slechte gebruikerservaring, en schaadt uw ranking.

Crawlfouten – Als Googlebot tijdens het crawlen van uw site aanzienlijke fouten tegenkomt, zoals 404’s, zal hij deze rapporteren.

HTML-suggesties – Google zoekt naar zoekmachine-onvriendelijke HTML-elementen, zoals problemen met metabeschrijvingen en titeltags.

Uw website op het web

Statistieken van zoekmachinetools bieden SEO’s een uniek inzicht, zoals trefwoordimpressies, doorklikpercentages, toppagina’s in de zoekresultaten en linkstatistieken.

Site Configuratie

In dit belangrijke gedeelte kunt u sitemaps indienen, robots.txt-bestanden testen, sitelinks aanpassen en adreswijzigingsverzoeken indienen wanneer u uw website van het ene naar het andere domein verhuist. Dit gebied bevat ook de secties Instellingen en URL-parameters die in de vorige column zijn besproken.

+1 Metriek

Wanneer gebruikers uw inhoud op Google+ delen met de +1-knop, wordt deze activiteit vaak geannoteerd in de zoekresultaten. Bekijk deze verhelderende video over Google+ om te begrijpen waarom dit belangrijk is. In dit gedeelte rapporteert Google Webmaster Tools het effect van +1-deling op de prestaties van uw site in de zoekresultaten.

Labs

Het onderdeel Labs van Webmasterhulpprogramma’s bevat rapporten die volgens Google nog in de experimentele fase verkeren, maar die niettemin nuttig kunnen zijn voor webmasters. Een van de belangrijkste van deze rapporten is Site Performance, dat aangeeft hoe snel of langzaam uw site laadt voor bezoekers.

Bing Webmastercentrum

Bing Webmastercentrum

Belangrijkste kenmerken

Overzicht websites – Deze interface biedt een enkel overzicht van de prestaties van al uw websites in de door Bing aangedreven zoekresultaten.

Metrieken in een oogopslag omvatten klikken, vertoningen, geïndexeerde pagina’s en aantal gecrawlde pagina’s voor elke site.

Crawl Stats – Hier kunt u rapporten bekijken over het aantal pagina’s van uw site dat Bing heeft gecrawld en eventuele fouten ontdekken. Net als bij Google Webmaster Tools kunt u ook sitemaps indienen om Bing te helpen uw inhoud te ontdekken en te prioriteren.

Index – Dit gedeelte geeft webmasters de mogelijkheid om te bekijken en te controleren hoe Bing hun webpagina’s indexeert. Opnieuw vergelijkbaar met de instellingen in Google Webmaster Tools, kunt u hier onderzoeken hoe uw inhoud is georganiseerd binnen Bing, URL’s indienen, URL’s verwijderen uit zoekresultaten, inkomende links onderzoeken en parameterinstellingen aanpassen.

Traffic – Het traffic-overzicht in Bing Webmaster Center rapporteert impressies en doorklikgegevens door gegevens van zowel Bing als Yahoo! zoekresultaten te combineren. De rapporten tonen de gemiddelde positie en de geschatte kosten als u advertenties zou kopen die gericht zijn op

elk sleutelwoord.

Moz Open Site Explorer

Moz’s Open Site Explorer biedt een waardevol inzicht in uw website en links.

Kenmerken

Identificeer krachtige links – Open Site Explorer sorteert al uw inkomende links op basis van hun metriek, zodat u kunt bepalen welke links het belangrijkst zijn.

Vind de Sterkste Linking Domeinen – Deze tool toont u de sterkste domeinen die linken naar uw domein.

Anchor Text Distribution analyseren – Open Site Explorer toont u de verdeling van de tekst die mensen gebruiken wanneer ze naar u linken.

Head to Head Comparison View – Met deze functie kunt u twee websites vergelijken om te zien waarom de ene hoger scoort dan de andere.

Social Share Metrics – Meet Facebook Shares, Likes, Tweets, en +1’s voor elke URL.

Zoekmachines bieden sinds kort betere hulpmiddelen om webmasters te helpen hun zoekresultaten te verbeteren. Dit is een grote stap voorwaarts in SEO en de relatie webmaster/zoekmachine.

Dit gezegd zijnde, kunnen de motoren webmasters slechts tot op zekere hoogte helpen. Het is vandaag waar, en zal waarschijnlijk ook in de toekomst waar zijn, dat de uiteindelijke verantwoordelijkheid voor SEO bij marketeers en webmasters ligt.

Daarom is het zo belangrijk om zelf SEO te leren.

Zoekmachine indiening

Jammer genoeg was dit proces niet erg schaalbaar, de aanmeldingen waren vaak spam, zodat de praktijk uiteindelijk plaats maakte voor zuiver crawl-gebaseerde zoekmachines. Sinds 2001 is het indienen van URL’s door zoekmachines niet alleen niet meer nodig, het is ook zo goed als nutteloos geworden. De zoekmachines geven allemaal publiekelijk aan dat ze zelden gebruik maken van ingediende URL’s, en dat de beste praktijk is om links te verdienen van andere sites. Dit zal uw inhoud op natuurlijke wijze blootstellen aan de zoekmachines.

Je kunt soms nog aanmeldpagina’s vinden (hier is er een voor Bing), maar dit zijn overblijfselen uit het verleden, en zijn onnodig in de praktijk van de moderne SEO. Als je een aanbod hoort van een SEO die zoekmachine aanmelddiensten aanbiedt, ren dan niet weg, maar ga naar een echte SEO. Zelfs als de zoekmachines de aanmeldservice zouden gebruiken om uw site te crawlen, zou het onwaarschijnlijk zijn dat u genoeg link juice zou verdienen om in hun indexen te worden opgenomen of concurrerend te scoren voor zoekopdrachten.

Meta Tags

Andere tags, met name de title tag en de meta description tag (eerder in deze gids behandeld), zijn van cruciaal belang voor kwaliteits-SO. Daarnaast is de meta robots tag een belangrijk hulpmiddel voor het controleren van crawler toegang. Dus, hoewel het begrijpen van de functies van meta tags belangrijk is, zijn ze niet langer het centrale aandachtspunt van SEO.

Keyword Stuffing

“Bob’s goedkope loodgieter uit Seattle is de beste goedkope loodgieter uit Seattle voor al uw loodgietersbehoeften. Neem contact op met een goedkope loodgieter uit Seattle voordat het te laat is.”

Het is dan ook geen verrassing dat een hardnekkige mythe in SEO draait om het concept dat keyword density – het aantal woorden op een pagina gedeeld door het aantal keren dat een bepaald keyword voorkomt – door de zoekmachines wordt gebruikt voor relevantie en ranking berekeningen.

Ondanks het feit dat deze mythe keer op keer wordt weerlegd, heeft hij nog steeds een been. Veel SEO tools voeden zich nog steeds met het concept dat keyword density een belangrijke metriek is. Dat is het niet. Negeer het en gebruik trefwoorden op een intelligente manier en met bruikbaarheid in het achterhoofd. De waarde van 10 extra trefwoorden op de pagina is veel minder dan het verdienen van een goede redactionele link van een bron die niet denkt dat je een zoekspammer bent.

Betaald zoeken helpt organische resultaten te versterken

In onze aanzienlijke ervaring en onderzoek, hebben we nog nooit bewijs gezien dat betaalde reclame een positieve invloed heeft op de organische zoekresultaten. Google, Bing, en Yahoo! hebben allemaal muren opgetrokken in hun organisaties specifiek om dit soort cross-over te voorkomen.

Bij Google hebben adverteerders die tientallen miljoenen dollars per maand uitgeven opgemerkt dat zelfs zij geen speciale toegang of aandacht kunnen krijgen van de search quality of web spam teams. Zolang de zoekmachines deze scheiding handhaven, moet de notie dat betaald zoeken de organische resultaten versterkt een mythe blijven.

ZOEKMACHINESPAM

Zolang er gezocht wordt, zal er spam zijn. De praktijk van het ‘spammen’ van zoekmachines – het creëren van pagina’s en regelingen om de rangschikking kunstmatig op te krikken of de rangschikkingsalgoritmen te misbruiken – is sinds het midden van de jaren negentig in opmars.

De inzet is hoog. Een SEO merkte op dat een enkele dag bovenaan Google’s zoekresultaten voor de query “viagra kopen” meer dan $20.000 aan affiliate inkomsten kan opleveren. Het is dus niet verwonderlijk dat het manipuleren van de zoekmachines zo’n populaire activiteit is. Het is echter steeds moeilijker geworden en, naar onze mening, steeds minder de moeite waard, en wel om twee redenen:

SPAMANALYSE OP PAGINANIVEAU

Keyword Stuffing

Het scannen van een pagina op gevulde trefwoorden is geen grote uitdaging, en de algoritmes van de zoekmachines zijn allemaal op hun taak berekend. U kunt meer lezen over deze praktijk, en Google’s standpunten over het onderwerp, in een blog post van het hoofd van hun web spam team: SEO-tip: Vermijd trefwoord

Stuffing.

Manipulatief linken

Wederkerige link uitwisselingsprogramma’s: Sites maken linkpagina’s die heen en weer naar elkaar verwijzen in een poging om de linkpopulariteit op te blazen. De zoekmachines zijn erg goed in het herkennen en devalueren van deze programma’s omdat ze in een bepaald patroon passen.

Linkprogramma’s: Hieronder vallen “link farms” en “link networks” waarbij valse of laagwaardige websites puur als linkbron worden gebouwd of onderhouden om de populariteit kunstmatig op te krikken. De zoekmachines bestrijden deze door verbanden tussen site-registraties, linkoverlappingen en andere methoden die gericht zijn op veelgebruikte tactieken van linkschema’s, te detecteren.

Betaalde links: Wie hogere rankings wil verdienen, koopt links van sites en pagina’s die bereid zijn een link te plaatsen in ruil voor geld. Deze evolueren soms tot grotere netwerken van linkkopers en -verkopers, en hoewel de engines hard werken om ze te stoppen (Google in het bijzonder heeft dramatische acties ondernomen), blijven ze waarde bieden aan vele kopers en verkopers (meer daarover in dit perspectief).

Lage kwaliteit directory links: Deze zijn een frequente bron van manipulatie voor velen op het gebied van SEO. Een groot aantal pay-for-placement webdirectories bestaan om deze markt te bedienen en doen zich voor als legitiem, met wisselend succes. Google neemt vaak maatregelen tegen deze sites door de PageRank score uit de toolbar te verwijderen (of drastisch te verlagen), maar zal dit niet in alle gevallen doen.

Er zijn nog veel meer manipulatieve link building tactieken die de zoekmachines hebben geïdentificeerd. In de meeste gevallen hebben ze algoritmische methoden gevonden om hun impact te verminderen. Als er nieuwe spamsystemen opduiken, zullen de ingenieurs ze blijven bestrijden met gerichte algoritmen, menselijke beoordelingen en het verzamelen van spamrapporten van webmasters en SEO’s.

Cloaking

Wanneer deze richtlijn wordt overtreden, noemen de engines dit “cloaking” en ondernemen ze actie om te voorkomen dat deze pagina’s in hun resultaten voorkomen. Cloaking kan op verschillende manieren en om verschillende redenen gebeuren, zowel in positieve als in negatieve zin. In sommige gevallen kunnen de engines praktijken die technisch gezien cloaking zijn, doorlaten omdat ze bijdragen aan een positieve gebruikerservaring. Voor meer over het onderwerp cloaking en de risiconiveaus die aan verschillende tactieken verbonden zijn, zie ons artikel over White Hat Cloaking.

Pagina’s van lage waarde

Gefilterde soorten pagina’s zijn dunne affiliate content, duplicate content, en dynamisch gegenereerde content pagina’s die heel weinig unieke tekst of waarde bieden. De zoekmachines zijn tegen het opnemen van deze pagina’s en gebruiken een verscheidenheid aan algoritmen voor inhoud- en linkanalyse om pagina’s met een lage waarde uit te filteren.

Met de Panda-update van Google in 2011 werden agressieve stappen ondernomen om inhoud van lage kwaliteit op het web te verminderen, en Google blijft dit proces herhalen.

SPAMANALYSE OP DOMEINNIVEAU

Praktijken koppelen

Betrouwbaarheid

Vertrouwen kan ook worden opgebouwd via inkomende links. Een beetje dubbele inhoud en een paar verdachte links zullen veel eerder over het hoofd worden gezien als uw site honderden links heeft verdiend van redactionele bronnen van hoge kwaliteit, zoals CNN.com of Cornell.edu.

Inhoud Waarde

Zoekmachines evalueren voortdurend de doeltreffendheid van hun eigen resultaten. Zij meten wanneer gebruikers op een resultaat klikken, snel de terugknop van hun browser indrukken en een ander resultaat proberen. Dit geeft aan dat het resultaat dat ze serveerden niet voldeed aan de verwachtingen van de gebruiker.

Het is niet genoeg om alleen maar voor een zoekopdracht te scoren. Als je je positie eenmaal hebt verdiend, moet je het keer op keer bewijzen.

Dus hoe weet je of je slecht bent geweest?

Als u de onderstaande lijst hebt uitgesloten, volgt u het onderstaande stroomschema voor meer specifiek advies.

Fouten

Fouten op uw site die het crawlen kunnen hebben belemmerd of verhinderd. De Webmasterhulpprogramma’s van Google zijn een goede, gratis plek om te beginnen.

Wijzigingen

Wijzigingen aan uw site of pagina’s die de manier waarop zoekmachines uw inhoud zien, kunnen hebben veranderd. (on-page veranderingen, interne link structuur veranderingen, inhoud verhuizingen, etc.).

Gelijkenis

Kijk of er sites zijn met vergelijkbare backlink-profielen, en kijk of die ook hun ranking hebben verloren. Wanneer de engines hun ranking algoritmes updaten, kan de waardering en het belang van de links verschuiven, wat rangschikkingen kan veroorzaken.

Dubbele inhoud

Moderne websites hebben te kampen met problemen met dubbele inhoud, vooral wanneer ze op grote schaal worden gemaakt. Bekijk dit bericht over dubbele inhoud om veelvoorkomende problemen te identificeren.

Hoewel het proces van deze grafiek niet voor elke situatie zal werken, is de logica betrouwbaar gebleken in het helpen identificeren van spamstraffen en het ten onrechte markeren voor spam door de engines, en het scheiden van deze van basis ranking dalingen. Deze pagina van Google (en de ingesloten YouTube video) kan ook waardevol zijn voor dit onderwerp.

Straffen laten opheffen

Als je dat nog niet gedaan hebt, registreer je site dan bij de Webmaster Tools service van de zoekmachines (Google’s en Bing’s). Deze registratie creëert een extra laag van vertrouwen en verbinding tussen uw site en de zoekmachineteams.

Verwijder of repareer alles wat je kunt. Als u slechte links heeft, probeer ze dan te verwijderen. Als u uw eigen site heeft gemanipuleerd (interne links te veel geoptimaliseerd, zoekwoorden te veel gebruikt, etc.), zorg dan dat u dit verwijdert voordat u uw aanvraag indient.

Zorg ervoor dat u de gegevens in uw Webmasterhulpprogramma’s grondig doorneemt, van kapotte pagina’s tot server- of crawlfouten tot waarschuwingen of spamwaarschuwingen. Vaak heeft wat in eerste instantie wordt gezien als een onterechte spamboete in feite te maken met toegankelijkheidsproblemen.

Stuur uw verzoek tot heroverweging/opname via de Webmasterhulpprogramma’s van de engine in plaats van via het openbare formulier; ook dit creëert een grotere vertrouwenslaag en een grotere kans om terug te horen.

Volledige openheid is essentieel om in aanmerking te komen. Als je aan spamming hebt gedaan, geef dan alles toe wat je hebt gedaan – links die je hebt verworven, hoe je eraan bent gekomen, wie ze aan je heeft verkocht, enz. De zoekmachines, vooral Google, willen de details zodat ze hun algoritmes kunnen verbeteren. Hou je je in, dan zullen ze je waarschijnlijk zien als oneerlijk, corrupt, of gewoon onverbeterlijk (en zullen ze waarschijnlijk niet reageren).

Bereid u voor op een wachttijd. Antwoorden kan weken, zelfs maanden duren, en heropname zelf, als het gebeurt, is een langdurig proces. Honderden, misschien wel duizenden sites worden elke week bestraft; u kunt zich de achterstand voorstellen.

Als u een groot, krachtig merk op het web runt, kan heropname sneller gaan door rechtstreeks naar een individuele bron op een conferentie of evenement te gaan. Engineers van alle engines nemen regelmatig deel aan conferenties van de zoekindustrie (SMX, SES, Pubcon, etc.). De waarde van het snel opnieuw worden opgenomen kan de toegangsprijs waard zijn.

Wees je ervan bewust dat het opheffen van een straf bij de zoekmachines niet hun verplichting of verantwoordelijkheid is. Wettelijk hebben zij het recht om elke site of pagina op te nemen of af te wijzen. Opname is een voorrecht, geen recht; wees voorzichtig en pas geen SEO technieken toe waar je sceptisch over bent, of je kunt in een lastig parket terecht komen.

Ze zeggen dat als je het kunt meten, dan kun je het verbeteren. In zoekmachine optimalisatie, is het meten van cruciaal belang voor succes. Professionele SEO’s houden gegevens bij over rankings, verwijzingen, links en meer om te helpen hun SEO-strategie te analyseren en routekaarten voor succes te maken.

AANBEVOLEN MEETGEGEVENS OM BIJ TE HOUDEN

1.

Aandeel van zoekmachines in verwijzende bezoeken

Directe navigatie: Ingetypte traffic, bladwijzers, e-mail links zonder tracking codes, enz.

Referral Traffic: Van links op het web of in traceerbare e-mail-, promotie- en merkcampagnelinks

Zoek Traffic: Zoekopdrachten die traffic van om het even welke belangrijke of minder belangrijke webzoekmachine hebben verzonden

Als u zowel het percentage als de exacte cijfers kent, kunt u de zwakke punten opsporen en een basis voor vergelijkingen in de loop van de tijd leggen. Als u bijvoorbeeld ziet dat de traffic sterk is gestegen, maar afkomstig is van verwijzende links met een lage relevantie, dan is het nog geen tijd om enthousiast te worden. Aan de andere kant, als de traffic van zoekmachines dramatisch daalt, zit u misschien in de problemen. U moet deze gegevens gebruiken om uw marketinginspanningen te volgen en uw traffic-acquisitie te plannen.

2. Verwijzingen van zoekmachines

Vergelijk prestaties versus marktaandeel

Vergelijk de volumebijdrage van elke motor met zijn geschatte marktaandeel.

Zicht krijgen op potentiële dalingen

Als uw zoekverkeer op enig moment aanzienlijk daalt, is het weten van de relatieve en exacte bijdragen van elke motor

zal essentieel zijn voor de diagnose van het probleem. Als alle zoekmachines evenveel dalen, is het probleem vrijwel zeker een kwestie van toegankelijkheid. Als Google daalt terwijl de anderen op hun oude niveau blijven, is het waarschijnlijker dat het een penalty is of een devaluatie van uw SEO inspanningen door die ene engine.

Strategische waarde ontdekken

Het is zeer waarschijnlijk dat sommige inspanningen die u onderneemt in SEO grotere positieve resultaten zullen hebben op sommige motoren dan op andere. Bijvoorbeeld, we hebben gemerkt dat on-page optimalisatie tactieken zoals een betere trefwoord opname en targeting grotere voordelen opleveren bij Bing en Yahoo! dan bij Google. Aan de andere kant heeft het verkrijgen van specifieke ankertekstlinks van een groot aantal domeinen een positievere invloed op Google dan de andere. Als u de tactieken kunt identificeren die succes hebben bij één motor, weet u beter hoe u uw inspanningen moet richten.

3.

Bezoeken doorverwezen door specifieke zoekmachine termen en zinnen

U kunt ook waarde hechten aan het bijhouden van zoekreferenties voor termen buiten de top termen en zinnen – die welke het meest waardevol zijn voor uw bedrijf. Als de trendlijnen in de verkeerde richting wijzen, weet u dat er inspanningen moeten worden geleverd om de koers bij te stellen. Het wereldwijde zoekverkeer is de afgelopen 15 jaar consequent gestegen, dus een daling van het aantal verwijzingen is verontrustend. Controleer op seizoensgebondenheid (trefwoorden die alleen in bepaalde perioden van de week/maand/jaar in trek zijn) en rangschikking (bent u gedaald, of is het zoekvolume afgenomen?).

4. Conversiepercentage per zoekterm/zin

1. Als we onze ranglijst controleren, zien we dat we slechts op nummer 4 staan voor “SEO Tools”. Werken om deze positie te verbeteren zal ongetwijfeld leiden tot meer conversie.

2. Omdat onze analytics ons ook vertellen op welke pagina deze bezoekers terecht zijn gekomen (meestal http://moz.com/tools), kunnen we onze inspanningen richten op het verbeteren van de bezoekerservaring op die pagina.

De echte waarde van deze simplistische tracking komt van het laaghangende fruit: zoekwoorden vinden die voortdurend bezoekers sturen die converteren naar betalende klanten, en meer focus op rankings en op het verbeteren van de landingspagina’s die bezoekers bereiken. Hoewel het bijhouden van conversiepercentages op basis van trefwoordzinnen zeker belangrijk is, is het nooit het hele verhaal. Als u dieper graaft, kunt u vaak veel interessantere en bruikbaardere gegevens ontdekken over hoe conversie op uw site begint en eindigt.

5. Aantal pagina’s dat door zoekmachines ten minste één keer wordt bezocht

Hoewel andere analytische datapunten van groot belang zijn, moeten de hierboven genoemde universeel worden toegepast om de maximale waarde uit uw SEO-campagnes te halen.

Analytics Software

Moz Analytics

Omniture

Fireclick

Mint

Zagerij Analytics

Clicktale

Coremetrics

Unica NetInsight

Extra lectuur:

Hoe een Web Analytics Tool te kiezen: Een radicaal alternatief

van Avinash Kaushik ver terug in 2006 (maar nog steeds een relevante en

Yahoo! Web Analytics

(voorheen Indextools)

Google Analytics

Clicky Web Analytics

Piwik Open Source Analyse

Woopra website traceren

AWStats

Kiezen kan moeilijk zijn. Wij zijn voor Moz Analytics omdat we het van de grond af hebben opgebouwd om de breedste suite van SEO-tools te bieden die beschikbaar is, en u al uw inbound marketinggegevens op één plek te geven. Voor gratis tools, is onze top aanbeveling Google Analytics. Vanwege de brede toepassing zijn er veel handleidingen en gidsen online beschikbaar. Google Analytics heeft ook de

kwaliteitsstuk) voordeel van cross-integratie met andere Google-producten zoals Webmaster Tools, AdWords, en AdSense.

Welke analytics-software u ook kiest, wij raden sterk aan om verschillende versies van pagina’s op uw site te testen en op basis van de resultaten verbeteringen in de conversieratio aan te brengen. Het testen van pagina’s op uw site kan zo eenvoudig zijn als het gebruik van een gratis tool om twee versies van een paginakoptekst te testen of zo complex als het gebruik van een dure multivariate software om tegelijkertijd honderden varianten van een pagina te testen.

Metriek voor het meten van

Het is difficult om te optimaliseren voor specifiek gedrag van zoekmachines, omdat hun algoritmen niet openbaar zijn. Maar een combinatie van tactieken is effectief gebleken, en er komen steeds nieuwe gegevens beschikbaar om de variabelen die de ranking beïnvloeden en de fluctuaties in de rankingsignalen te helpen opsporen. U kunt zelfs de zoekmachines zelf gebruiken om een concurrentievoordeel te behalen door slimme zoekopdrachten te structureren en door gebruik te maken van gegevens die de zoekmachines hebben gepubliceerd. Wat u van deze technieken leert, kunt u in combinatie met goede analysesoftware en SEO-onderwijs gebruiken om een actieplan op te stellen om uw website te optimaliseren.

Google website zoeken

Beperk uw zoekopdracht tot een specifieke site (bv. site:moz.com). Handig om het aantal en de lijst van geïndexeerde pagina’s op een bepaald domein te zien. U kunt de waarde uitbreiden door extra queryparameters toe te voegen. Bijvoorbeeld, site:moz.com/blog inurl:tools, toont alleen de pagina’s in Google’s index die in de blog staan en het woord “tools” in de URL bevatten. Dit aantal zal fluctueren, maar het is een goede ruwe meting (lees meer in deze blogpost).

Google Trends

Op google.com/trends kunt u het zoekvolume en de populariteit van trefwoorden in de loop der tijd onderzoeken. Meld u aan bij uw Google-account om uitgebreidere gegevens te krijgen, waaronder specifieke cijfers in plaats van eenvoudige trendlijnen.

Bing website zoekopdracht

Beperk uw zoekopdracht tot een specifieke site (bijv. site:moz.com). Net als Google, staat Bing toe dat zoekopdrachten het aantal en de lijst van pagina’s in hun index van een bepaalde site laten zien. Bing’s tellingen zijn onderhevig aan aanzienlijke schommelingen, wat de bruikbaarheid van de gegevens kan beperken.

Bing IP zoekopdracht

Blog Zoeken Link Query

Zoek links in een blog ( bijv.link:http://moz.com/blog). De gewone link-zoekoperator van Google is niet altijd nuttig, maar hun blog-zoekopdracht levert over het algemeen resultaten van hoge kwaliteit op, sorteerbaar op datumbereik en relevantie. Lees meer over de link-operator in dit blogbericht.

Beperk uw zoekopdracht tot een specifiek IP-adres (bijv. ip:216.176.191.233). Deze query toont pagina’s die Microsofts engine op het opgegeven IP-adres heeft gevonden. Dit kan nuttig zijn om na te gaan of een pagina wordt gehost bij een gedeelde provider, of om sites te vinden die op hetzelfde IP-adres worden gehost.

Bing Ads Inlichtingen

Bing Ads Intelligence heeft een verscheidenheid aan keyword research en audience intelligence tools, voornamelijk bedoeld voor search en display advertising. Deze gids zal niet diep ingaan op de waarde van elke individuele tool, maar ze zijn het onderzoeken waard en vele kunnen worden toegepast op SEO.

Pagina specifieke metriek

Page Authority – Page Authority voorspelt de kans dat een enkele pagina goed zal scoren, ongeacht de inhoud. Hoe hoger de pagina-autoriteit, hoe groter de kans dat die individuele pagina goed scoort.

MozRank – MozRank, onderdeel van Moz’s Open Site Explorer, verwijst naar Moz’s algemene, logaritmisch geschaalde 10-punts maatstaf van globale link autoriteit (of populariteit). Het doel van MozRank lijkt sterk op dat van de metingen van statisch belang (d.w.z. belang onafhankelijk van een specifieke zoekvraag) die door de zoekmachines gebruikt worden (bv. Google’s PageRank of FAST’s StaticRank). Zoekmachines plaatsen pagina’s met een hogere globale link autoriteit vaak hoger dan pagina’s met een lagere autoriteit. Omdat maatregelen zoals MozRank globaal en statisch zijn, is deze ranking kracht van toepassing op een breed scala van zoekopdrachten, in plaats van pagina’s die specifiek geoptimaliseerd zijn voor een bepaald trefwoord.

MozTrust – MozTrust is een ander onderdeel van Open Site Explorer en wordt via links verspreid. Eerst worden betrouwbare sites geïdentificeerd om de berekening van de metric te voeden; dit zijn onder andere grote internationale universiteits-, media- en overheidswebsites.

Websites die links verdienen van de seed set zijn dan in staat om (mindere) trust-votes uit te brengen via hun links. Dit proces gaat verder over het web en de MozTrust van elke toepasselijke link neemt af naarmate de afstand tot de zaadsites toeneemt.

Aantal links – Het totale aantal pagina’s dat ten minste één link naar een pagina bevat, met een maximum van één in aanmerking komende link per pagina. Als bijvoorbeeld de homepage van de Library of Congress (http://www.loc.gov/index.html) zowel in de paginainhoud als in de voettekst een link bevat naar de homepage van het Witte Huis (http://www.whitehouse.gov), wordt dit geteld als één link.

Aantal koppelende hoofddomeinen – Het totale aantal unieke hoofddomeinen dat een koppeling naar een pagina bevat, met een maximum van één in aanmerking komende koppeling per domein. Als topics.nytimes.com en www.nytimes.com bijvoorbeeld beide naar de homepage van Moz (http://moz.com) linken, zou dit tellen als één koppelend hoofddomein.

Externe MozRank – Terwijl MozRank de link juice (ranking power) van zowel interne als externe links meet, meet externe MozRank enkel de hoeveelheid MozRank die via externe links (links die zich op een apart domein bevinden) vloeit. Omdat externe links een belangrijke rol kunnen spelen als onafhankelijke bekrachtigingen, is externe MozRank een belangrijke metriek voor het voorspellen van rankings in zoekmachines.

Domeinspecifieke metriek

Domein Autoriteit – Domein Autoriteit voorspelt hoe goed een webpagina op een specifiek domein zal ranken. Hoe hoger de domein autoriteit, hoe groter het potentieel voor een individuele pagina op dat domein om goed te ranken.

Domein MozRank – MozRank op domeinniveau (DmR) kwantificeert de populariteit van een bepaald domein in vergelijking met alle andere domeinen op het web. DmR wordt berekend voor zowel subdomeinen als hoofddomeinen.

Deze metriek gebruikt hetzelfde algoritme als MozRank maar past het toe op de linkgrafiek op domeinniveau, een kijk op het web die alleen kijkt naar domeinen als geheel en individuele pagina’s negeert. Het bekijken van het web vanuit dit perspectief biedt extra inzicht over de algemene autoriteit van een domein. Net zoals pagina’s andere pagina’s kunnen onderschrijven, kan een link die domeingrenzen overschrijdt (bijv. van een pagina op searchengineland.com naar een pagina op http://moz.com) worden gezien als een onderschrijving van het ene domein door het andere.

Domein MozTrust – Net zoals MozRank op domeinniveau kan toegepast worden (Domain-level MozRank), kan MozTrust dat ook. MozTrust op domein-niveau is zoals MozTrust maar in plaats van berekend te worden tussen webpagina’s, wordt het berekend tussen volledige domeinen. Nieuwe of slecht gelinkte pagina’s op zeer vertrouwde domeinen kunnen wat natuurlijk vertrouwen erven doordat ze op het vertrouwde domein gehost worden. MozTrust op domeinniveau wordt uitgedrukt op een logaritmische schaal van 10 punten.

Aantal links – Het aantal pagina’s dat ten minste één link naar het domein bevat. Bijvoorbeeld, als http://www.loc.gov/index.html en http://www.loc.gov/about beide links bevatten naar http://www.nasa.gov, zou dit tellen als twee links naar het domein.

Number of Linking Root Domains – Het aantal verschillende domeinen dat ten minste één pagina bevat met een link naar een pagina op de site. Als http://www.loc.gov/index.html en http://www.loc.gov/about bijvoorbeeld beide een link naar http://www.nasa.gov bevatten zou dit tellen als slechts één koppelend hoofddomein naar nasa.gov.

HET TOEPASSEN VAN DIE GEGEVENS

Fluctuatie

De aantallen die in “site:” en “link:” queries worden gerapporteerd zijn zelden precies, dus we waarschuwen voor al te grote schommelingen tenzij ze gepaard gaan met trafficdalingen. Yahoo! meldt bijvoorbeeld op een willekeurige dag tussen 800.000 en 2.000.000 links naar het moz.com-domein. Het is duidelijk dat we niet elke dag honderdduizenden links winnen of verliezen, dus deze variabiliteit biedt weinig houvast over onze werkelijke groei of krimp van links.

Als dalingen in links of geïndexeerde pagina’s samenvallen met dalingen in traffic-verwijzingen van de zoekmachines, kan er sprake zijn van een echt verlies van link juice (controleer of belangrijke links die voorheen traffic/rankingsboosts verstrekten, nog steeds bestaan) of een verlies van indexering als gevolg van straffen, hacking of malware. Een grondige analyse met behulp van uw eigen web analytics en de Webmasterhulpprogramma’s van Google kan helpen bij het identificeren van potentiële problemen.

Falling

Identificeer het probleem dat waarschijnlijk de boosdoener is en onderzoek het. Bezoek forums zoals Cre8asite, HighRankings, en Google’s Groepen voor Webmasters voor hulp.

Falling

De kans is groot dat u iets op uw site hebt gedaan om crawlers te blokkeren of indexatie te stoppen. Dit kan iets zijn in de robots.txt of meta robots tags, een probleem met hosting/uptime, een DNS resolutie probleem, of een aantal andere technische storingen. Praat met uw systeembeheerder, ontwikkelaars of hostingprovider, en bekijk uw Webmasterhulpprogramma’s en analyses zorgvuldig om mogelijke oorzaken vast te stellen.

Individueel

Het winnen of verliezen van rankings voor een of meer termen of zinnen gebeurt miljoenen keren per dag voor miljoenen pagina’s en is over het algemeen niets om je zorgen over te maken. Ranking algoritmes fluctueren, concurrenten winnen en verliezen links (en on-page optimalisatie tactieken), en zoekmachines

“Raak niet in paniek bij kleine schommelingen. Bij grote dalingen, wees op je hoede voor

engines zelfs fluxen tussen indexen (en kunnen soms zelfs fouten maken in hun crawling, inclusie, of ranking processen). Wanneer een drastische daling van de rankings optreedt, zou je zorgvuldig on-page elementen willen bekijken voor tekenen van over-optimalisatie of schending van richtlijnen (cloaking, keyword stuffing, etc.) en controleren om te zien of links recentelijk zijn gewonnen of verloren. Merk op dat bij plotselinge pieken in rankings voor nieuwe content, een tijdelijke periode van hoge zichtbaarheid gevolgd door een dramatische daling gebruikelijk is; in het SEO veld verwijzen we hiernaar als de “versheid boost”.

een oordeel vellen tot er minstens een paar dagen voorbij zijn. Als je een nieuwe site runt of bezig bent met linkacquisitie en actieve marketing, komen deze plotselinge pieken en dalen nog vaker voor, dus wees gewoon voorbereid en blijf werken.”

Positief

Veel site-eigenaren gaan ervan uit dat wanneer ze wat klassieke SEO hebben gedaan – on-page optimalisatie, link acquisitie, etc. – ze onmiddellijk resultaat kunnen verwachten. Dit is, helaas, niet het geval. Vooral voor nieuwe sites, pagina’s, en inhoud die zware concurrentie hebben, ranking verbeteringen hebben tijd nodig. Zelfs het verdienen van veel goede links is geen zeker recept om onmiddellijk de top te bereiken. Vergeet niet dat de zoekmachines niet alleen al die pagina’s moeten crawlen waar je links hebt gevonden, maar ze ook moeten indexeren en verwerken. Dus de statistieken en rankings die je zoekt kunnen dagen of zelfs weken achterlopen op de vooruitgang die je hebt geboekt.

Reviews

There are no reviews yet.

Be the first to review “De beginnershandleiding voor SEO”

Your email address will not be published.

Shopping Cart