april 21, 2010 2 reacties

Ik had dit weekend een mooi anti post geschreven over de hype rond het Google webmasters gedoe maar heb dat maar in de vuilbak gegooid omdat ik

vast en zeker als een oude (anti-google) zaag ging overkomen en dat ontken ik natuurlijk ten stelligste. Maar om kort te zijn, ik snap de hype niet echt….

Laten we maar de positivo toer opgaan en nog eens woordje meer vertellen over site structuur en beter scoren in Google voor mainkeyword combinaties door van achter naar voor te werken (of van onder naar boven..) .. want blijkbaar zijn er nog een pak mensen die daarmee sukkelen en of het niet zo goed snappen.

Waarom van Achter naar Voor ?

Omdat ik altijd al een averechtse ben geweest 😮 Neen, gewoon omdat het veel makkelijker is en vooral veel meer bezoekers zal oogsten op korte-middel-lange termijn. Dat een eerste plaats in de zoekresultaten meer (lees veel meer) bezoekers binnen brengt dan de andere 9 resultaten in de top 10, daarvoor hadden we Google”s nieuwe speelgoedje in de webmastertools niet nodig.

Wat ik me wel luidop afvraag met het tonen van oa. de CTR in de webmaster console is of ze over een paar maand bekend zullen maken dat het ook een factor is die bepalend is voor je ranking 😮

De theorie van het achter naar voor werken is eenvoudig : maak vele kleintjes samen sterk om de grote baas te dragen…een beetje zoals in het wielrennen, er is 1 kopman en een hoop helpers die er alles moeten aan doen (meestal volgens vooropgesteld plan) om hem aan de overwinning te helpen.

Er zijn in het verleden studies genoeg geweest (dit is er hier eentje van , zeker doornemen !) die daar heel duidelijk over waren. Al moeten we wel vaststellen dat verschillende soorten zoekopdrachten kunnen leiden tot een ander patroon en niet het gekende F-patroon the one and only is…

Zo toonde deze eyetrack studie vorig jaar nog aan dat er een serieus verschil is tussen transactionele en informatieve zoekopdrachten :

Een transactionele zoekopdracht zou bijvoorbeeld kunnen zijn : “online reis Spanje boeken” en een informatieve zou kunnen zijn : “reizen naar Spanje”. Bij een transactionele kan je nog iets binnen halen als je op plaats 2-3-4 hangt maar voor een informatieve zoekopdracht ben je er aan voor de moeite blijkbaar. (meer…)

december 18, 2009 13 reacties

Officieel zou Google Caffeine pas begin volgend jaar volledig worden uitgerold maar de laatste weken krijg ik teveel mails binnen van mensen die soms jarenlange posities hielden in Go

ogle”s top 5 voor hun mainkeywords en nu compleet van de kaart zijn verdwenen dat ik moeilijk kan geloven dat er momenteel nog geen vuiltje aan de lucht is..

Caffeine zou niet zozeer een rankingupdate zijn maar een (bijna) complete remake van de manier waarop ze indexeren en die data opslaan/organiseren. Nu als er aan de index wordt geprutst dan is het bijna onvermijdelijk dat er hier en daar ook verschuivingen in rankings zullen plaatsvinden.

En zoals gezegd, verschillende mails liepen de afgelopen weken binnen van mensen die hun toprankings zagen verdwijnen. Sommige zijn van 1 naar 400 gevlogen of gewoon nergens meer te vinden.

Kijk als het een hobbysite is of iets wat je “achter je uren” runt, dan kan je daar nog mee gaan leven. Ik wil zeggen, je zal er geen boterham minder moeten door eten maar als je een paar duizend tot 10.000 euro per maand aan inkomsten ziet verloren gaan door het verlies van die top plaatsen dan zal je daar wel eens een nachtje slaap voor laten.

De standaard vraag is natuurlijk ” Hé waarom ben ik nu nergens meer te vinden, het waren plaatsen die we al lang/jaren vast hielden !”

En buiten Google zal niemand de exacte reden op tafel kunnen gooien. Van de 7 gevallen die ik nu heb kunnen bekijken was er op het eerste zicht niks verkeerd te vinden. Dus blackhat technieken stonden niet in het lijstje. Wel misschien op eentje na…het gebruik van pixel links in footers…jaren terug gaan gebruiken op aanraden van een SEO bedrijf 😮

Maar alle overige sites, niks zwart en zelfs niks grijs…

Wat ik wel opmerkte bij die sites waren 1 of meerdere van deze zaken :

1. Slechte indexering & onsite duplicate content

Een slechte indexering kan verschillende oorzaken hebben en soms buiten je medeweten gebeuren. Je CMS (Content Management System) systeem kan achter de schermen zaken uitvoeren waar je niks van afweet. Zo kwam ik een paar weken geleden nog een custom gemaakt CMS systeem tegen die voor elke pagina 3-4-5 verschillende url”s ging aanmaken. Als je zelfmoord wilt plegen dan is dat toch wel de ideale manier…

Naast dat heb je natuurlijk ook de moeilijk navigeerbare sites die bijvoorbeeld teveel onderverdelingen hebben waardoor Google (en misschien ook je bezoeker) zeer moeilijk aan de middenmoot en of onderkant van je site raakt. “Maar daarvoor heb ik mijn XML/Html sitemap toch ?”. Peuuut…als dat de enige manier is waarmee Google die pagina”s kan bereiken, dan mag je er zeker van zijn dat die pagina”s een zeer grote kans maken om in G”s vuilbak terecht te komen.

Bij de sites die ik kon “bestuderen” gebruikte ik het site:commando om een indicatie daarvan te krijgen.

Wat het doet : na het ingeven van dat commando zal Google alle pagina”s van de site (die hij kent) gaan weergeven. Je krijgt dan dit hier te zien :

Nu ga je naar de laatste pagina van de zoekresultaten en kijk je of je inderdaad alle 375 pagina”s te zien krijgt.
9 op 10 zal je op de allerlaatste pagina (onderaan) dit hier te zien krijgen:

En als je nu rechtsboven kijkt zal je een ander nummer zien staan :

Resultaten 101 – 345 van 345 van blablabla

Hoe kunnen we dat nu gaan interpreteren ? Google zegt je eigenlijk slechts 345 pagina”s van de 375 goed genoeg zijn om in zijn index weer te geven. Niks verkeerd met dit nummer maar stel dat het G tellertje zou stoppen aan 195 dan zou dat eigenlijk willen zeggen dat 180 of 52% van de pagina”s die onze site rijk is niet goed genoeg zijn en hoogstwaarschijnlijk ergens diep liggen begraven in Google”s (tweederangs?) index.

(meer…)

oktober 5, 2009 14 reacties

Dankzij de boerenbetoging zit ik hier waarschijnlijk tot laat vanavond vast in Brussel, tenzij ik een paar uur in de file wil staan..Dus kan ik me maar beter nuttig maken.

Het nieuwe design voor de blog is 'in de maak' en tussendoor ben ik even in mijn collectie 404 pagina's gaan kijken om

wat inspiratie op te doen. Onvoorstelbaar welke creatieve brains er soms aan het werk te zien zijn.

Ik ben in ieder geval van plan om ook 'iets' met de nieuwe 404 te gaan doen. Als er iemand een andere suggestie heeft of een ander leuk voorbeeld heeft, je weet waar je dat moet droppen 🙂



zp8497586rq
december 23, 2008 No reactie

Neem de titel niet te letterlijk want als puntje bij paaltje komt ben je de l.. 😮

Eigenlijk iets waar ik nooit iets zou over schrijven , was het niet dat ik gisteren een les aan het maken was voor de ecommerce cursus waar dat onderwerp even aan bod kwam en eigenlijk iets waar menige webmasters nooit (of te weinig) gebruik van maken zo bleek.

Robots.txt file

De robots.txt is een file die ervoor zorgt dat je kan gaan bepalen wat zoekrobots (crawlers) wel of niet mogen bezoeken op/in je site en daarom een handig middel om bepaalde delen van je site te gaan uitsluiten. Als je trouwens vermoed dat Google (of andere) bepaalde delen van je site niet bezoekt, kijk dan eerst even in je robots.txt of het probleem daar niet ligt.

Deze file is natuurlijk niet de 'holy grail' en er durven nogal eens wat misverstanden opduiken. Laten we de belangrijkste even opsommen :

  1. De robots.txt is een publieke file wat wil zeggen dat iedereen die op je site komt die kan opvragen en dus kan zien welke pagina's / folders / bestanden je gaat uitsluiten. Stel je hebt een betalende community site waar mensen betalen voor je informatie maar hebt er verder geen beveiliging op zitten, dan kunnen ze via de robots.txt die inhoud toch opsporen. Het klinkt ver gezocht maar je moet maar eens zien hoeveel toegang tot betalende e-books je daarmee kan vinden.
  2. De robots.txt is slechts een richtlijn wat je geeft maar als een bot geprogrammeerd is om die te negeren, dan kan je daar verder weinig aan doen. Ik denk niet dat je een autodief zal tegenhouden door er een bordje aan te hangen met 'gelieve deze wagen niet te stelen'…
  3. De pagina's / folders / bestanden die je uitsluit kunnen toch nog worden geïndexeerd (en gerankt) door Google (of andere) als er wordt naar gelinkt door bijvoorbeeld een collega van je.

Hoe maak je die ?

De makkelijkste manier om die op te maken is je kladblok openen, er zijn ook online tools die je kunnen helpen bij de opmaak. De meest gekende is diegene die je in je google webmaster tools

account kan vinden. Maar zelf gebruik ik die dingen nooit, kladblok gaat een stuk sneller.

Bij de User-agent kan je specifieke bots gaan opsommen (hier vind je eventueel een lijst, of check je logfiles even). Een sterretje is een wildcard en geld dan 'in principe' voor alle bots. Naast disallow kan je natuurlijk ook Allow gebruiken. Dit hier zijn volgens mij de meest voorkomende / courrante

Je volledige site uitsluiten – als je bijvoorbeeld een site aan het verplaatsen bent of je maakt een nieuwe, wilt die online testen maar nog niet laten crawlen

User-agent: *
Disallow: /

Een pagina uitsluiten:
User-agent: *
Disallow: /pagina.html

Een folder uitsluiten:
User-agent: *
Disallow: /directory/

Alle images voor Google:
User-agent: Googlebot-Image
Disallow: /

Bepaalde images voor Google:
User-agent: Googlebot-Image
Disallow: /images/mijnlelijkefoto.jpg

Image folders voor Google:
User-agent: Googlebot-Image
Disallow: /images/

Specifieke bestanden:
User-agent: *
Disallow: /*.gif$
Disallow: /*.jpeg$
Disallow: /*.pdf$

Wel opletten als je wildcards én specifieke bots gaat uitsluiten. Bij dit voorbeeld hier gaat de Googlebot enkel gaan kijken naar wat specifiek voor hem is bedoeld en zal in ons voorbeeld hier dus wel  /directory/ , /images/fotos.jpg en de pdf files gaan crawlen !

User-agent: *
Disallow: /directory/
Disallow: /images/fotos.jpg
Disallow: /*.gif$
Disallow: /*.jpeg$
Disallow: /*.pdf$

User-agent: Googlebot
Disallow: /*.gif$
Disallow: /*.jpeg$

Volgens mij was dit zowat het eerste basic artikel wat ik ooit schreef maar niet te min, altijd goed om te weten.

Prettige feesten trouwens en niks doen wat ik niet zou doen 😮

zp8497586rq
september 19, 2008 2 reacties

Aangezien een mens niet alleen van de liefde kan leven moet hij zo nu en dan eens inkopen gaan doen om te overleven. Ik weet niet hoe jullie dat doen maar ik beschouw mezelf als een “quick shopper”. Het moet dus snel gaan als ik binnen ben want het zijn nu niet de plaatsen waar ik veel van mijn tijd wil spenderen.

Ik dus deze avond naar Delhaize (warenhuis) om mijn mandje te vullen en had iets nodig wat ik weinig of nooit meebreng. Vroeger kon ik daar met mijn ogen dicht naartoe lopen maar nadat ze de boel hebben heringericht loop ik nog steeds verdwaald. En waarom ? Omdat er geen bordjes hangen boven de gangen waar ik kan aflezen wat waar staat of me tenminste een indicatie geeft waar ik het kan vinden.

Na 5 minuten zoeken (en dan weiger ik het om te vragen aan een of andere ‘rekkenvuller’) ben ik gefrustreerd naar de kassa gestapt…ik haal het wel ergens anders…

Net hetzelfde als je hier in België een straat moet zoeken in een stad terwijl je aan het rijden bent in je blikken vierwieler en je hebt nog geen gps ..ja die zijn er nog… Sta me even toe om het verschil tussen hier en bijvoorbeeld States aan te tonen.

Mag je 1x raden welke de ‘made in Belgium’ is 😮

Ik geef toe dat die grote borden soms het stadsbeeld gaan ‘vervuilen’ maar het is wel verdomd makkelijk als je een zoekende weggebruiker bent.

De link tussen de borden en een website navigatie is dan ook heel snel gelegd. Soms is er heel weinig verschil tussen de ‘navigatie’ in Gamma bijvoorbeeld of een doe-het-zelf shop op het web. Ik zou zelfs durven zeggen dat de navigatie in een Gamma je een beter overzicht geeft dan dat van een soortgelijke site.

Als je daar binnenstap dan zie je gelijk hoe groot de winkel is, bij een webshop heb je daar totaal geen idee van (tenzij je regelmatige bezoeker bent). Ook het zoeken gaat meestal een stuk sneller..als ik schroeven nodig heb dan zoek ik naar het bordje schroeven en nagels..dat zuig ik hier ter plaatse even uit de duim..en het brengt me precies waar ik moet zijn. Sta ik voor de schroeven, dan zie ik 50 verschillende soorten in 1 oogopslag en kan je makkelijk diegene lokaliseren die je nodig hebt. Vastnemen even checken/confirmeren en naar de kassa (quick shopper remember 😮 ), betalen en buiten.

En als ik het niet vind of ik ben te lui om te zoeken, dan vraag ik het toch snel even…

Het kan natuurlijk ook net het tegenovergestelde zijn..zie mijn warenhuis ervaring…

Ik probeer hier nu een scenario van een doe-het-zelf zaak online te simuleren om aan te tonen dat het soms iets moeilijker kan gaan. Ik kom binnen op de homepagina en zie daar Materiaal, Sanitair, Decoratie,Gereedschap,Tuin,Verf,etc staan.

Nu moet ik toch al even gaan nadenken waar de schroeven zich mogelijks kunnen bevinden. Waarschijnlijk zal ik ook nog 1 of 2 subcategorieën moeten aanklikken om mogelijks bij mijn schroeven te komen en als er daar 20 verschillende staan zal het me toch iets langer duren om precies te vinden wat ik echt nodig heb.
Vind ik het niet, dan moet ik overnieuw beginnen..grrrrrr..

Visualisatie, zaken kunnen zien is een groot voordeel bij het shoppen maar helaas is dit online soms heel moeilijk toe te passen. De navigatie op vele online shops laat dan soms ook te wensen over. Ik begin er nu pas achter te komen dat het een element is waar ook ik eigenlijk nooit genoeg tijd heb aan besteed. En gegarandeerd dat je er een boel potentiële kopers door verliest.

Wat kan je doen om je navigatie duidelijker te maken ? Ik denk even luidop :

  • Producten gaan ‘groeperen’ en eenzelfde product in verschillende categorieën gaan plaatsen. Om een voorbeeld te geven: een bepaald

    type computer zou je kunnen plaatsen in de categorieën FABRIKANT – PRIJS – TYPE . Opletten voor duplicate content natuurlijk

  • Duidelijk aangeven op een pagina waar de bezoeker zit en waar hij vandaan komt (broodkruimels)
  • “Click promise”..stemt hetgeen waar ik op klikte overeen met de pagina waar ik op terecht kom
  • Als ik een link heb bezocht, is dat visueel zichtbaar (door bijvoorbeeld andere kleur )
  • Gebruik van (DOM)tabs
  • Duidelijke aanwezigheid van algemene groepen. In een online zaak voor dieren zou dat vb kunnen zijn Honden-Katten-Paarden,etc.. Als ik op een pagina ben geland waar ze een kattenmand aanbieden dan zie ik heel snel waar ik moet zijn voor mijn hondenmand
  • Is er een constante in de navigatie of is die veranderlijk. Als je naar een categorie gaat bij sommige shops worden enkel de subcategorieën nog getoond en valt alle rest weg..hatelijk is dat…
  • Zoekfunctie ..en dat op zich is eigenlijk ook een artikel waard…
  • Help functie of een soort van gids
  • Usability test (kan je eigenlijk zelf en heb je geen 1000-en euri voor nodig). Dus hoe navigeren vreemden door mijn site, hoe makkelijk/moeilijk vinden ze iets en niet hoe navigeer ik door mijn site..
  • Enquête houden

Dat lijkt me al een behoorlijk lijstje om eens ernstig over na te denken en rekening mee te gaan houden…en dan moet je het nog zo in elkaar zien te flansen dat de zoekmachines je graag blijven zien 😮

Nog andere ideeën in de zaal ?

januari 18, 2008 7 reacties

Een belangrijk deel van “goede navigatie” bestaat er uit om de goede anchorteksten te gebruiken. Als je navigatie bestaat uit links naar verschillende categorieën en daar zit bijvoorbeeld een categorie tussen die verschillende onderwerpen over het bouwen van een webwinkel behandeld, dan zorg je er best voor dat het woord webwinkel in je tekstlink voorkomt.

Klinkt misschien logisch maar soms is het niet zo makkelijk om die techniek te gaan toepassen. Tekstlinks worden vooral gebruikt voor de zoekmachines maar soms is het beter om vanuit een ‘bezoekers’ standpunt een afbeelding te gebruiken of een tekstlink die misschien een betere omschrijving heeft voor een bezoeker maar een nul waarde heeft voor de spiders.

Een klein voorbeeldje misschien om de zaken iets duidelijker te stellen : Je hebt een online shop die gespecialiseerd is in de verkoop van honden materiaal (waar hebben we dat nog gehoord… ) en 1 categorie daarvan is bijvoorbeeld een categorie “honden bedden” (niet te hard lachen want die dingen bestaan dus echt :d ). En in die categorie heb je verschillende sub-categorieën, waaronder bijvoorbeeld : mini – groot en XL bedden.

Als ik op zoek ben naar een bed voor mijn Duitse herder, dan weet ik dat ik een XL bed nodig heb en bij voorbaat al niet hoef te kijken naar de mini categorie. Maar een tekstlink “Extra Groot” of zo lijkt me niet echt een goede link die veel waarde kan doorgeven vanuit een SEO standpunt ..maar voor mijn bezoeker en usability kan het wel van van zeer groot belang zijn…dus wat kan je in een dergelijk geval doen ? Of misschien is het werken met images (zodat bezoekers duidelijk zien waar het om gaat) een betere oplossing vanuit een usability standpunt maar daar hebben spiders niks aan.

Op de één of andere manier moet je toch links met de goede anchortekst in die pagina of in die navigatie zien te verwerken. Laten we beginnen bij de images…als je images gaat gebruiken als links (en je maakt ze best ‘clickable’ want mensen klikken graag op foto’s), zorg er dan voor dat je de rel=”nofollow” gebruikt op die fotolink en zorg ook voor een tekstlink naar die pagina. Je kan die tekstlink onder de foto plaatsen, in je navigatie of in een stukje tekst, er zijn mogelijkheden genoeg.

Als je in het ander geval al gebruik maakt van tekstlinks in je navigatie maar om usability redenen kan je geen goede anchortekst gebruiken voor de keywords die je eigenlijk in je vizier hebt, kan je eigenlijk dezelfde techniek gaan toepassen. Plaats een rel=”nofollow” op de link met de “slechte” anchortekst en ga een 2e tekstlink gaan aanmaken ergens anders op die pagina zodat je toch de juiste keywords kan gebruiken om naar die bepaalde pagina te verwijzen. Je kan deze in een tekstje plaatsen of in je footer, als hij maar ergens staat zonder dat het storend werkt voor de bezoeker.

En zo zie je maar dat er voor alles een oplossing is :d

De navigatie is een heel belangrijk onderdeel van je site /pagina, zowel voor je bezoekers als voor de zoekmachines dus denk goed na over de structuur en opbouw voor je de website in elkaar begint te knutselen !

Good to know : Hoe snel indexeerd google je nieuwe pagina’s ? 2.01pm gepost en nu 4.55pm al in Google te vinden…