Toegevoegde Zoekresultaten , Google’s “vuilbak” ?

Geschreven door : februari 15, 2007 1 reactie

Eerder hadden we het al over het duplicate content probleem en hoe je mogelijks in de SI (supplemental index) terecht kon komen. Vandaag gaan we iets verder ingaan op het fenomeen dat toch wel een probleem begint te vormen voor vele webmasters. Zelfs een compleet nieuwe site kan bijna volledig in de SI worden opgenomen, ook al heb je 100% unieke teksten en mooie cleane urls.

Hoe weet je of je site (of delen ervan) opgenomen werden in de SI ?
Het mag dan misschien lijken dat dit de ver van mijn bed show is voor je site maar je kijkt het maar beter eens na en probeer er iets aan te doen want dit zal een belangrijk issue en mogelijks ook een (nog groter) probleem worden in de nabije toekmomst. De SI is de ‘verzamelbak’ waar google alle pagina’s onderbrengt die minder relevant lijken. Daar terecht komen zal onherroepelijk leiden tot minder bezoekers & inkomsten. Om te chekken of je pagina’s hebt zitten in die verzamelbak typ je volgend commando in site:www.mijnsite.com . Als je de groene woordjes ‘toegevoegde zoekresultaten’ ziet staan naast de beschrijving dan mag je aan de alarmbel gaan trekken !
Wil je gelijk zien welke pagina’s er in de SI zitten geef dan volgend commando in : site:www.mijnsite.com *** -view

Hoe kom ik er uit ?
Laten we er even van uit gaan dat je niet met een intern of extern duplicate content probleem zit en andere factoren (en God mag weten welke dat zijn) de oorzaak zijn van je probleem. Volgende punten kunnen voor een oplossing zorgen en je pagina’s uit de SI halen :

Inkomende Links
Zorg voor inkomende links en niet enkel naar je homepagina. Probeer ervoor te zorgen dat de helft van je inkomende links naar interne pagina’s linken. Geen makkelijke opgave maar als je een blogger bent is dat al iets makkelijker (als je tenminste iets interessant hebt te vertellen) om interne links te verkrijgen van andere bloggers die eventueel naar je onderwerp kunnen en willen verwijzen. Heb je geen blog en wordt je inhoud weinig of niet aangepast dan wordt het al iets moeilijker. Je kan dat oplossen door artikels te schrijven en te posten in verschillende artikel-directories of sites. In dat artikel moeten er natuurlijk wel links staan die naar dieper gelegen pagina’s in je site verwijzen. Verder zijn er ook nog directories waar je aan diep linking kan doen en je niet de url van je indexpagina moet opgeven. Maar artikels schrijven lijkt me hier de betere en snelste oplossing voor je probleem.

Genoeg tekst
Reeds eerder vermeld hier maar zorg ervoor dat je pagina genoeg tekst heeft. Hier weer hetzelfde probleem voor de e-commerce sites. Een hondenmand , of die nu geel of groen is , er valt verder niet zoveel te vertellen daarover als je het puur technisch gaat bekijken. Probeer dan iets te schrijven over het gebruik , mogelijke voordelen, recenties van klanten, etc. Ga op zoek naar relevante woorden of woord combinaties om een tekst op te maken. Het gebruiken van het LSI (Latent Semantic Indexing) werd reeds in een andere topic besproken.

Zorg er ook voor dat je titel en Meta beschrijving van je pagina verschillend is. Anders gaan je pagina’s op elkaar lijken voor de spiders en heb je weer wat meer punten verzameld om in de SI terecht te komen. Je plaatst je tekst liefst ook zo dicht mogelijk bij de top van je broncode zonder dat er al te veel andere code tussen zit waar de spiders eerst moeten doorworstelen voor ze de eigenlijke tekst te zien krijgen.

Uitgaande links
Wanneer je pagina eerder een lagere PR heeft, zorg er dan voor dat je uitgaande links op die pagina relevant zijn en een meerwaarde kunnen vormen voor je pagina. Linken naar pagina’s die dezelfde inhoud hebben is natuurlijk ook niet aangeraden. Je vermijdt ook beter sitewide links naar minder belangrijke pagina’s binnen je site. Heb je uitgaande links staan, plaats er dan best een rel=”nofollow” op. Tenzij het een wederkerige link is en dat niet echt in dank zal worden afgenomen door je linkpartner. Als de www.mijnsite.com en de mijnsite.com verschillende PR vertonen, dan gebruik je beter een 301 redirect op die pagina die de laagste PR vertoont.

Zelf heb ik ondervonden dat het herschrijven van je tekst in veel gevallen voldoende is op die pagina uit de SI te halen. Wel plaats je best ergens een nieuwe link naar die pagina zodat de googlebot snel de vernieuwde pagina gaat crawlen. Want eenmaal je pagina in de Si zit zou die niet meer door de ‘normale’ google spider worden gecrawled maar wel door een spider die enkel de SI doet en dat kan maanden duren voor die nog even langskomt. En je wilt je pagina’s toch liever zo snel mogelijk uit de 2e rangs zoekresultaten zien dacht ik.

1 reactie op : Toegevoegde Zoekresultaten , Google’s “vuilbak” ?
Skipp de reacties en laat me mijn zegje doen...
[1]Pagina’s uit de toegevoegde resultaten halen.8:15 pm on mei 19, 2007

[…] In een vorig artikel over de toegevoegde zoekresultaten (TZ) en duplicate content haalden we het onderwerp al aan. Het ging er vooral om hoe je er in terecht kwam en hoe je er opnieuw kon uit klauteren. In dit schrijfsel probeer ik iets dieper in te gaan op een specifieke situatie. […]

Laat je volledig gaan...

Je moet inloggen om een reactie te kunnen plaatsen.