Maandelijks archief: mei 2008

Goede hosting wordt steeds belangrijker

Het is vanzelfsprekend dat de hosting van je website het belangrijkste is wat er is. Immers als je website onbereikbaar is dan heb je zowel veel bezoekers schade als mede schade die je hebt doordat zoakmachines je site niet kunnen indexeren, en indien je site langere tijd niet bereikbaar is, zelfs je geindexeerde pagina’s uit de zoekresulataten halen.

Nu is er sinds kort een trend gaande waarbij hackers op grote schaal van alle sites die op een onveilige server staan de index files overschrijven met een versie die links bevat naar viagra sites of vol met malware. Als je dus bespaart op je hosting en bij een budget host gaat zitten dan heb je kans dat deze minder ervaren is met beveiliging en dat deze niet alles up 2 date draait, met als gevolg dat deze hackers een lek in de server misbruiken om je sites te redirecten of volplanten met links naar SPAM sites. Zodra Google langskomt om je site te indexeren, en ziet dat deze links erop staan dan zal je uit de zoekresultaten gehaald worden totdat het opgelost is. Google zal je dan een mailtje sturen op info @ domein .ltd, support @ domein .ltd en webmaster @ domein .ltd. Hierin wordt je dan meedegedeeld dat je site uit de index gehaald is omdat deze malware of spam links bevat.

Als dit gebeurt is dien je je site te laten valideren via Google Webmaster console. Hierin geef je aan dat je de eigenaar bent van de site. Zodra dat gebeurt is kan je een aanvraag doen tot heroverweging zodat je weer toegelaten wordt tot de zoekresulaten. Dit kan echter enige tijd duren.

De boodschap is dus zorg voor een goede kwaliteitshost en bespaar hier neit op. Draai je verder open source software als Oscommerce, phpBB, WordPress etc. zorg er dan voor dat je altijd de laatste patches installeert. Hackers gebruiken vaak de lekken in deze populaire software om je site te bewerken.

Zijn er overigens al mensen die hebben meegemaakt dat hun website overschreven was?


Belemmeringen voor een zoekmachine spider

Veel mensen weten niet hoe een zoekmachine spider werkt en hebben dus ook geen idee hoe hun site doorlopen wordt voordat indexering plaats vindt. Om jullie enkele tips mee te geven bij het bouwen van een website, houdt dan rekening met de volgende factoren, zodat de zoekmachine spiders straks geen problemen krijgen om je site te crawlen.

– URL’s met meer dan 2 dynamische parameters bijv. https://www.seohandleiding.nl/pagina.php?id=4&sub=67&user=paul%allen&library=1

– Pagina’s welke meer dan 100 unieke links bevatten naar content intern. De kans bestaat dat de spider dan niet alle links volgt.

– Pagina’s welke meer dan 3 clicks verwijderd zijn vanaf de homepage. Spiders komen hier vaak niet terecht, tenzij deze pagina veel externe backlinks heeft.

– Pagina’s welke een sessie of cookie nodig hebben om bekeken te kunnen worden. Spiders kunnen hier vaak niet mee overweg.

– Pagina’s welke alleen via een button, drop down menu of form bereikbaar zijn. Spiders kunnen hier vaak niet mee overweg.

– Pagina’s welke achter een login zitten. Deze zijn onbereikbaar voor de spider.

Dit zijn enkele factoren die cruciaal zijn bij het bouwen van je website. Houdt je hier geen rekening mee, dan kan je achteraf gaan zitten denken waarom je niet geindexeerd wordt, maar dat is dan duidelijk.

Mensen nog aanvullingen voor dit lijstje?