Sikeres keresőoptimalizálás: mire figyeljünk oda?

Frissítve: Pál Zoltán Gábor

A keresőoptimalizálás minden körülmények között nagy megmérettetés, mely azonban az egyedi tényezők függvényében számos kisebb részfeladatból és kihívásból áll össze. Teljesen mindegy, milyen méretű a vállalkozásunk, azzal kell számolnunk, hogy ezer és egy apróbb feladatot kell magunk mögött tudnunk, hogy összességében sikeres keresőoptimalizálás legyen a végeredmény.

Ebben a bejegyzésben négy olyan szituációt fogunk bemutatni, melyek ugyan eltérő módokon, de mind elmondanak valamit arról, milyen problémák merülhetnek fel egy oldal üzemeltetése során. Illetve arról is, hogyan oldhatjuk meg ezeket.

Google büntetés felhasználók által generált spam miatt

Ennek a történetnek a főszereplője egy sikeres oldal, mely egyik napról a másikra vesztette el organikus látogatóinak majd’ kilencven százalékát, miután a legerősebb kulcsszavaikra kapott találati listákon 30-50 helyet zuhant vissza. A horrorisztikus lejtmenetet spam támadás okozta, amit először megpróbáltak manuális módon, a fórumok kitakarításával orvosolni, a mélyrepülés mégsem látszott abbamaradni.

Miután gyakorlatilag a konverziót generáló elérés egészét elvesztették, rá kellett jönniük, hogy átfogóbb megoldásra van szükségük. Így született meg az a néhány fogást felölelő taktika, amely végleg felszámolta a problémát. Íme a megfejtés:

  • Hogy a spammerek eleve inkább elkerüljék az oldalt, CAPTCHA kód és visszaigazoló e-mail használatát vezették be.
  • Különböző korlátozásokat vezettek be a frissen regisztráltak számára.
  • A frissen regisztráltak első pár bejegyzését elkezdték manuálisan moderálni.
  • Az összes felhasználók által létrehozott linket ellátták a „nofollow” attribútummal.
  • Létrehoztak egy IP címeken alapuló feketelistát.

Miután az itt leírt intézkedéseket foganatosították, és erőfeszítéseikről beszámoltak a Google számára is, rövid időn belül sikerült visszanyerniük régi látogatottságuk jelentős részét.

A kompetitív analízis

Az ApexForum által szervezett SEO verseny során a versenyzőknek egy előre megadott, mindenki számára azonos kulcsszóra optimalizálva kellett a lehető legjobb helyezést elérniük adott idő alatt. Az eredmények számítása a következőképp zajlott: a versenyzők minden nap aszerint kaptak pontozást, hogy a top 100 hányadik helyén álltak épp. Ha a harmincadik helyre sikerült feltornászni magukat, akkor 100-30, vagyis 70 pontot kaptak.

A nyertes Scott Paxton stratégiája a konkurencia átfogó vizsgálatára irányult, így hamar levonta az alábbi következtetéseket:

  • A kulcsszóra kapott találatok mind valamilyen belső oldalra, tehát nem a kezdőlapra mutattak.
  • A legjobb helyezettek hasonló struktúrát mutattak a belső linkek vonatkozásában.
  • A kulcsszavak többnyire egyéb kifejezésekbe ágyazva fordultak csak elő, nagyon ritka volt a teljesen egzakt megfelelés.
  • Nagyon alacsony volt a kulcsszavak előfordulási sűrűsége.

Az így nyert tapasztalatok alkalmazásával Scott magasan a mezőny előtt végzett. A történet tanulsága, hogy a sikeres keresőoptimalizálás és az igazán jelentős eredmények nagyban függnek attól, hogy szánunk-e időt konkurenciánk vizsgálatára is.

Sikeres keresőoptimalizálás, ha nulláról indulunk

Gyakran előfordul, hogy a semmiből kell felépítenünk egy lehetőleg jó rangsorolással bíró oldalt. Ezekben az esetekben számolhatunk bizonyos nehézségekkel, de előnyökkel is. Értelemszerűen a már üzemelő konkurencia linképítésével szemben jelentős lemaradásban vagyunk, de adottak olyan előnyök, mint a például a megfelelő domain kiválasztásának lehetősége. Az alábbiakban néhány szempont, amiket mérlegelve előnyt kovácsolhatunk helyzetünkből:

  • Az oldal nevének megválasztása ebben az esetben már eleve alapulhat a kialakult piaci körülmények analízisére. Külön öröm, hogy a legerősebb kulcsszavainknak megfelelő domaint is választhatunk. Ezzel gyorsan meghatározó előnyre tehetünk szert.
  • Olyan biztonságos, gyakran frissülő platformot kell választanunk, mely lehetőleg könnyen optimalizálható SEO szempontokat követve.
  • Ha saját tárhelyszolgáltatót keresünk, mindenképp olyat kell találnunk, mely jó referenciákkal és magas rendelkezésre állással bír. Itt fontos megemlíteni, hogy az ingyenes szolgáltatásokat érdemesebb messzire kerülni, inkább olyan megoldást találjunk, mely kisebb-nagyobb befektetések árán, de magabiztosan tudja teljesíteni azokat a technikai kritériumokat, amikre nekünk és a Google keresőmotorjainak szüksége van.

Gyakori hibák

Ha egy számunkra ismeretlen oldal keresőoptimalizálásába kezdünk, előfordulhat hogy a Google keresőrobotjai által ezidáig szűzen hagyott területre tévedünk. Az alábbiakban összeszedtünk néhány fontosabb területet, amikre mindenképp érdemes figyelmet fordítanunk:

  • A Google előnyben részesíti azokat az oldalakat, melyek egyedi 404 hibakódú oldallal rendelkeznek. Ezzel szemben a keresőoptimalizálásban járatlanok könnyedén megfeledkeznek az ilyen apró figyelmességekről.
  • Ellenőrizni kell, hogy az oldalon található linkek között nincs-e meghatározó mennyiségű hibás link, mivel ezek szintén rossz fényben tüntethetik fel oldalunkat.
  • Kerülnünk kell a duplikált tartalmakat, mivel azok nem hogy nem segítenek, de kifejezetten rontanak rangsorolásunkon.
  • Figyeljünk rá, hogy az oldal minden releváns részét elérjék a keresőrobotok. Előfordul, hogy bizonyos dropdown menük mögé rejtett tartalmakat nem indexel a Google.

5 ELKERÜLENDŐ SEO HIBA

1. A .HTACCESS HELYTELEN HASZNÁLATA

Aki SEO-ból él, valószínűleg hallott már a .htaccess-ről. Egyszerűen megfogalmazva ez egy konfigurációs fájl, amelyet egyedi irányelvek tárolására használnak, ezek blokkolják vagy hozzáférést biztosítanak a webhely dokumentum könyvtáraihoz.

Nem lehet eléggé kiemelni, hogy milyen fontos a .htaccess fájl. Ha ismerjük a használatát, a segítségével lehet:

  • elkészíteni egy kidolgozottabb sitemap-et
  • tisztább URL-eket generálni
  • javítani a cachelésen, hogy csökkentsük a betöltési időt

Röviden, a .htaccess egy elengedhetetlen eszköz a webhely indexelési folyamatának csiszolására, ideiglenes esetben egy magasabb SERP helyezés elérésére.

Azonban igazi profinak kell lenni ahhoz, hogy megfelelő módon be tudjunk állítani egy .htaccess fájlt. Egyetlen hiba is szörnyű következményekhez vezethet. Például teljesen blokkolhatjuk az oldalt az indexeléstől, valahogy így:

RewriteCond %{HTTP_USER_AGENT} ^Google.* [OR]
RewriteCond %{HTTP_USER_AGENT} ^.*Bing.*
RewriteRule ^/dir/.*$ – [F]

Ha ezeket a sorokat látjuk az oldal .htaccess fájljában, a kereső robotok nem fogják az oldalt felismerni és indexelni. Kérjünk meg egy webfejlesztőt a kód törlésére vagy tegyük meg magunk.

Minden projekt megkezdése előtt ellenőrizzük a .htaccess fájlt. Néhány SEO szakember úgy optimalizálja az oldalt hónapokig, hogy valójában minden erőfeszítésük haszontalan. Senki sem szeretne így járni.

2. GÁTOLJUK A KERESŐMOTOROKAT A CMS-BEN VALÓ INDEXELÉSBEN

A CMS platformok, mint például a WordPress, Joomla és Drupal eszközei veszélyeztethetik az optimalizálási erőfeszítéseket. Ezek az eszközök rendelkeznek olyan beépített funkciókkal, amelyekkel be lehet állítani, hogy ne nézze át a weboldalt. Egyszerűen csak be kell menni a beállításokba Settings → Reading → Discourage, hogy meggátoljuk a keresőmotorokat az oldal indexelésében. Csak ki kell pipálni a négyzetet és máris megtilthatjuk az indexelést, ami komoly bajt okozhat.

Hetente ellenőrizzük ezt a négyzetet. Végül is akinek van hozzáférése a CMS-hez véletlenül is rákattinthat a négyzetre, ami megkérdőjelezhetetlenül negatív hatással lesz a kampányra.

Megjegyzés: A keresőmotorok továbbra is beindexelhetik az oldalt, hiába van beállítva az ellenkezője. Tehát ha valóban szükség van az indexelés megszüntetésére, érdemesebb a .htaccess vagy a robots.txt fájlban megtenni.

3. A ROBOTS.TXT FÁJL NYITVA HAGYÁSA

Ez a legrosszabb SEO hiba. Tartsuk észben: sose hagyjuk nyitva a robots.txt fájlt, mert súlyos titoktartási problémákhoz vezethet. Az egész oldalt elveszíthetjük az adatok megsértésével.

Ha kezdők vagyunk, mindenképp fordítsunk elég időt a robots.txt fájl felállítására és kezelésére. Azonnal cselekedni kell, ha a robots.txt ellenőrzésénél ilyesmit észlelünk:

User-Agent: *
Allow: /

Ez azt jelenti, hogy a keresőmotorok elérhetnek és átfésülhetnek minden oldalt a weboldalon belül, még az admin, belépés, kosár és dinamikus oldalakat is (keresés és szűrés). A felhasználók oldalait tartsuk lezárva és védve. Senki sem szeretne büntetést kapni, amiért több tucat spam jellegű dinamikus oldallal rendelkezünk.

A lényeg az, hogy utasítsuk el azokat az oldalakat, amiket blokkolni kell és engedélyezzük azokat, amiket indexelni kell. Egyszerűnek tűnik, de időbe telik megtanulni.

4. FELEJTSÜK EL A “NOFOLLOW” CÍMKEJELLEMZŐ HOZZÁADÁSÁT A KIMENŐ LINKEKHEZ

A SEO szakértők tudják, hogy a linkek továbbra is fontos rangsorolási faktornak számítanak. Sajnos csak a backlinkekre koncentrálnak és teljesen elfelejtik, hogy a saját oldaluk linkerőt bocsájtanak ki más oldalakra. Tehát magas minőségű backlinkeket kell használni, ezzel párhuzamosan azonban a linkerőt is a saját oldalunkon kell tartani.

Tehát a stratégia egyszerű:

  • Derítsük fel az oldalunkat egy szkennelő eszközzel (pl.: Xenu)
  • Szűrjük a linkeket cím alapján, hogy megtaláljuk a kimenőket
  • Készítsünk egy Excel fájlt, amiben felsoroljuk a kimenő linkeket (vagy töltsünk le egy általános HTML riportot)
  • Nézzünk át minden linket, ami a listában szerepel, hogy beépítsük a „nofollow” címkejellemzőt, ahol szükséges

Ez nem jelenti azt, hogy a “nofollow” címke megszállottjává kell válni. Ha minden linkerőt megtartunk magunknak, azt fogjuk elérni, hogy mások is ráteszik a nofollow-t a mi linkjeinkre. Röviden, ne bánjunk helytelenül vele.

5. ELMARAD A KÓD HELYESSÉGÉNEK ELLENŐRZÉSE

A weboldal kódsorokból áll, így minél jobb ez a kód, annál magasabb szinten lesz a weboldal a SERP-ben. Ez azért lehetséges, mert az ápolt és tiszta kód lehetővé teszi, hogy a robotok jobban átfésüljék és beindexeljék az oldalt, anélkül, hogy egy oldalt is kihagynának.

Tehát minden alkalommal, mikor megbízást kapunk egy projektre és optimalizálni kell, először ellenőrizzük a kódot. Ehhez nem kell webfejlesztőnek lenni. Egyszerűen csak másoljuk be az oldal URL-jét a The W3C Markup Validation Service keresőjébe. Ezek után kérjünk meg egy webfejlesztőt a hibák kijavítására. Az alábbi kép egy tipikus érvényesítő jelentést mutat be.

Bár a Google nem bünteti weboldalak azért, mert érvénytelen biteket tartalmaznak a HTML és CSS-ben, mégis jobb, ha lefuttatjuk az érvényesítő eszközt. Végül is nem telik sok időbe, de sokat javít az oldalon.

Az ördög a részletekben rejlik

A fenti példákból világosan látszik, hogy a keresőoptimalizálás világában nem elég csak a tartalomra, vagy csak a technikai kérdésekre koncentrálnunk. Akkor lesz hosszútávon is sikeres keresőoptimalizálás az eredmény, ha rendszeresen, oldalunk minden részletére kiterjedő auditokat végzünk, és ezzel kiküszöböljük azokat az amúgy apró problémákat, melyek kezeletlenül súlyosan visszavetik oldalunk elérését.