5 SEO hiba, amit érdemes elkerülni

Az átfogó digitális marketing elterjedésével a search engine optimization (SEO) némileg a pálya szélére került. Miért pazarolnánk az időt kulcsszavakra, címkékre és linkekre (csupa technikai dologra), miközben van lehetőség fizetett hirdetések, közösségi média és tartalom alkalmazására? Bár kissé elhanyagolják, a SEO továbbra is egyre fontosabb az oldal összesített teljesítményét tekintve. Éppen ezért következzen öt olyan SEO hiba, amit olykor még a profik is elkövetnek, pedig érdemes lenne elkerülni őket!

Folyamatosan fejlődni, hibák nélkül?

Az on-page és off-page optimalizálás erejét használva eljuttathatjuk az oldalunkat a következő szintre (pl.: növeljük a helyezést, elérünk több forgalmat, támogatja a konverziós arányt). A rossz hír az, hogy a SEO-t jól csinálni egyszerűbb elméletben, mint gyakorlatban. Egyre gyorsabban fejlődik és a Google is egyre több algoritmus frissítést bocsát ki.

Nehéz a csúcson maradni és a frissítéseknek megfelelően optimalizálni az oldalt. Természetesen a SEO szakértők igyekeznek felkészülni az elkövetkező változásokra és frissítésekre. De a valódi probléma az, hogy miközben attól félnek, hogy lemaradnak az újdonságokról, alapvető hibákat követnek el.

Ebben a cikkben 5 figyelmetlen, de káros SEO hiba következik, amit még a profik is gyakran elkövetnek. Minden áron próbáljuk elkerülni őket, különben ezek a hibák elronthatják az egész digitális marketing kampányt.

5 elkerülendő SEO hiba

1. A .htaccess helytelen használata

Aki SEO-ból él, valószínűleg hallott már a .htaccess-ről. Egyszerűen megfogalmazva ez egy konfigurációs fájl, amelyet egyedi irányelvek tárolására használnak, ezek blokkolják vagy hozzáférést biztosítanak a webhely dokumentum könyvtáraihoz.

Nem lehet eléggé kiemelni, hogy milyen fontos a .htaccess fájl. Ha ismerjük a használatát, a segítségével lehet:

  • elkészíteni egy kidolgozottabb sitemap-et
  • tisztább URL-eket generálni
  • javítani a cachelésen, hogy csökkentsük a betöltési időt

Röviden, a .htaccess egy elengedhetetlen eszköz a webhely indexelési folyamatának csiszolására, ideiglenes esetben egy magasabb SERP helyezés elérésére.

Azonban igazi profinak kell lenni ahhoz, hogy megfelelő módon be tudjunk állítani egy .htaccess fájlt. Egyetlen hiba is szörnyű következményekhez vezethet. Például teljesen blokkolhatjuk az oldalt az indexeléstől, valahogy így:

RewriteCond %{HTTP_USER_AGENT} ^Google.* [OR]
RewriteCond %{HTTP_USER_AGENT} ^.*Bing.*
RewriteRule ^/dir/.*$ – [F]

Ha ezeket a sorokat látjuk az oldal .htaccess fájljában, a kereső robotok nem fogják az oldalt felismerni és indexelni. Kérjünk meg egy webfejlesztőt a kód törlésére vagy tegyük meg magunk.

Minden projekt megkezdése előtt ellenőrizzük a .htaccess fájlt. Néhány SEO szakember úgy optimalizálja az oldalt hónapokig, hogy valójában minden erőfeszítésük haszontalan. Senki sem szeretne így járni.

2. Gátoljuk a keresőmotorokat a CMS-ben való indexelésben

A CMS platformok, mint például a WordPress, Joomla és Drupal eszközei veszélyeztethetik az optimalizálási erőfeszítéseket. Ezek az eszközök rendelkeznek olyan beépített funkciókkal, amelyekkel be lehet állítani, hogy ne nézze át a weboldalt. Egyszerűen csak be kell menni a beállításokba Settings → Reading → Discourage, hogy meggátoljuk a keresőmotorokat az oldal indexelésében. Csak ki kell pipálni a négyzetet és máris megtilthatjuk az indexelést, ami komoly bajt okozhat.

Hetente ellenőrizzük ezt a négyzetet. Végül is akinek van hozzáférése a CMS-hez véletlenül is rákattinthat a négyzetre, ami megkérdőjelezhetetlenül negatív hatással lesz a kampányra.

Megjegyzés: A keresőmotorok továbbra is beindexelhetik az oldalt, hiába van beállítva az ellenkezője. Tehát ha valóban szükség van az indexelés megszüntetésére, érdemesebb a .htaccess vagy a robots.txt fájlban megtenni.

3. A robots.txt fájl nyitva hagyása

Ez a legrosszabb SEO hiba. Tartsuk észben: sose hagyjuk nyitva a robots.txt fájlt, mert súlyos titoktartási problémákhoz vezethet. Az egész oldalt elveszíthetjük az adatok megsértésével.

Ha kezdők vagyunk, mindenképp fordítsunk elég időt a robots.txt fájl felállítására és kezelésére. Azonnal cselekedni kell, ha a robots.txt ellenőrzésénél ilyesmit észlelünk:

User-Agent: *
Allow: /

Ez azt jelenti, hogy a keresőmotorok elérhetnek és átfésülhetnek minden oldalt a weboldalon belül, még az admin, belépés, kosár és dinamikus oldalakat is (keresés és szűrés). A felhasználók oldalait tartsuk lezárva és védve. Senki sem szeretne büntetést kapni, amiért több tucat spam jellegű dinamikus oldallal rendelkezünk.

A lényeg az, hogy utasítsuk el azokat az oldalakat, amiket blokkolni kell és engedélyezzük azokat, amiket indexelni kell. Egyszerűnek tűnik, de időbe telik megtanulni.

4. Felejtsük el a “nofollow” címkejellemző hozzáadását a kimenő linkekhez

A SEO szakértők tudják, hogy a linkek továbbra is fontos rangsorolási faktornak számítanak. Sajnos csak a backlinkekre koncentrálnak és teljesen elfelejtik, hogy a saját oldaluk linkerőt bocsájtanak ki más oldalakra. Tehát magas minőségű backlinkeket kell használni, ezzel párhuzamosan azonban a linkerőt is a saját oldalunkon kell tartani.

Tehát a stratégia egyszerű:

  • Derítsük fel az oldalunkat egy szkennelő eszközzel (pl.: Xenu)
  • Szűrjük a linkeket cím alapján, hogy megtaláljuk a kimenőket
  • Készítsünk egy Excel fájlt, amiben felsoroljuk a kimenő linkeket (vagy töltsünk le egy általános HTML riportot)
  • Nézzünk át minden linket, ami a listában szerepel, hogy beépítsük a „nofollow” címkejellemzőt, ahol szükséges

Ez nem jelenti azt, hogy a “nofollow” címke megszállottjává kell válni. Ha minden linkerőt megtartunk magunknak, azt fogjuk elérni, hogy mások is ráteszik a nofollow-t a mi linkjeinkre. Röviden, ne bánjunk helytelenül vele.

5. Elmarad a kód helyességének ellenőrzése

A weboldal kódsorokból áll, így minél jobb ez a kód, annál magasabb szinten lesz a weboldal a SERP-ben. Ez azért lehetséges, mert az ápolt és tiszta kód lehetővé teszi, hogy a robotok jobban átfésüljék és beindexeljék az oldalt, anélkül, hogy egy oldalt is kihagynának.

Tehát minden alkalommal, mikor megbízást kapunk egy projektre és optimalizálni kell, először ellenőrizzük a kódot. Ehhez nem kell webfejlesztőnek lenni. Egyszerűen csak másoljuk be az oldal URL-jét a The W3C Markup Validation Service keresőjébe. Ezek után kérjünk meg egy webfejlesztőt a hibák kijavítására. Az alábbi kép egy tipikus érvényesítő jelentést mutat be:

5 SEO hiba, amit érdemes elkerülni

Bár a Google nem bünteti weboldalak azért, mert érvénytelen biteket tartalmaznak a HTML és CSS-ben, mégis jobb, ha lefuttatjuk az érvényesítő eszközt. Végül is nem telik sok időbe, de sokat javít az oldalon.

Következtetések

A keresőoptimalizálás folyamatosan változik és jelentős mennyiségű munkát kell belefektetni abba, hogy lépést tartsunk az új taktikákkal és algoritmus frissítésekkel. Bár a SEO kézben tartása nagy előny (kötelező, valójában), de ne feledkezzünk meg az alapvető dolgokról sem, ne sétáljunk be valamelyik SEO hiba csapdájába. Elvégre a meggondolatlan hibák a legkárosabbak.

Közzététel dátuma: