HOGYAN MŰKÖDNEK A KERESŐMOTOROK?

Kezdésként ne bonyolítsuk túl a dolgot. Keresőmotoroknak azokat a programokat hívjuk, amelyek egy adott felhasználói keresésre releváns válaszokat keresnek és jelenítenek meg, a mi esetünkben mindezt a World Wide Weben, vagyis a világhálón. Az oldalad kapcsán minden olyan munkát, ami azt a cél szolgálja, hogy ezeket a motorokat és a bennük kereső embereket jobban kiszolgáld minőségi találatokkal, azt keresőoptimalizálásnak (SEO) hívunk.

Jogos a kérdés ilyenkor: mekkora a szerepük az internetes keresőmotoroknak? A válasz egyszerű (és egyszerre ijesztő): nélkülük nem lehetne megtalálni egy webhelyet (és ezáltal a keresett információt sem), tehát a weboldalak egyszerű névjegykártyává silányulnának, amelyekre legfeljebb az akadna rá, akinek a kezébe nyomsz egy cetlit a kívánt URL-lel, vagy akinek elküldted azt korábban valamilyen digitális eszközzel.

És azt a tényt, hogy milyen fontos egy felhasználóbarát rendszer a mindennapokban, az bizonyítja, hogy a Google-t a saját jól felépített keresőmotorja és az annak találatait rangsoroló algoritmusok tették azzá, ami: piacvezető vállalkozás, 90% feletti részesedéssel, így az internet egyik legfontosabb szereplője.

A Google viszont csak 1997-ben jött létre (tehát négy évvel az első keresőmotor létrehozása után), ma már mégis ez a legnépszerűbb rendszer napi 3,5 milliárd kereséssel.

Hogy miért, azt később megtudhatod. De még mielőtt belemélyednénk a részletekbe, néhány fontos dolgot azért tisztázzunk!

A keresőmotoroknak két fő funkciója van:

  1. Feltérképezés és indexelés: a dokumentumok, oldalak, fájlok, hírek, videók és médiatartalmak milliárdjainak feltérképezése és indexelése a világhálón. A robotok – weboldalak millióit pásztázva – begyűjtik az információkat, majd az indexelő algoritmus elemzi és indexeli a találatokat, hogy azokat könnyebb legyen később megtalálni. Mindezt a háttérben, felkészülve arra, hogy a keresőmotor teljesíthesse következő funkcióját.
  2. Az adott keresésre történő válaszok nyújtása: a rendszer rangsorolt honlap listát jelenít meg a különböző keresésekre, legtöbbször a felhasználó által már összegyűjtött és relevancia alapján rangsorolt oldalak listája által.

Nézzük, hogy ez mit jelent a valóságban!

1. FELTÉRKÉPEZÉS ÉS INDEXELÉS

Ez a példa tetszeni fog, mert segít könnyebben megérteni a lényeget. Egy keresőmotor úgy viselkedik, ahogy a szigorlatra készülő diák: csak arra a kérdésre tud érdemben válaszolni, amivel kapcsolatban korábban megszerezte a tudásanyagot, tehát szükség van az adott téma előzetes feltérképezésére és a tartalom befogadására (indexelésére).

A keresésekre adott találat összegyűjtése és rendszerezése ugyanis nem real-time történik, tehát nem az adott keresést követő pillanatokban. A keresőmotor ugyanúgy felkészül, ahogy a lelkiismeretes diák is teszi.

Most képzeld el az internetet úgy, mint egy terebélyes nagyvárosi metrórendszer szétszórt megállóit, ahol minden megálló egy egyedi dokumentum (általában egy weboldal, de néha lehet egy fájl, például .pdf vagy .jpg). A keresőmotoroknak (még a legkifinomultabbaknak is) szükségük van arra, hogy jó előre feltérképezzék az egész várost, és – jóval a rendes üzem, tehát a tényleges felhasználói keresés előtt – megtalálják az összes megállóhelyet az út mentén.

Ehhez a legjobb elérhető utat használják: a hivatkozásokat.

Az internet hivatkozási struktúrájának az a feladata, hogy a honlapok összeköttetését biztosítsa, épp úgy, ahogy a metrórendszer alagútjai összekötik a megállókat. A linkek lehetővé teszik, hogy a keresőmotorok automatizált robotjai (más néven a crawlerek) eljuthassanak a több milliárd egymással összekapcsolt tartalomhoz a neten.

Miután a keresőmotorok megtalálják ezeket az oldalakat és dokumentumokat, először értelmezik a kódot (vagyis felismerik azt, hogy melyik metrómegállónál járnak), majd a kiválasztott részeket hatalmas adatbázisokba rendszerezik, ahonnan ezeket a későbbi kereséseknél előhívhatják a felhasználók.

A feltérképezésre és indexelésre a hatékonyság és a gyorsaság miatt van szükség. Amikor valaki a fő keresőmotorok egyikén keresési parancsot ad meg, akkor azonnali eredményt vár, és már egy néhány másodperces késés is elégedetlenséghez vezethet, ezért a keresőmotorok keményen dolgoznak azért, hogy a lehető leggyorsabban válaszoljanak.

Ahhoz, hogy a keresőmotorok teljesíteni tudják a kihívást jelentő feladatot, honlapok milliárdjainak kell elérhetőnek lenni a másodperc töredéke alatt. Az internetes keresésekkel foglalkozó cégek ezért szerte a világon adatközpontokat hoztak létre: ezekben a hatalmas helyiségben több ezer olyan számítógép található, amelyek óriási mennyiségű információt képesek nagyon gyorsan feldolgozni.

A weboldalak feltérképezése és indexelése folyamatos tevékenység, így az új tartalmak gyorsan bekerülhetnek a keresőmotorok gyűjteményébe.

2. A TALÁLATI LISTA, AVAGY A VÁLASZOK A KÉRDÉSEINKRE

A keresőmotorok tehát a keresési parancsot követően nem magát az internetet, hanem saját, több milliárd dokumentumot tartalmazó gyűjteményüket fésülik át:

  • először csak megkeresik azokat az oldalakat, amelyek relevánsak vagy hasznosak a keresés szempontjából;
  • majd ezeket az eredményeket az információkat nyújtó webhelyeket népszerűségük szerint rangsorolják.

A keresőoptimalizálás folyamata arra szolgál, hogy az adott webhely érdekében hatékonyan befolyásolhassuk a relevanciát és a népszerűséget. Másképp mondva: a saját céljainknak megfelelően segítjük a keresőmotorok munkáját.

Maradjunk a metrós példánknál:

  • jól láthatóan kiírjuk a metrómegálló nevét
  • biztosítjuk a többi megállóval történő (folyamatos) kapcsolatot
  • térképeken mutatjuk meg, hol helyezkedünk el
  • segítjük az állomáson belüli közlekedést
  • és persze esztétikus külsővel tesszük vonzóvá a fel- és leszállást

HOGYAN HATÁROZZÁK MEG A KERESŐK A RELEVANCIÁT ÉS A NÉPSZERŰSÉGET?

Egy keresőmotor szemében a relevancia nem csak azt jelenti, hogy egy weboldal tartalmazza-e a megfelelő kulcsszavakat. Tény és való, hogy az internet történetének korai szakaszában a robotok leginkább erre a szempontra figyeltek, hiszen így viszonylag egyszerűen választ adhattak a keresési parancsokra. A hiányosságok és a visszaélések miatt viszont az eredmények csak korlátozott értékeket képviseltek.

Az évek során a fejlesztők ezért ennél jobb és hatékonyabb módszereket dolgoztak ki azért, hogy az eredményeket a felhasználók lekérdezéseihez igazítsák, vagyis személyre szabják azokat. A relevanciára ma már több száz tényezőnek van hatása, és a legfontosabbakat most meg is mutatjuk.

Lássuk!

A keresőmotorok jellemzően azt feltételezik, hogy minél népszerűbb egy webhely, oldal vagy dokumentum, annak annál értékesebb a tartalma. Ez a feltételezés eddig helyesnek bizonyult a felhasználók keresési eredményekkel való elégedettségének mérése alapján.

A népszerűség és a relevancia meghatározásához a keresőmotorok matematikai egyenleteket (vagyis algoritmusokat) alkalmaznak, hogy a minőségi tartalmakat szétválasszák a bóvlitól (relevancia), majd a minőséget figyelembe véve rangsorolják a különböző tartalmakat (népszerűség).

Ezek az algoritmusok gyakran több száz változót használnak, és a keresőmarketing területén „rangsorolási tényezőkként” hivatkozunk rájuk (bővebb információért lásd a Moz segédanyagát: Search Engine Ranking Factors).

HOGYAN LEHET VALAKI SIKERESEBB A KERESŐMARKETINGBEN?

A keresőmotorok bonyolult algoritmussal dolgoznak, és a külső szemlélők csak kevés betekintést kaphatnak ezeknek a rendszereknek a működésébe. Ezért nehéz biztosra mondani, hogy mivel érhetünk el jobb eredményt vagy nagyobb forgalmat.

Google Webmaster útmutatójából viszont fontos dolgokat tudhatsz meg, ha jobb rangsorolást szeretnél elérni a piacvezető rendszer keresőmotorjában:

  1. Az oldalak elsősorban a felhasználóknak készüljenek, és ne a keresőmotoroknak. Ne téveszd meg a felhasználókat, és ne jeleníts meg más tartalmat nekik, mint amit a keresőmotoroknak. Ezt a gyakorlatot gyakran „álcázásnak” nevezik, de hiába menő az elnevezés, annak alkalmazását akkor sem javasoljuk.
  2. Olyan weboldalt készíts, amelynek átlátható a felépítése, és ami szöveges linkeket tartalmaz. Legyen minden aloldal elérhető legalább egy állandó szöveges linkről.
  3. Hasznos, információkban gazdag honlapod legyen, és olyan aloldalakat készíts, amelyek világosan és pontosan leírják a tartalmadat. Győződj meg róla, hogy a <title> elemek és az alt attribútumok kifejezők és hitelesek.
  4. Használj kulcsszavakat a kifejező, felhasználóbarát hivatkozások létrehozásához. Az oldalra irányító URL egy verzióját készítsd el 301 átirányítással vagy a rel=”canonical” attribútummal, amely a duplikált tartalom kezelésére szolgál.

A Bing fejlesztői (a Bing Webmaster útmutatójában) a következő tanácsokat adják azoknak, akik jobb rangsorolást szeretnének kapni a Microsoft keresőmotorjától:

  1. Győződj meg arról, hogy az URL-struktúra átlátható és kulcsszavakban gazdag.
  2. Győződj meg róla, hogy a tartalmad nem multimédiás tartalmak alatt van (például Adobe Flash Player, JavaScript, Ajax) és ellenőrizd, hogy a multimédiás tartalmak nem rejtenek-e el linkeket a feltérképezést végző robotoktól.
  3. Hozz létre kulcsszavakban gazdag tartalmat, és ezek a kulcsszavak illeszkedjenek a felhasználók kereséseihez. Készíts rendszeresen friss és releváns tartalmakat.
  4. Ne tedd képen belülre azt a szöveget, amit indexeltetni szeretnél.

Az elmúlt 20 évben – amióta online keresés létezik – a szakértők több módszert is kidolgoztak arra, hogy hogyan lehet megismerni a keresőmotorok titkos rangsorolási technikáját. Mondanunk sem kell, hogy milyen sokat jelenthet a keresőoptimalizálási munkában az, hogy ezek a paraméterek megismerhetők, hiszen a kapott információk felhasználásával hatékonyan segíthetjük a webhelyek jobb pozicionálását.

Bizonyos erőfeszítéseket a keresőcégek is támogatnak: fejlesztőik nemcsak útmutatókat készítenek, de alkalmanként közvetlenül is segítik az online blogok és fórumok webmestereinek munkáját, valamint a jelentősebb szakmai konferenciákon (Search Marketing Expo, Pubcon, Search Engine Strategies, Distilled vagy MozCon) az összes nagy keresőmotor képviselői felbukkannak.

KÍSÉRLETEZZ!

A keresőmotorok tevékenységét kutató szakértők ismétlődő, fáradságos munkával szerzik be a tudásukat a motorok működéséről. Hogy értsd, miről is van szó, most bemutatunk egy általunk is kipróbált módszert arra, hogyan fejtheted vissza a keresőmotorok szempontrendszereit és paramétereit:

  1. Regisztrálj egy új webhelyet értelmetlen kulcsszavakkal (például ishkabibbell.com).
  2. Hozz létre aloldalakat ezen a webhelyen, és mindezt célozd egy hasonlóan nevetséges kifejezésre (pl. yoogewgally).
  3. Fontos, hogy az oldalak egyformák legyenek, valamint egyszerre csak egy változót változtass. Kísérletezz a szöveg elhelyezésével, a formázással, a kulcsszavak használatával és a linkstruktúrákkal.
  4. Készíts domainre mutató linkeket más indexelt, már jól feltérképezett oldalakról.
  5. Jegyezd fel az oldalak rangsorát a keresőmotorokban.
  6. Ha ezzel megvagy, végezz kisebb módosításokat az aloldalakon, és értékeld azok hatását a keresési eredményekre. Ez azért fontos, mert így meg tudod határozni azt, hogy mely tényezők befolyásolják egy találat jobb vagy rosszabb helyezését a többihez képest.
  7. Dokumentáld az eredményeket, és írj fel minden paramétert, ami hatásosnak tűnik, majd teszteld azokat újra más domainen vagy más kifejezésekkel. Ha több teszt folyamatosan ugyanazokat az eredményeket hozza, akkor valószínű, hogy felfedeztél egy, a keresőmotorok által használt mintázatot.

Saját kutatásunkat azzal a feltételezéssel kezdtük, hogy egy korábban megjelenő (a lap felső részéhez tartozó) hivatkozást a keresőmotor nagyobb súlyúnak értékel, mint a lap alsó részén elhelyezkedő linket.

Hogyan teszteltük le ezt a feltételezést?

Úgy, hogy létrehoztunk egy értelmetlen domaint egy főoldallal, amely három külső oldalra mutató linket tartalmazott. A három külső oldalon pedig egy hasonlóan értelmetlen szó jelent meg, minden oldalon ugyanaz. Miután a keresőmotorok feltérképezték a külső oldalakat, azt az eredményt kaptuk, hogy az oldal legfelső részéhez tartozó link jelenik meg elsőként a találati listában.

A halandzsa domainekkel való kísérletezés és élő tesztelés, valamint a szabadalmi elemzés segítségével a szakértők végül meg tudták érteni a keresőmotorok alapvető műveleteit és a weboldalak létrehozásának azon kritikus elemeit, amelyek magas rangsorolást és jelentős forgalmat generálnak.

Ennek az útmutatónak a hátralévő része ebbe segít bepillantást nyerni.

Jó szórakozást kívánunk hozzá!

HOGYAN KOMMUNIKÁLNAK AZ EMBEREK A KERESŐMOTOROKKAL?

Mit gondolsz, mi az egyik legfontosabb elem a keresőoptimalizálásra fókuszáló online marketingstratégiában? A helyes válasz: a célközönséged felé irányuló empátia.

Meglepődtél? Mindjárt megérted, hogy mire gondolunk (és hogy az miért olyan fontos)! Ha ugyanis pontosan tudod, hogy a célpiacod mit keres, akkor hatékonyabban tudod elérni és megtartani a potenciális vásárlókat. Mi azt szoktuk mondani, hogy „a felhasználóknak készíts weboldalt, ne pedig a keresőmotoroknak”, hiszen csak ez a hosszú távú stratégia vezethet eredményre.

Nem árt, ha azt is tudod, hogy háromféle fő keresési lekérdezés létezik:

  • „Do” tranzakciós keresések. Amikor valamit csinálni akar a felhasználó, például egy dalt akar meghallgatni vagy repülőjegyet szeretne megvásárolni.
  • Know” információs keresések. Amikor a felhasználónak információra van szüksége, például egy zenekar nevére vagy Budapest legjobb éttermére kíváncsi.
  • „Go” navigációs keresések. Amikor a felhasználó az internet egy bizonyos pontjára szeretne menni, például egy sport- vagy híroldalra.

Bár a keresőmotorok sokat fejlődtek az elmúlt években, a keresés folyamatának fő alapelvei változatlanok maradtak. A legtöbb keresési folyamat során nagy vonalakban valami ilyesmi történik:

  • a felhasználó ráébred, hogy információra van szüksége az adott témában
  • az igényét szavakká és kifejezésekké (vagyis lekérdezésekké) alakítja
  • beírja a keresendő kifejezést egy keresőmotorba
  • a találatok eredményeiből pedig kiválaszt egy hivatkozást és rákattint

A keresési folyamat ennél a résznél válik összetetté, ha ugyanis a felhasználó nem elégedett a kapott eredménnyel, akkor vagy visszatér a keresési eredményekhez, hogy másik linkre kattintson, vagy új keresést végez bizonyos finomításokkal.

Az egymillió forintos kérdés pedig a következő: amikor a látogatók beírják a kulcsszavakat vagy kulcskifejezéseket a keresőmezőbe, és végül a te weboldaladon landolnak, akkor vajon elégedettek lesznek-e azzal, amit találnak?

A keresőmotorok az ilyen és ehhez hasonló kérdésekre naponta több milliárd alkalommal próbálnak válaszolni, és a robotok elsődleges felelőssége is az, hogy megfelelő eredményeket szolgáltathassanak a felhasználóknak. Ha sikereket szeretnél elérni, akkor először kérdezd meg magadtól, hogy mit keresnek a célközönséged tagjai, és győződj meg róla, hogy a weboldalad azt kínálja-e számukra.

MIÉRT VAN SZÜKSÉG A KERESŐOPTIMALIZÁLÁSRA?

Hiába minden kifinomultság és intelligencia, a keresőmotorok még most sem képesek arra, hogy úgy tekintsenek a weboldalakra, ahogyan azt egy ember teszi. A keresőoptimalizálás abban segít, hogy a keresőmotor robotjai elérhessék a weboldalakat, és hogy azok megérthessék miről szól, és hogyan lehet hasznos a felhasználók számára.

Gyakran hallunk ilyen kijelentéseket:

Egyetlen értelmes mérnök sem fejlesztene olyan keresőmotort, amely elvárja a weboldalaktól bizonyos szabályok vagy elvek követését annak érdekében, hogy rangsorolva vagy indexelve legyenek. Akinek egy kis esze van, az olyan rendszert szeretne, amely képes bármilyen szerkezetű oldalt feltérképezni, bármilyen összetett vagy tökéletlen kódot elemezni, és mégis mindig megtalálni a módját a legrelevánsabb eredmények kigyűjtésének, azok helyett a találatok helyett, amelyeket hiteltelen keresőmarketing-szakértők optimalizáltak.

Egy pillanatra álljunk meg, mert sokan tévedésben vannak!

Képzeld el, hogy feltöltöttél az internetre egy képet a család kutyájáról. Egy ember úgy írná le a házi kedvencet, mint egy fekete, közepes méretű kutya, ami úgy néz ki, mint egy labrador, ahogy a parkban játszadozik. Életszerű, emberszerű, még érzelmi töltete is van.

De vajon mit látna ilyenkor egy keresőmotor? Hogyan érthetné meg a kép tartalmát egy robot, és miképp tudná ilyen kifinomult módon definiálni?

A SEO az, ami lehetővé teszi a webmestereknek, hogy apró jeleket és utalásokat készíthessenekamiket a motorok aztán a tartalom megértéséhez felhasználhatnak.

A keresőmotorok képességeinek és korlátjainak megértése lehetővé teszi, hogy megfelelően építsd, formázd és kommentárokkal lásd el a weboldalad tartalmát, úgy, hogy az a keresőmotor számára is könnyen emészthető legyen.

Szögezzük le, mert fontos: keresőoptimalizálás nélkül a weboldal láthatatlan lehet a keresőmotorok számára.

MIÉRT KELL PÉNZT ÉS IDŐT SZÁNNOD A KERESŐOPTIMALIZÁLÁSRA?

Mit szólnál hozzá, ha erre a kérdésre a keresőmotorokat vizsgáló szakértői tanulmányok válaszolnának?

A 2017. december és 2018. december közötti időszakot vizsgáló statcounter GlobalStats szerint:

  • A Google világviszonylatban már nemcsak piacvezető, de szinte egyeduralkodó is, hiszen a piac több mint 95 százalékát uralja.
  • A többi szűk 5 százalékon osztozik a Bing, a Yahoo!, a Baidu és az egyebek.
  • A Google részesedése már az Egyesült Államokban is megközelíti a 90 százalékot. A Bing 5 százalék felett járt a vizsgált időszak elején, de rontott a teljesítményén. Stagnál a Yahoo! és a többi kereső.

Statista adatai szerint:

  • az online marketingköltések 2017-ben átlépték a 200 milliárd dolláros határt,
  • és 2020-ban valahol 330-340 milliárd között lesznek.

Az Internet World Stats szerint:

  • a Föld lakosságának (7,635 milliárd fő) 55,1 százaléka használ internetet,
  • a legnagyobb arányban Észak-Amerikában (95 százalék) és Európában (85 százalék),
  • a legtöbben Ázsiában (49 százaléka a nethasználóknak, több mint 2 milliárd ember),
  • 2000 és 2018 között pedig 1066 százalékkal nőtt a nethasználók száma.

A Burke régebbi, 2011-es jelentése szerint a keresés az új telefonkönyv. A válaszadók 76 százaléka használt keresőmotorokat a helyi üzletekkel kapcsolatos információk megtalálásához; többen, mint azok, akik nyomtatott telefonkönyvekhez fordultak segítségért.

A Slingshot SEO szintén régebbi, még 2011-es tanulmánya az átkattintási arányokat is rangsorolta:

  • A Google keresési találatai között elsőként megjelenő oldal az átkattintásos forgalom 18,2 százalékát kapta.
  • A második helyen lévő 10,1 százalékot, a harmadik 7,2 százalékot, a negyedik 4,8 százalékot, az összes többi pedig 2 százalék alatti forgalmat kapott.
  • A Bing keresési eredményeinek első pozíciója átlagosan 9,66 százalékos átkattintási arányt eredményezett.
  • Az első tíz eredmény kumulált átlagos átkattintási aránya 52,32 százalék volt a Google és 26,32 százalék a Bing esetében.

Mit tudtunk meg ezekből az adatokból? Kiderült, hogy:

  • Világszerte rohamosan nő az internetet használók száma, és ezek többsége a Google keresőjét használja.
  • A netes keresés maga is rendkívül népszerű, és annak volumene folyamatosan emelkedik. Aki ezt uralja, az a világ szinte minden emberéhez eljuthat.
  • A keresés hihetetlen mennyiségű online és offline gazdasági tevékenységet eredményez.
  • Az első néhány találat esetében a magasabb rangsor kritikus fontosságú a láthatóság szempontjából. A felhasználók szemét a találati lista eleje vonzza, azon belül is inkább az organikus eredmények (User Centric, 2011).
  • A találati lista elején lenni nemcsak nagyobb forgalmat, hanem nagyobb megbízhatóságot is eredményez.

Ha te is szeretnéd kihasználni a SEO-ban rejlő lehetőségeket, és a céljaidat az online forgalom erősítésével akarod elérni, akkor a keresőoptimalizálás alapjainak megismerése létfontosságú lépés.

A KERESŐMOTOR-TECHNOLÓGIÁK HATÁRAI

A legjobb keresőmotorok azon az elven működnek, amit az 1. fejezetben leírtunk: az automatizált keresési botok feltérképezik a webet, követik a linkeket, majd indexelik a tartalmat a hatalmas adatbázisokban.

A mesterséges intelligenciának azonban vannak határai, és a modern keresési technológia (még) nem mindenható. Számos technológiai korlát van, amelyek mind a befogadás, mind pedig a rangsorolás terén problémákat okozhatnak.

Az alábbiakban a leggyakoribbakat soroljuk fel:

PROBLÉMÁK A FELTÉRKÉPEZÉSNÉL ÉS INDEXELÉSNÉL

  • Online űrlapok. A keresőmotorok nem alkalmasak az online űrlapok (például a bejelentkezés) kitöltésére, így a mögöttük található tartalom rejtve maradhat.
  • Duplikált oldalak. A CMS-rendszert használó webhelyek gyakran ugyanannak az oldalnak a duplikált változatait hozzák létre; ez egy komoly probléma a teljesen eredeti tartalmakat kereső robotok számára.
  • Letiltás a kódon belül. A hibák a weboldal feltérképezési utasításaiban (robots.txt) a keresőmotorok teljes blokkolásához vezethetnek.
  • Gyenge hivatkozási struktúrák. Ha egy webhely linkszerkezete nem érthető a keresőmotorok számára, akkor előfordulhat, hogy azok nem férnek hozzá a weboldal összes tartalmához; vagy ha feltérképezték azt, akkor a minimálisan megjelenített tartalmat a kereső indexelése alapján jelentéktelennek minősíthetik a robotok.
  • Nem szöveges tartalom. Bár a motorok egyre jobbak a nem HTML-szövegek olvasásában, a multimédiás tartalmak elemzése még mindig nehézséget jelent nekik. Ez magában foglalja Flash-fájlokban, képekben, fotókban, videókban, hangfájlokban és plug-in tartalmakban lévő szövegeket.

PROBLÉMÁK A KERESÉSEK TARTALOMHOZ VALÓ ILLESZTÉSÉNÉL

  • Nem gyakori kifejezések. Olyan szöveg, amely nem azokat az általános kifejezéseket használja, amikre az emberek rákeresnek. Például a tartalom egy „élelmiszerhűtő egységről” szól, miközben az emberek valójában a „hűtőszekrény” kulcsszóra keresnek rá.
  • Nyelvi globalizáció és annak finomságai. Csak a legismertebb példa: „color” vagy „colour”, illetve hogyan írod magyarul egy mexikói ételkülönlegesség nevét. Ha kétségeid vannak, ellenőrizd, hogy mire keresnek az emberek, és pontos odaillő szavakat használj a tartalmadban.
  • Helytelen földrajzi célzás. Például a tartalom célzása lengyel nyelven történik meg, miközben a webhely látogatóinak többsége Japánból származik.
  • Vegyes kontextuális jelek. Ha egy blogbejegyzés címe „Mexikó legjobb kávéja”, de a poszt maga egy olyan kanadai üdülőhelyről szól, ahol jó kávét lehet kapni, az problémákat okozhat. Ezek a vegyes üzenetek félreérthető, zavaros jeleket küldenek a keresőmotoroknak.

GYŐZŐDJ MEG RÓLA, HOGY A TARTALMAIDAT LÁTNI FOGJÁK

Fontos szerepet kap egy honlap életében a keresőbarát webes fejlesztés technikai részleteinek helyes elvégzése, de miután az alapok megvannak, a tartalmadat még el is kell tudnod adni.

Viszont a keresőmotoroknak önmagukban nincsenek képleteik a webes tartalom minőségének felmérésére, és ehelyett a keresési technológia a relevancia és fontossági mutatókra támaszkodik. A keresőmotorok ezeket a mutatókat úgy mérik, hogy lekövetik, mit csinálnak az emberek: mit fedeznek fel, hogyan reagálnak, mit kommentelnek és milyen linkekre kattintanak tovább.

Tehát nem csak tökéletes webhelyet kell készítened és nagyszerű tartalmakat kell írnod; de azt is el kell érned, hogy a tartalmat sokan megosszák és beszéljenek róla.

A KERESŐMOTOROK ÉS A VERSENY

Vess egy pillantást bármely kereső találati oldalára, és megtalálod a választ, hogy miért lesz még a keresőoptimalizálásnak hosszú és egészséges élete.

A keresési találatok egy-egy oldalán átlagosan tíz pozíció található. Az ezeket a pozíciókat betöltő oldalakat a keresőmotor rangsor szerint rendezi: minél magasabban van az oldal a találati oldalon, annál jobb az átkattintási arány és a képesség a felhasználók bevonzására.

Az első, második és a harmadik pozíció eredményei sokkal nagyobb forgalmat kapnak, mint az oldal lentebbi találatai, és jelentősen többet a következő oldalakon található eredményeknél.

A tény, hogy ilyen rövid listára ennyi figyelem koncentrálódik, azt eredményezi, hogy mindig lesz pénzügyi ösztönzés a keresőmotorok rangsorolására. Attól függetlenül, hogy a keresés hogyan változik a jövőben, a webhelyek és a vállalkozások folytatni fogják a versenyt egymással ezért a figyelemért, valamint a felhasználói forgalomért és márka láthatóságért.

FOLYAMATOSAN VÁLTOZÓ SEO

Amikor az 1990-es évek közepén a keresőoptimalizálás megjelent, a kézi bevitel, a meta title, meta description és a kulcsszavak (keyword-ök)  kitöltése még rendszeres részei voltak azoknak a taktikáknak, amelyekkel jó helyezést lehetett elérni a rangsorban.

2004-ben a horgonyszövegekkel való linkbombázást, a nagy mennyiségű linkvásárlást és a linkfarmok építését is ki lehetett használni a forgalom növelésének érdekében. 2011-ben a közösségimédia-marketing és a vertikális keresés alkalmazása tartozott az alapvető módszerek közé, de a SEO evolúciójával párhuzamosan a keresőmotorok is finomítottak az algoritmusukon, így sok olyan taktika, amely 2004-ben működött, ma már nem tesz jót a keresőoptimalizálásnak, sőt, Google-büntetéseket hozhatnak a nyakunkra.

A jövő bizonytalan, és a keresés világában a változás állandó. Ezért a keresőmarketing továbbra is kiemelt fontosságú lesz azok számára, akik versenyképesek szeretnének maradni az interneten. Egyesek azt állítják, hogy a SEO halott, vagy hogy egyenlő a spammel, viszont tisztán látható, hogy a webhelyek versenyeznek a figyelemért és a keresőmotorokban elért helyezésekért. Akiknek a tudása és tapasztalata segít a webhelyük rangsorának javításában, kiélvezhetik a nagyobb forgalom és a láthatóság előnyeit.

A KERESŐOPTIMALIZÁLT DESIGN ÉS -FEJLESZTÉS ALAPJAI

Bármennyire is kifinomult rendszer egy keresőmotor, annak korlátozott lehetőségei vannak az internet feltérképezése és egy weblap tartalmának értelmezésére.

Ebben a részben a weboldalak felépítésének (vagy módosításának) speciális technikai szempontjaira összpontosítunk, hogy mind a keresőmotorok, mind a felhasználók megfelelőnek találják a végeredményt.

Oszd meg a cikk ezen részét a fejlesztőddel és a grafikusoddal, hogy a weboldalad létrehozásában részt vevő felek mind ugyanazért a célért dolgozzanak!

INDEXELHETŐ TARTALOM

Ahhoz, hogy a weboldalad jobban teljesíthessen a keresőmotorok ranglistáján, a legfontosabb tartalomnak HTML text formátumúnak kell lennie. A keresőrobotok ugyanis sokszor figyelmen kívül hagyják (ritkábban értéktelennek minősítik) a képeket, flash-fájlokat, Java-kisalkalmazásokat és más nem szöveges tartalmakat, annak ellenére, hogy a feltérképezési technológiák sokat fejlődtek az elmúlt években, és ezeket is nagyon jó eséllyel értik meg.

A legegyszerűbb módja annak, hogy a keresőmotorok is lássák a látogatók számára megjelenített szavakat és kifejezéseket, az az, ha elhelyezed őket az oldalad HTML-szövegében. Azonban fejlettebb módszerek is a rendelkezésedre állnak, ha jobb formázási vagy vizuális megjelenítési stílusokat szeretnél:

  1. Írj alt texteket a képekhez. Minden .gif, .jpg, .png fájlhoz töltsd ki az alternatív szöveg mezőt, hogy a feltérképezést végző robotok azonnal és könnyen megérthessék a kép tartalmát.
  2. Egészítsd ki a menüket navigációval és feltérképezhető hivatkozásokkal. Például javaslom a breadcrumb (morzsamenü)  használatát is.
  3. Egészítsd ki a Flash vagy Java plug-in-eket szöveggel az oldalon, ha az előbbiek használata elkerülhetetlen.
  4. Adj meg egy átiratot a videó- és audiótartalomra, ha szeretnéd, hogy a használt szavakat és kifejezéseket indexeljék a keresőmotorok.

HOGYAN LÁTJÁK A WEBOLDALADAT A KERESŐK?

A webhelyek egy részének jelentős problémái vannak az indexelhető tartalmakkal kapcsolatban, ezért megéri dupla ellenőrzést végezni az olyan eszközök használatával, mint a Google cache, a SEO-browser.com vagy a MozBar. Ezekkel ellenőrizheted, hogy a tartalom mely elemei láthatók és indexelhetők a keresőmotorok számára.

A weblapod vizsgálatakor viszont ne csak a szöveges tartalmakat ellenőrizd, hanem a SEO-eszközöket is használd arra, hogy megnézd a honlapod (al)oldalai láthatók-e a motorok számára. Ez vonatkozik a képekre, és ahogy az alábbiakban is látni fogjuk, a linkekre is.

A feltérképező robotoknak nem csak látniuk kell a tartalmat ahhoz, hogy egy oldal bekerüljön a kulcsszó alapú indexeik közé, de először is észlelniük kell az arra mutató linkeket ahhoz, hogy egyáltalán megtalálják a tartalmat. A feltérképezhető linkstruktúra – az egyik, amely lehetővé teszi a robotok számára a webhelyek útvonalainak megtekintését – kulcsfontosságú ahhoz, hogy a keresőmotorok megtalálják a webhelyen található összes aloldalt.

Triviálisnak tűnhet, mégis több százezer webhely követi el ezt a kritikus hibát, így a keresőmotorok nem férnek hozzá a weboldalhoz, és az adott honlap képtelen megjelenni a keresőmotor indexeiben.

Az előbbiek szerint a Google keresőrobotja eléri az A oldalt, és ott a B és az E oldalakra mutató linkeket lát. Habár a C és D fontos oldalak lehetnek a webhelyen, a robotnak nincs módja elérni őket (vagy egyáltalán tudni a létezésükről). Ennek az az oka, hogy nincsenek közvetlen, feltérképezhető linkek, amelyek a C és a D oldalakra mutatnának. A Google szemében ezek tehát nem léteznek. A kiváló tartalom, a jó kulcsszóválasztás és az okos marketing sem képes segíteni akkor, ha a robotok nem tudják elérni az oldalakat.

A LINK FELÉPÍTÉSE

A weboldalon szereplő, kattintható <link> tag két dokumentumot kapcsol össze azáltal, hogy a hivatkozásra kattintva egyik oldalról a másikra juthatsz. A link a böngészőknek és a keresőmotoroknak nyújt elengedhetetlen információt, és ezek a hivatkozások az internet eredeti navigációs elemei – ismertebb nevükön ők a hiperhivatkozások.

Egy HTML dokumentumban az <a> és az </ą> közötti információval definiálhatsz linkeket, a böngésző pedig a nyitó és záró tag közötti részt nyitja majd meg (akár új lapon vagy új ablakban).

A link hivatkozási helye tájékoztatja a böngészőt (és a keresőmotorokat) arról, hogy a link hová mutat, alkalmazásával pedig a hivatkozás láthatóvá és kattinthatóvá válik a felhasználóknak is. A felhasználók által látott részt (amit általában kékkel és aláhúzással jelölnek a weboldalak) a SEO területén horgonynak nevezik, és az így néz ki egy általános példán keresztül:

példa

Ez a linkek legegyszerűbb formátuma, és a keresőmotorok is ezt értik meg a legkönnyebben. A robotok tudják, hogy ezt a linket hozzá kell adniuk a saját hivatkozáshálózatukhoz, valamint használniuk kell a kereséstől függő változók kiszámításához (lásd a Google PageRank) és követniük kell azt, hogy a hivatkozott oldal tartalmát indexelni tudják.

NÉZZÜNK MEG NÉHÁNY OKOT, AMI A HONLAPOK ELÉRHETETLENSÉGÉT OKOZHATJA

  1. Kitöltést igénylő űrlapok

Ha a felhasználóknak egy bizonyos tartalom elérése előtt ki kell tölteniük egy online űrlapot, akkor a robotok nem fogják látni a kitöltés után elérhető, védett oldalakat. Ilyenek lehetnek a jelszavas bejelentkezések vagy a kérdőívek. A keresőrobotok általában nem próbálják meg ilyenkor kitölteni az űrlapokat, így minden olyan tartalom vagy link, amely egy űrlapon keresztül érhető el, láthatatlan marad a keresőmotorok számára.

  1. Linkek az elemezhetetlen JavaScriptben

Ha a hivatkozásokhoz JavaScriptet használsz, akkor előfordulhat, hogy a keresőmotorok nem térképezik fel vagy csak kevéssé súlyozzák a beágyazott linkeket. A JavaScriptet normál HTML-linkeknek kell helyettesíteniük minden olyan oldalon, amelyet szeretnél, hogy a robotok feltérképezzenek.

  1. Olyan hivatkozások, amelyek a Meta Robots címke vagy a robots.txt által blokkolt oldalakra mutatnak

A Meta Robots címke és a robots.txt fájl egyaránt lehetővé teszi egy webhely tulajdonosának, hogy korlátozzák a keresőrobotok hozzáférését egy oldalhoz. Sok webmester szándékosan használta ezeket az irányelveket, hogy megpróbálja megakadályozni a számára haszontalan feltérképező robotok hozzáférését, viszont ezzel a keresőmotorokat arra késztették, hogy azok leállítsák az adott honlap feltérképezését.

  1. Frame vagy iframe

Technikailag mind a frame-ekben, mind az iframe-ekben lévő hivatkozások feltérképezhetők, de mindkettő strukturális problémákat vet fel a keresőmotorok számára a rendszerezés és a követés szempontjából. Hacsak nem vagy tapasztalt felhasználó, aki megfelelő technikai ismeretekkel rendelkezik a keresőmotorok indexeléséről és a frame-eken belül lévő linkek követéséről, akkor az a legjobb, ha távol maradsz tőlük.

  1. A robotok nem használják a keresőmezőket

Bár ez közvetlenül a korábban már említett űrlapokra vonatkozik, mégis gyakori probléma, ezért érdemes külön is említést tenni róla. Egyes webmesterek úgy gondolják, hogy ha keresőmezőt helyeznek el a webhelyükön, akkor a keresőmotorok mindent megtalálhatnak, amire a látogatók keresnek. Sajnos a robotok nem végeznek el kereséseket a tartalom megtalálásához, így végül több millió oldal marad elérhetetlen és ismeretlen, egészen addig, amíg egy már feltérképezett oldal nem hivatkozik majd az oldalra.

  1. Hivatkozások Flash-en, Java-n és más plugineken belül

Ha a webhelybe ágyazott linkeket egy keresőrobot nem tudja elérni a webhely szerkezetén keresztül, akkor azok láthatatlannak tűnnek majd a keresőmotor előtt, és a felhasználók kereséseire sem jelennek meg a találati listában.

  1. Linkek több száz vagy több ezer linkkel rendelkező oldalakon

A keresőmotorok csak bizonyos mennyiségű linket fognak feltérképezni az adott oldalon a spamelés csökkentése érdekében. Azoknál az aloldalaknál, amelyekről több száz hivatkozás mutat kifelé, fennáll az esélye annak, hogy hivatkozásaik egy része végül feltérképezetlen marad és a mögöttük lévő tartalom nem lesz indexelve. Némiképp kivételt képeznek ez alól a webáruházak termékkategóriái, mert ezeken az oldalakon természetes, hogy akár 3-500 link is szerepelhet, tekintve, hogy egy termék képe, neve, leírása és még a kosárba gombok is kattinthatóak a kategórián belül. Előbbiek mindegyike egy-egy link, így például 50 terméknél hamar járhatunk 200 darab kategóriaoldalon belüli linknél.

Ha elkerülöd ezeket a buktatókat, akkor tiszta, feltérképezhető HTML-linkeket kapsz majd, amelyek lehetővé teszik, hogy a keresőrobotok könnyen hozzáférjenek az oldal tartalmához.

MIT JELENT A REL=”NOFOLLOW”, ÉS MIÉRT FONTOS?

A nofollow attribútum használatával a webmesterek arra utasítják a keresőrobotokat, hogy azok – bizonyos okból kifolyólag – ne kövessék az oldalon lévő linkeket. A rel=”nofollow” címke a következő szintaxissal használható:

<a href=”https://moz.com” rel=”nofollow”> moz.com </a>

A linkek alapvetően sok attribútummal rendelkezhetnek, és a keresőmotorok csaknem mindegyiket figyelmen kívül hagyják a nofollow kivételével. Ha a fenti példát nézzük, akkor azt látjuk, hogy a rel=”nofollow” attribútum linktagekhez történő hozzárendelésével a webmester arra utasítja a keresőmotorokat, hogy azok ne értelmezzék a link céloldalát jóváhagyottként.

A nofollow – szó szerint értelmezve is – azt jelenti, hogy nincs követés, vagyis, hogy a keresőmotorok nem követnek egy linket; bár tegyük hozzá gyorsan, hogy van, amelyik ettől függetlenül mégis megteszi azt. A 2005-ben megjelent kiterjesztés a linkspamek elleni küzdelem miatt jött létre: ezzel láthatók el a fizetett linkek vagy a kommentekben, felhasználói tartalmakban szereplők linkek, így azok nem szaporítják majd a linkszemetet. A nofollow címkével ellátott linkeket a keresőmotorok eltérően értelmezik, de az így is egyértelmű, hogy azok nem számítanak ugyanakkora súlyúnak, mint a normál linkek.

Tegyük fel gyorsan a kérdést, ami sokak fejében motoszkál: a nofollow linkek rosszak?

Nem. Bár azok nem adnak annyi értéket, mint a követett változatok, a nofollow linkek a sokoldalú linkprofil természetes részét képezik. Egy sok bejövő linkkel rendelkező weboldal egyúttal sok nofollow linket fog felhalmozni, és ezt nem tekinthetjük rossz dolognak.

Valójában a Moz Ranking Factors is azt mutatta ki, hogy a magasabb helyre rangsorolt oldalak nagyobb arányú bejövő nofollow linkekkel rendelkeztek, mint az alacsonyabb rangsorolású webhelyek.

Mit mond erről a Google?

A Google – saját állítása szerint – az esetek többségében nem követi az nofollow linkeket, és ezek a linkek nem is továbbítanak PageRank- vagy horgonyszöveg értékeket.

A Google-nál a nofollow használatának következménye az, hogy a keresőmotor kiejti a céllinkeket a web teljes hálózatából. A nofollow linkek nem bírnak jelentőséggel, és azok HTML-textként értelmezendők (vagyis úgy, mintha a hivatkozás nem is létezne). Ennek ellenére sokan úgy véli – jogosan -, hogy egy magasabb rangsorolású webhelyről, például a Wikipédiáról származó nofollow linket a bizalom jeleként lehet értelmezni. Nem fog link erőt közvetíteni, de mégis beleszámít egy oldal hitelességébe.

Mit mond (erről) a Bing & Yahoo?

A Bing, amely a Yahoo kereséseinek motorja, ugyan kijelentette, hogy a keresőmotorjuk nem építi be a nofollow hivatkozásokat a linkhálózatba, de a robotok még mindig használják a nofollow hivatkozásokat az új oldalak felfedezésének egy módjaként.

Ez azt jelenti, hogy bár előfordul, hogy néha követik a linkeket, a rangsor megállapításánál viszont már nem használják azokat.

KULCSSZÓHASZNÁLAT ÉS -CÉLZÁS

Többször leírtuk már mi is, hogy a kulcsszavak kiemelt szerepet kapnak a keresési folyamatban, hiszen ezek a nyelv és a keresés építőkövei. Ha jobban végiggondolod, te is rájössz, hogy az információkeresés teljes tudománya – beleértve az olyan webes keresőmotorokat, mint a Google – is kulcsszavakon alapul.

A keresőmotorok folyamatosan térképezik fel és indexelik a webhelyek tartalmát, és ezeket az oldalakat kulcsszó alapú indexekben rendszerezik ahelyett, hogy 25 milliárd weblapot tárolnának egy adatbázisban. Olyan ez, mint egy digitális katalógus. A keresőmotorok munkáját több millió kisebb adatbázis segíti, és ezek mindegyike egy adott kulcsszóra vagy kifejezésre összpontosít, hogy a keresők a másodperc töredéke alatt kinyerhessék a szükséges adatokat.

Ha azt szeretnéd, hogy az oldalad egy adott kulcsszó keresési eredményei között megjelenjen, akkor először meg kell győződnöd arról, hogy az a szó vagy kifejezés része-e a dokumentum feltérképezhető tartalmának.

KULCSSZÓURALOM

A kulcsszavak domináns szerepet játszanak a keresési szándékunk kommunikálásakor és a motorokkal való interakció során is. Amikor a keresendő szavakat beírod a keresőmezőbe, akkor a motor a beírt szavak alapján kezd el egyező oldalakat keresni. A szavak sorrendje, a helyesírás, az írásjelek és a nagybetűk használata további információkat szolgáltat a motorok számára a megfelelő oldalak lekéréséhez és rangsorolásához.

A keresőmotorok mérik, hogy a kulcsszavakat hogyan használják a webmesterek az oldalaikon, így a robotok meghatározhatják az adott dokumentum lekérdezéshez viszonyuló relevanciáját. Egy oldal rangsorolásának optimalizálásához az egyik legjobb módszer az, ha biztosítod, hogy a rangsorolni kívánt kulcsszavak ott legyenek a címekben, a szövegekben és a metaadatokban (kivéve a Meta Keywords-ben, aminek kitöltését mellőzzük!).

Fontos tudnivaló az is, hogy a kulcsszavak pontosításával szűkíteni lehet a keresési eredményekre vonatkozó versenyt, és ezáltal javítható a magasabb rangsor elérésének esélye.

VISSZAÉLÉS A KULCSSZAVAKKAL

Az online keresés hajnalán (és még jó sokáig) az emberek félrevezető módon használták a kulcsszavakat a keresőmotorok manipulálására. Ez magába foglalta a szövegek, az URL-ek, a meta tagek és a linkek kulcsszavakkal való teletömését, és ma már köztudott, hogy ez a taktika inkább károkat okoz, mintsem hasznot hozna az adott webhely számára.

A kezdeti időszakban a keresőmotorok a kulcsszóhasználatra támaszkodtak a relevancia elsődleges jeleként, függetlenül attól, hogy a kulcsszavakat hogyan használták a webmesterek az oldalon belül. Bár a keresőmotorok még mindig nem tudnak olvasni és szöveget (vagy embert) megérteni, a gépi tanulás használata lehetővé tette számukra, hogy közelebb kerüljenek az ideális elemzéshez.

Webmesterként vagy honlaptulajdonosként ezért figyelj arra, hogy a kulcsszavakat természetes módon és stratégiai szemlélettel használd; erről később írunk majd hosszabban és érthetőbben. Ha az oldal a „Lánchíd” kulcsszó-kifejezést célozza meg, akkor a tartalmadban megjelenthet a Lánchíd maga, a híd története vagy az ajánlott budapesti szállodák.

Ha csak teleszórod például a „Lánchíd” kulcsszóval a weboldaladat, amely viszont nem releváns erre a témára (mert például az a kutyatenyésztésről szól), akkor hiába minden próbálkozás, a „Lánchíd” kulcsszóra történő jó helyezésért folytatott küzdelmed hosszú és árral szembeni harc lesz.

A kulcsszavak használatának célja nem az, hogy az összes (vagy egy adott, amúgy jól szereplő) kulcsszóra jó helyezést érj el, hanem az, hogy azoknál a kulcsszavaknál szerepelj jól a rangsorban, amelyekre az emberek akkor keresnek rá, ha arra a dologra van szükségük, amit a te oldalad kínál.

ON-PAGE (VAGY ON-SITE) OPTIMALIZÁLÁS

A korábbi visszaélések ellen hozott változások ellenére a kulcsszóhasználat és a célzás még mindig fontos része a keresőmotorok rangsorolási algoritmusainak, és néhány hatékony technikát te is alkalmazhatsz, hogy a weboldalad jól optimalizált legyen. Ügyfeleinknek mi általában ezeket tanácsoljuk:

  • Használd a kulcsszavadat legalább egyszer a title tagben. Próbáld meg a kulcsszót a lehető legközelebb tartani a tag elejéhez. A tagekről további tudnivalót a későbbiekben olvashatsz majd.
  • Használd a kulcsszavadat (legalább egyszer és jól láthatóan) az oldal tetejénél.
  • Használd a kulcsszavadat legalább két vagy három alkalommal a body textben (ideértve a variációkat is). Ha nagyobb/hosszabb a szöveges tartalmad, akkor abba még néhányszor belefogalmazhatod a kulcsszót ráadásként. Mi azt tapasztaljuk, hogy egy kifejezés ennél gyakoribb használata már kevéssé vagy egyáltalán nem gyakorol hatást a rangsorolásra.
  • Használd a kulcsszavadat legalább egyszer az oldal egyik képének alt attribútumában. Ez nemcsak a webes keresésben, de a képkeresésben is segít, ami időnként értékes forgalmat hozhat a weblapodnak.
  • Használd a kulcsszavadat az URL-ben. Az URL-ekre és a kulcsszavakra vonatkozó további szabályokat jelen fejezet későbbi pontja tárgyalja majd, érdemes arra kiemelten odafigyelni.
  • Használd a kulcsszavadat legalább egyszer a meta description tagben. A metaleíró címke nem kerül felhasználásra a rangsoroláskor, viszont segíthet megszerezni a találati listát böngésző felhasználók kattintásait. Egy jó meta description hasznos segítség lehet a forgalomterelésben.

A KULCSSZÓSŰRŰSÉG MÍTOSZA

Mi is ismerünk olyat, aki ezt nem szeretné elfogadni, de ettől még sajnos tény marad: Dr. Edel Garcia a „The Keyword Density of Non-Sense” című könyvében világosan leírta, hogy a kulcsszó sűrűsége nem része a modern rangsorolási algoritmusoknak.

Nézzük, mire gondolunk, amikor ezt írjuk! Ha két dokumentum, D1 és D2 pontosan 1000 kifejezést tartalmaz (l=1000), és egy kifejezés 20-szor ismétlődik (tf=20), akkor egy kulcsszósűrűség-elemző megmondhatja neked, hogy mindkét dokumentum esetében a kulcsszósűrűség erre a kifejezésre (KD) KD=20/1000, tehát 0,020 (vagy 2%). Azonos értékeket kapunk, ha tf=10 és l=500. Nyilvánvaló, hogy egy kulcsszósűrűség-analizátor nem állapíthatja meg, hogy melyik dokumentum a relevánsabb, tehát a felhasználói keresés szempontjából csak erre a szempontra nem építhetsz.

A sűrűségelemzés vagy a kulcsszósűrűség aránya ugyanis semmit nem mond el…

  • a dokumentumok kulcsszavai közötti relatív távolságról (közelség)
  • a kifejezések helyéről a dokumentumban (eloszlás)
  • a kifejezések közötti egymást idézés gyakoriságáról (kölcsönös előfordulás)
  • a dokumentumok fő tárgyáról, témájáról és altémáiról (témához kapcsolódó ügyek)

A kulcsszósűrűség ezért elválik a tartalomtól, a minőségtől, a szemantikától és a relevanciától. A legtöbben persze szeretnének választ kapni arra a kérdésre, hogy milyen az optimális kulcsszó sűrűség.

TITLE TAGEK

A weboldal title eleme a honlap tartalmának pontos, tömör leírása, ezért annak kiemelt szerepe van a felhasználói élmény és a keresőmotor optimalizálása szempontjából.

Mivel a title tagek fontos részét képezik a keresőoptimalizálásnak, ezért a címke létrehozásának most bemutatott gyakorlata a SEO egyik legkönnyebben alkalmazható és nagy hatással is rendelkező technikája.

Figyelj a hosszúságra

A keresőmotorok csak a title tag első 65-75 karakterét jeleníti meg a keresési eredményekben (ezt követően a motorok …-ot mutatnak, jelezve, hogy a title tag meg lett vágva). Mivel ez a karakterszám a legtöbb közösségimédia-oldal által engedélyezett általános korlátozás is egyúttal, ezért bölcs döntés ehhez a hosszhoz ragaszkodni.

Ha azonban te egy összetett kulcsszót célzol meg (vagy egy különösen hosszú kulcsszó kifejezést), és ezeknek a title tagben való megjelenése elengedhetetlen a megfelelő rangsoroláshoz, akkor tanácsos lehet a hosszabb szövegek mellett dönteni.

Helyezd a fontos kulcsszavakat előre

Minél közelebb vannak a kulcsszavak a title tag elejéhez, az annál nagyobb hasznot jelenthet a rangsoroláskor, és annál valószínűbb az is, hogy a felhasználó végül rákattint majd a linkre a keresési találatok böngészése közben.

Tartalmazza a márkanevet

Kifejezetten hasznos, ha a title taget egy márkanévvel fejezed be, mert ezek segíthetnek a márka ismertségének növelésében, és magasabb átkattintási arányt eredményeznek azoknál a felhasználóknál, akik szeretik és ismerik a márkát. Néha célszerű a márka nevét a tag elején elhelyezni, például a kezdőlapnál, hogy az hangsúlyosabb legyen. Mivel a title tag elején lévő szavak több súlyt hordoznak, figyelj arra, hogy mi a célod a title taggel, és hogy mire szeretnél jobb helyezést elérni.

Gondold át, hogy mennyire olvasható a title tag, és hogy van-e érzelmi töltete

A title tag leíró jellegű és jól olvasható legyen, hiszen az egy új látogató első interakciója a weboldaladdal (és a márkáddal), tehát annak a lehető legjobb benyomást kell közvetítenie. Egy vonzó title tag létrehozása segít megragadni a figyelmet a keresési találatok oldalán, és több látogatót vonz a webhelyedre.

META TAGEK

A meta tag valójában egy rejtett elem a weboldalad HTML-forráskódjában, ami plusz információt nyújt a keresőmotoroknak a honlapod tartalmával kapcsolatban. A meta tagek eredetileg a webhelyek tartalmára vonatkozó információk proxyjaként készültek, és azokat bárki megtekintheti az adott honlapon (válaszd ki a „Forrás megtekintése” opciót a jobb egérgombbal történő kattintás után).

Az alábbiakban felsorolunk néhány alapvető meta taget, valamint azok használatának leírását.

META ROBOTS

A Meta Robots taggel minden egyes oldalon kontrollálni lehet a keresőmotor feltérképező tevékenységét (az összes fő motor esetében). A Meta Robotokat többféleképp is felhasználhatod arra, hogy ellenőrizd, hogyan kezelik az adott oldalt a keresőmotorok.

Az index/noindex például tudatja a motorokkal, hogy fel kell-e térképezni az adott oldalt, és hogy azt tárolni kell-e a motorok indexében. Ha úgy döntesz, hogy a noindexet használod, akkor az oldalt kizárod a keresőmotorok indexéből. Alapértelmezés szerint a keresőmotorok azt feltételezik, hogy az összes oldalt indexelhetik, így az index érték használata külön általában nem szükséges.

follow/nofollow azt tudatja a motorokkal, hogy az oldalon található hivatkozásokat fel kell-e térképezni. Ha úgy döntesz, hogy a nofollow-t használod, akkor a motorok figyelmen kívül hagyják az oldalon található linkeket a feltérképezés és/vagy a rangsorolás esetén. Alapértelmezés szerint az összes oldalnál jelen van a follow attribútum.

Példa: <META NAME = “ROBOTS” CONTENT = “NOINDEX, NOFOLLOW”>

noarchive használatával megakadályozhatod a keresőmotorokat abban, hogy azok lementsék az oldal tárolt változatát. Alapértelmezés szerint a motorok az összes indexelt oldal látható másolatát tárolni fogják, amelyek elérhetők a keresők számára a keresési eredmények között a tárolt linkeken keresztül.

nosnippet megakadályozza, hogy egy adott szöveges kivonat megjelenjen az oldal címe és URL-je mellett a keresési eredményekben.

noodp és a noydir olyan speciális címkék, amelyek jelzik a keresőmotoroknak, hogy azok ne szerezzenek be webhelyet leíró kivonatot az Open Directory Projectből (DMOZ) vagy a Yahoo! Directory-ből (azért, hogy azt megjelenítsék majd a keresési eredmények között).

Az X-Robots-Tag http-fejlécparancs is ez utóbbi feladatokat teljesíti. Ez a technika különösen jól használható a nem HTML-fájlokon belüli tartalomra, például a képek tartalmára.

META DESCRIPTION

A meta description tag az oldal tartalmának rövid leírása, amely sokkal inkább a keresést végző felhasználóknak, mintsem a keresőmotoroknak szól, hiszen annak tartalma nem befolyásolja a weboldalad helyezését. Bármennyire is szeretnénk, a keresőmotorok nem használják fel a címkében szereplő kulcsszavakat vagy kifejezéseket a rangsoroláshoz, viszont annak kulcsszerepe van abban, hogy a találati listát szemléző felhasználó végül rákattint-e a linkedre.

A meta description tag a hirdetés szövegének funkcióját is betölti, ezért a keresési marketingben fontos elemnek számít. Egy jól olvasható, élvezetes és vonzó leírás a kulcsszava(ka)t használva sokkal több kattintást eredményezhet; csak egy érdekesség, figyeled meg: a Google kiemeli a keresett kulcsszavakat a leírásban.

A metaleírások bármilyen hosszúak lehetnek, de a keresőmotorok a 160 karakternél hosszabb szövegeket (általában) megvágják. Ha nem alkalmazol metaleírást, akkor a keresőmotorok maguk készítik el a keresési részletet az oldal más elemei alapján. Mi ebből a tanulság? Érdemes figyelmet és energiát fordítani rá, és célszerű 160 karakter alatt tartani a végeredményt.

KEVÉSBÉ FONTOS META CÍMKÉK

Meta kulcsszavak. A meta keywords tagnek régebben nagyobb értéke volt, de ma már nincs kiemelt szerepe a keresőoptimalizálás szempontjából. Ha többet szeretnél megtudni a történetéről és arról, hogy miért nem használják ma a meta kulcsszavakat, olvasd el a SearchEngineLand Meta Keywords Tag 101 írását.

Meta Refresh, Meta Revisit-after, Meta Content-típus és mások. Bár ezek a címkék hasznosak lehetnek a keresőoptimalizálás során, de szerepük nem hangsúlyos a teljes folyamat szempontjából.

URL-STRUKTÚRÁK

Az URL-ek – vagyis az interneten található dokumentumok címei, tehát a webcímek – nagy értékkel bírnak a keresés szempontjából; épp úgy, ahogy a postai címednek is kiemelt jelentősége van a neked címzett levelek kézbesítésekor. A webcím egyetlen rövid(ebb) leírás használatával összefoglalja egy weboldal megtalálásához szükséges információkat:

  • a protokollt, amit ahhoz használsz, hogy a célgéppel kommunikálhass (például https)
  • a célgép vagy tartomány nevét (alhconsulting.hu)
  • a hálózati port számát (például: 443)
  • és a fájlhoz vezető elérési utat a célgépen belül (a / jel utáni részek)

Mivel a keresőmotorok megjelenítik az URL-eket a keresési eredmények listázásakor, ezért azok hatással lehetnek az átkattintásokra és a láthatóságra. Az URL-eket a dokumentumok rangsorolásában is használják, és azok a lapok, amelyeknek a neve tartalmazza a lekérdezett kifejezéseket, részesülnek a kulcsszavak megfelelő, leíró használatából.

Az URL-címek a böngészők címsorában jelennek meg, és bár ez az esetek többségében kevés hatással van a keresőmotorok működésére, a rossz URL-struktúra és design negatív felhasználói élményeket eredményezhet.

URL-ÉPÍTÉSI IRÁNYELVEK

A következő elveket tartsd be:

Légy empatikus

Képzeld magadat a felhasználó helyébe, és most nézz rá az URL-címedre. Ha könnyen és pontosan meg tudod mondani, hogy milyen tartalmat fogsz találni az oldalon, akkor az URL megfelelően leíró. Nem kell minden utolsó részletet megadnod az URL-ben, és nem kell minden tevékenységedet összefoglalni, de nem árt, ha az URL utal rád, a márkádra, a webhelyen elérhető tartalomra vagy a szellemiségedre.

A rövidebb a jobb

Most jön a bonyolítás. A leíró URL fontos, de a rövidebb webcím és az elválasztó perjelek minimalizálása megkönnyíti az URL-ek másolását és beillesztését (például e-mailekbe, blogbejegyzésekbe, szöveges üzenetekbe stb.), illetve az teljes mértékben látható is lesz a keresési eredményeknél. Ez utóbbi sem mellékes szempont; nézz rá egy találati listára, és látni fogod, hogy miért.

A kulcsszóhasználat döntő szempont (de a túlzott kulcsszóhasználat veszélyes lehet)

Ha az oldal egy bizonyos kifejezést vagy kifejezéseket céloz meg, akkor győződj meg róla, hogy azt az URL-ben elhelyezted-e. De vigyázz, és ne lőj túl a célon, mert azzal, hogy több kulcsszót próbálsz belesűríteni az URL-be, a dolog akár a visszájára is fordulhat. Ha túlzásba esel, akkor annak egy kevésbé használható URL lesz a vége, és az akár még a spamszűrőket is aktiválhatja.

Válaszd a statikust

A legjobb URL-eket a felhasználók is el tudják olvasni, és azok nem tartalmaznak túl sok paramétert, számot és/vagy szimbólumot. Az olyan technológiák, mint a Mod_rewrite for Apache és az ISAPI_rewrite for Microsoft használatával könnyen átalakíthatók az olyan dinamikus URL-ek, mint ez:

https://moz.com/blog?id=123

… egy olvashatóbb statikus változattá:

https://moz.com/blog/google-fresh-factor.

Figyelj oda erre a szempontra! Már egyetlen dinamikus paraméter használata az URL-ben is vezethet alacsonyabb általános rangsoroláshoz és indexeléshez.

Használj kötőjeleket a szavak elválasztásához

Nem minden webalkalmazás értelmezi pontosan a szeparátorokat, például az aláhúzásokat (_), a plusz jeleket (+) vagy a szóközöket (% 20), ezért használj inkább kötőjelet (-) az URL-ben lévő szavak elválasztásához.

A TARTALOM KANONIZÁLT ÉS DUPLIKÁLT VERZIÓI

A duplikált tartalom az egyik legbosszantóbb és legaggasztóbb probléma, amellyel a webhelyed szembesülhet. Duplikált tartalomnak hívjuk a Google definíciója szerint az ismétlődő tartalmi blokkot, vagyis amikor ugyanazon domainen belül vagy más domaine(ke)n található két vagy több tartalmi blokk pontosan megegyezik.

Ne szépítsünk: ez a másolás (ha a saját tartalmaddal teszed, és lopás, ha a máséval). Az elmúlt években a keresőmotorok határozottan felléptek a gyenge minőségű vagy ismétlődő tartalmú oldalakkal szemben, és azonnali hátrébbsorolással büntették az érintett webhelyeket (a felhasználók érdekében).

A kanonizáció akkor következik be, amikor a weboldal két vagy több ismétlődő változata jelenik meg különböző URL-eken. Azt hinnéd, hogy ez már ritkán fordul elő, de egyes számítások szerint a web 25-30 százaléka duplikált tartalom, és ez nagyon gyakori probléma a modern tartalomkezelő rendszerek esetében is (például CMS-rendszerek).

Ne gondolj rögtön a legrosszabbra: ide tartozik az is, amikor az oldaladnak van egy általános és egy nyomtatás optimalizált vagy akadálymentes verziója is. És a példákat a végtelenségig folytathatnánk.

Az ismétlődő tartalom egy vagy akár több webhelyen is megjelenhet, és ez a keresőmotoroknak nagy problémát jelent: nekik ugyanis el kell dönteniük, hogy a tartalom melyik verzióját érdemes megjeleníteni a felhasználók számára.

A keresőmotorok éppen ezért válogatósak, ha egy tartalomból kétféle verziót is találnak a feltérképezés során. A legjobb keresési élmény érdekében ritkán mutatnak több, ismétlődő tartalmat a felhasználóknak, ehelyett inkább kiválasztják, hogy (szerintük) melyik verzió lehet az eredeti. Ennek a végeredménye viszont az is lehet, hogy az összes duplikált tartalmad hátrébb kerül a rangsorban.

A kanonizáció a tartalomnak olyan szervezése, amelynek során annak minden egyedi darabja egy-egy külön URL-t kap. Nem érdemes ugyanis egy tartalom több változatát egyetlen webhelyen (vagy webhelyeken) hagyni, ehelyett célszerű például a 301-es átirányítást használni, mert a keresőmotorok követik az átirányítást, és hozzáadják majd az új URL-t az indexhez.

Ha több oldalt, amelyek egybeolvasztva jó helyezést érhetnének el, egyetlen oldallá gyúrsz össze, akkor nemcsak az egymással való versengés szűnik meg, de erősebb lesz a kanonizált oldal relevancia- és népszerűségi mutatója is.

CANONICAL TAG, A MEGMENTŐ!

A keresőmotorok a fentebb említett módszer mellett egy másik lehetőséget is felkínálnak a hasonló esetekre, mégpedig az úgynevezett Canonical URL-taget, amivel hatékonyan csökkentheted az egyes webhelyeken lévő ismétlődő tartalmak számát, és egy fő URL-re kanonizálhatod azokat. Ez két vagy több webhelyen is használható, az egyik domain URL-jétől egy másik domainen lévő másik URL-hez.

Keresőoptimalizálási szempontból a Canonical URL tag attribútum hasonló a 301-es átirányításhoz, és azzal lényegében azt üzened a keresőmotoroknak, hogy több oldalt tekintsenek egynek, de anélkül, hogy ténylegesen átirányítanád a látogatókat az egyik URL-címről a másikra. Ez a bónusz a fejlesztő munkatársakat is megkíméli a nagyobb munkáktól és egy kisebb szívrohamtól :)

Ha többet szeretnél megtudni az ismétlődő tartalmak különböző típusairól, akkor olvasd el Dr. Pete ezen bejegyzését.

BŐVÍTETT TALÁLATOK (RICH SNIPPETS)

Láttál már 5 csillagos minősítést a keresési eredményben? Felfigyeltél már arra, hogy milyen átlátható az életrajza egy-egy híres embernek a Google-keresést követően (rögtön a találati oldalon)?

Ha igen, akkor nagy a valószínűsége annak, hogy a keresőmotor a weblapba ágyazott bővített kivonatokból kapta meg az ehhez a megjelenítéshez szükséges információkat. A bővített kivonatok olyan strukturált adatok, amelyek lehetővé teszik a webmesterek számára, hogy a tartalmat megjelölve információt szolgáltassanak a keresőmotorok számára.

A strukturált adat olyan kód, amivel segíted a keresőmotorokat, hogy azok az információt különleges módon és formában jelenítsék meg a keresési eredmények között. Ideális megoldás ez receptek, felhasználói vélemények, termékek vagy események átlátható megjelenítéséhez, de ezt láthatod könyvek vagy filmek értékelésekor, illetve híres személyek profiljánál is.

Bár a bővített kivonatok és a strukturált adatok használata nem szükséges a keresőbarát tervezéshez, annak egyre növekvő elfogadása azt jelenti, hogy az azt alkalmazó weboldalak bizonyos körülmények között előnyhöz juthatnak.

A bővített kivonatok online megismerését több forrás is segíti, például a Schema.org, a Google Rich Snippet Testing Tool-ja vagy a MozBar.

BŐVÍTETT TALÁLATOK A VADONBAN

Játszunk el a gondolattal és tegyük fel, hogy egy szakmai konferenciát hirdetsz a blogodon. Ennek HTML-ben így néz ki a kódja:

<Div>

SEO Konferencia <br/>

Tanulj SEO szakértőktől<br/>

Esemény dátuma: <br/>

Május 8., 19:30

</ Div>

Az adatok strukturálásával viszont ennél pontosabban is tájékoztathatod a keresőmotorokat az adatok típusáról. A végeredmény ekkor így nézhet ki:

<div itemscope itemtype = “http://schema.org/Event”>

<div itemprop = “name”> SEO konferencia </div>

<span itemprop = “description”> Tanulj SEO szakértőktől </span>

Esemény dátum:

<time itemprop = “startDate” datetime = “2012-05-08T19: 30”> május 8, 19:30 </time>

</ Div>

A WEBHELYED BECSÜLETÉNEK VÉDELME

Belegondoltál már abba, hogyan lopják el a tartalommásolók a helyezésedet?

Szomorú tény, de ettől még igaz: az interneten sok gátlástalan weboldal van, amelyek üzleti és forgalmi modelljei azon alapulnak, hogy más webhelyek tartalmát lemásolják és újra felhasználják a saját domainjükön. Ezt a fajta tartalomfelhasználást és újbóli közzétételt célzó gyakorlatot tartalommásolásnak (vagyis scrapingnek) nevezzük, és a scraperek rendkívül jól teljesítenek a keresőmotorok rangsorában, gyakran az eredeti oldalak eredményeit is túlszárnyalva.

Amikor bármilyen típusú feed-formátumban, például RSS-ben vagy XML-ben közzéteszel egy tartalmat, akkor győződj meg róla, hogy a főbb blogolási és követési szolgáltatásokat (Google, Technorati, Yahoo! stb.) is pingelted.

A Google és a Technorati szolgáltatások pingelésére vonatkozó utasításokat megtalálhatod azok weboldalain, vagy a Pingomatic szolgáltatás használatával automatizálhatod is a folyamatot. Ha a közzétevő szoftvered személyre szabott, akkor bölcs dolog az, ha a közzététel során az automatikus pingelést is belefoglalod a szoftverbe. Ezután már könnyedén felhasználhatod a tartalommásolók ellen saját lustaságukat.

A weben lévő scraperek többsége újból közzéteszi a tartalmat, ezért érdemes az oldaladra és te általad írt blogokra visszamutató hivatkozásokat beépíteni, mert így a keresőmotorok látják: a legtöbb másolat hozzád linkel vissza (ez pedig jelzi, hogy valószínűleg a te forrásod az eredeti). Figyelj arra, hogy ehhez inkább abszolút, és nem pedig relatív hivatkozásokat kell használnod a belső linkstruktúrában. Így ahelyett, hogy ezt használnád:

<a href=”../”> Otthon </a>

… alkalmazd inkább ezt:

<a href=”https://moz.com”> Kezdőlap </a>

Ezáltal hiába találja meg és másolja le a tartalmadat egy scraper, a link ettől függetlenül továbbra is a te webhelyedre mutat majd.

Természetesen vannak korszerűbb módszerek is a tartalommásolók elleni védekezéshez, de azt tudnod kell, hogy egyik sem nyújt 100%-os biztonságot. Arra számíts, hogy minél népszerűbb és láthatóbb a webhelyed, annál gyakrabban lopják majd el a tartalmadat.

Az esetek többségében figyelmen kívül hagyhatod ezt a problémát, de ha az átlép egy határt, és úgy látod, hogy a tartalommásolók elveszik a helyezésedet és a forgalmadat, akkor érdemes megfontolni a DMCA-eltávolítás folyamatának használatát. A Moz vezérigazgatója, Sarah Bird ehhez kínál néhány minőségi tanácsot ebben a cikkben:

A szerzői jog érvényesítésének négy módja: mit kell tenned, ha az online tartalmadat ellopják.

Érdemes elolvasni!

PROFESSZIONÁLIS KULCSSZÓKUTATÁS, AVAGY A KERESŐOPTIMALIZÁLÁS ALAPJA

Minden a keresőmezőbe írt szavakkal kezdődik. A kulcsszóval, vagyis azzal a kifejezéssel, amelyet a userek használnak, amikor a felmerülő igényeikre megoldást keresnek.

A kulcsszókutatás a keresőmarketing egyik legfontosabb, legértékesebb és legmagasabb megtérülési rátával rendelkező tevékenysége, hiszen a helyes kulcsszavakra történő rangsorolás a webhelyedet vagy felemeli, vagy porba dönti.

A piac kulcsszókeresletének kutatásával nemcsak azt tudhatod meg, hogy milyen kifejezéseket érdemes megcéloznod a keresőoptimalizálás során, de azt is, hogy miképp viselkednek az ügyfeleid (és hogy kik is ők pontosan). A folyamat nemcsak a webhelylátogatók, hanem a megfelelő (a tevékenységed iránt érdeklődő) látogatók megszerzéséről is szól.

A kulcsszókutatás fontosságát és hasznosságát ezért nem lehet túlbecsülni: azzal megjósolhatod a kereslet változását, reagálhatsz a változó piaci körülményekre, és előállíthatod azokat a termékeket, szolgáltatásokat és tartalmakat, amelyeket az internetes keresők aktívan keresnek.

HOGYAN KELL MEGÍTÉLNI EGY KULCSSZÓ ÉRTÉKÉT?

Másképp mondva: mennyit ér a webhelyednek egy adott kulcsszó?

Bár egy kis utánajárást követően a webmesterek megismerhetik a keresőmotorokba kerülő kulcsszavakat, azonban a kutatásban segítő eszközök nem tudják közvetlenül megmutatni, hogy mennyire értékes a keresésekből származó forgalom.

Az adott kulcsszó értékének megértéséhez először a saját webhelyedet kell jobban megértened/megismerned. Először kérdezd meg magadtól:

  • Mennyire releváns a kulcsszó a webhelyem tartalmához mérten?
  • Megtalálják-e a keresők a weboldalamon azt, amit keresnek (az adott kulcsszó segítségével)?
  • Elégedettek lesznek-e azzal, amit találnak?
  • Eredményez-e ez a forgalom pénzügyi bevételt vagy más szervezeti célok elérését?

Ha az összes kérdésre adott válasz egyértelmű „Igen!”, akkor folytassuk! Most keress rá a kiválasztott kifejezésre a nagyobb keresőmotorokban (Google, Yahoo, Bing). Figyeld meg, hogy vannak-e hirdetések az organikus találatok felett és alatt, és figyeld meg, hogy mely webhelyek értek el jó helyezést az adott kulcsszóra. Ez értékes betekintést nyújt az azzal a kulcsszóval kapcsolatos versenyhelyzetbe, és megfigyelheted, hogy milyen nehéz lesz jó helyezést eléri arra.

A sok keresési hirdetés általában azt jelenti, hogy a kulcsszó értékes, az organikus találatok felett található többszörös keresési hirdetések pedig gyakran kiemelkedően jövedelmező és közvetlen konverzióval kecsegtető kulcsszót jeleznek.

Ilyenkor megéri egy mintakampányt vásárolni az adott kulcsszóhoz a Google Ads-ben és/vagy a Bing Adcenterben, hogy leellenőrizd, ez a verseny mit jelent a számok nyelvén (mennyit kell fizetni az adott kulcsszóért). Jó hír, hogy a tesztforgalmat akkor is megvásárolhatod, hogy ha a weboldalad nem ér el jó helyezést a találati listában, így megtudhatod, hogy milyen eredményt hoz(ná)nak neked az erre a kulcsszóra keresők.

Az összegyűjtött adatok felhasználásával meghatározhatod az egyes kulcsszavak pontos értékét, de mindig tartsd észben, hogy a keresőoptimalizálás folyamatos tesztelést, kísérletezést és javítást foglal magában. Ne feledd, hogy bár a SEO jellemzően az egyik legmagasabb megtérüléssel kecsegtető befektetés a marketing területén, a siker mérése még mindig kritikus a folyamat szempontjából. Nem szabad elkényelmesedni és hátradőlni, mert gyorsan leelőznek.

Van itt még valami, amit meg kell értened, ez pedig az úgynevezett long tail kulcsszavak jelentősége és szerepe. A netes kereséseknek ugyanis csupán a 30 százalékát teszik ki a népszerű kulcsszavakra történő keresések (ide tartoznak az egyszerű kulcsszavak: fogászat, cipő, ruházat). A fennmaradó 70 százalékot a long tail (hosszú farok) kulcsszavak adják, amikre lehet, hogy egy adott napon csak néhányszor keresnek a felhasználók, de ezek együttesen még így is könnyedén kiteszik a világ keresési mennyiségének a nagy részét. Bizony, ez a sok lúd esete…

A SEO-szakértők a saját példáikon keresztül megtanulták, hogy a hosszú farokhoz tartozó kulcsszavak használatával sokszor jobb konverziós arány érhető el, mert azok későbbi vásárlási (konverziós) ciklusban kapják el a felhasználókat. Gondold csak végig: melyik lehet eredményesebb kulcsszó, a „cipő” vagy a „cipő szalagavatóra”? Melyik felhasználó állhat készen a vásárlásra?

KULCSSZÓKUTATÁS

Gyűjtsük össze, hogy hol szerezheted meg a kulcsszavak iránti kereslettel és a kulcsszavas ajánlásokkal kapcsolatos ismereteket:

  • Moz Keyword Explorer
  • Google Ads Keyword Planner Tool
  • Google Trends
  • Microsoft Bing Ads Intelligence
  • Wordtracker’s Free Basic Keyword Demand

Moz egyik előnye, hogy a Keyword Explorert úgy építették fel a fejlesztők, hogy az segítsen egyszerűsíteni és javítani a kulcsszavak felfedezésének és rangsorolásának módját. A Keyword Explorer pontos havi keresési mennyiségadatokat kínál, valamint megtippeli, hogy mennyire lesz nehéz munka az adott kulcsszóra jó helyezést elérni. A Keyword Explorer emellett kapcsolódó kulcsszavakat is ajánl. Nagy mennyiségű manuális munkát lehet vele helyettesíteni, és ingyen is ki lehet azt próbálni.

Google Ads Keyword Planner egy másik népszerű eszköz, és az nemcsak kulcsszavakat javasol, de megadja a becsült keresési számot is, valamint kiszámol egy körülbelüli összeget a fizetett kampányok futtatásának költségeire az adott kifejezések függvényében. Figyelj arra, hogy az eredmények mindig az összesített keresésekre vonatkoznak, tehát a rangsorolástól és az átkattintási aránytól függően az ezekre a kulcsszavakra elért tényleges látogatói szám általában ennél sokkal alacsonyabb (lesz).

A KULCSSZÓKUTATÁS NEHÉZSÉGEI

Gyakori kérdés, amit az ügyfeleink is fel szoktak tenni nekünk: „milyen esélyeim vannak a sikerre?”

Hogy megtudd, mely kulcsszavakat érdemes megcélozni, elengedhetetlen, hogy ne csak megértsd egy adott kifejezés népszerűségét, de a magas rangsor eléréséhez vezető utat is megismerd.

Ha a nagy márkák a legjobb 10 találat között rangsorolódnak, és te csak most kezdtél el foglalkozni az internetes jelenléttel, akkor a jó helyezéshez vezető út évekig tartó munkát igényel. Ezért is fontos, hogy megértsd a kulcsszavakkal kapcsolatos nehézségeket: alapos és alázatos kutatásra van szükséged, amely nemcsak kigyűjti a megfelelő kifejezéseket, de képes azokhoz hozzárendelni a megfelelő (és valós) értéket is.

HOGYAN BEFOLYÁSOLJA A KERESŐOPTIMALIZÁLÁS HATÉKONYSÁGÁT A HASZNÁLHATÓSÁG, A FELHASZNÁLÓI ÉLMÉNY ÉS A TARTALOM?

A keresőmotorok folyamatosan fejlődnek, és arra törekszenek, hogy a lehető legjobb találatokat nyújtsák a felhasználói keresésekre. A „legjobb” persze szubjektív jelző, de a motoroknak jó elképzeléseik vannak arról, hogy milyen találatokkal elégíthetik ki a felhasználók igényeit.

A jó helyezéssel rendelkező webhelyek sok közös tulajdonsággal rendelkeznek:

  • könnyű használni őket, navigálni rajtuk és megérteni azokat
  • közvetlen, gyakorlati értékkel rendelkező információt tartalmaznak, amely releváns a keresett kifejezésre vonatkozóan
  • szakértő tervezte azokat és a modern böngészők számára hozzáférhetők
  • kiváló minőségű, legitim, hiteles tartalmat szolgáltatnak

A technológiai fejlődés ellenére a keresőmotorok még nem képesek megérteni a szöveget, valamint nem úgy értelmezik a képeket vagy egy videót, ahogy arra egy ember képes, ezért a tényleges megértéshez és a rangsorolás kialakításához azokra a metaadatokra támaszkodnak, amelyek jelzik a minőséget és azt, hogy az emberek és a weboldalak hogyan hatnak egymásra.

HOGYAN ÉS MIÉRT KERÜLNEK A JÓ OLDALAK A TALÁLATI LISTA ÉLÉRE?

A tényleges rangsorolás kialakításakor korlátozott azoknak a változóknak a száma, amiket a keresőmotorok közvetlenül figyelembe vehetnek, ideértve a kulcsszavakat, a linkeket és a webhelyszerkezetet. A hivatkozások mintázata, a felhasználói elkötelezettség mérőszámai és a gépi tanulás révén azonban a keresőmotorok megfelelő benyomással rendelkeznek egy adott honlapról.

A használhatóság és a felhasználói élmény viszont csak másodrangú tényező a keresőmotor találati listájának befolyásolásában. Közvetett, mégis mérhető előnyöket biztosítanak a webhely külső népszerűsége szempontjából, amelyeket a keresőmotorok a magasabb minőség jelzőjeként értelmezhetnek. Ezt nevezzük a „senki sem szeret egy ócska webhelyhez linket nyújtani” jelenségnek.

Mindig tartsd szem előtt, hogy ha a webhely felépítése és tartalma növeli a felhasználói élményt, és a keresők nem pattannak le a rossz minőség miatt, akkor az ösztönzi a megosztást, a könyvjelzőkben történő elhelyezést, a visszatérő látogatásokat és a bejövő linkeket; mindezek pedig hatással vannak a keresőmotorok robotjainak véleményére, és hozzájárulnak az előrébb rangsoroláshoz.

A minőségi tartalom jeleit a következő pontokban foglaltuk össze:

1. ELKÖTELEZETTSÉGI MÉRŐSZÁMOK

Amikor egy keresőmotor találatokat jelenít meg, akkor mérheti a rangsorok sikerességét azáltal, hogy figyelemmel kíséri, miképp viszonyul a felhasználó az eredményekhez. Ha a felhasználó rákattint az első hivatkozásra, majd azonnal megnyomja a „vissza” gombot a második hivatkozás kipróbálásához (tehát gyorsan kilép, lepattan), akkor az azt jelzi, hogy a kereső nem volt elégedett az első eredménnyel.

A keresőmotorok az úgynevezett hosszú kattintást keresik, ahol a felhasználók rákattintanak az eredményre, de nem térnek vissza azonnal a keresőoldalra, hogy másik eredményt keressenek.

Az elmúlt években a keresőmotorok a naponta létrejövő több millió lekérdezés segítségével össze tudtak gyűjteni egy olyan adatállományt, amellyel már könnyedén meg tudják ítélni az eredmények minőségét.

2. GÉPI TANULÁS

2011-ben a Google bemutatta a rangsorolási algoritmusának Panda frissítését, amely megváltoztatta a webhelyek minőségének megítélését. Ezt egy új korszak kezdetének tekinthetjük a keresőoptimalizálásban.

A Google kezdetben emberi értékelők segítségével, manuálisan értékelte a webhelyeket, alacsony minőségű tartalmat keresve. Az új frissítéssel viszont bevezette a gépi tanulást, kiváltva ezzel a humán értékelők munkáját. Miután a tesztek során a robotok nagy pontossággal előre jelezték, hogy a felhasználók miként ítélnének meg egy alacsony minőségű webhelyet, az algoritmust bedobták a mélyvízbe.

Az algoritmusfrissítés pedig elemi erejű változást eredményezett, és a Panda az összes Google-keresési találat több mint 20 százalékát átrendezte. A Panda-frissítésről további információk találhatók itt és itt.

3. HIVATKOZÁSMINTÁZATOK

Működésük során a keresőmotorok felfedezték, hogy az internet hivatkozásszerkezete a bizalom és népszerűség jelzőjeként szolgálhat. Ez azt jelenti, hogy a jobb minőségű webhelyek és információk több linket szereztek, mint a kevésbé hasznos, alacsonyabb minőségű társaik. Bár a linkelemzés algoritmusai jelentősen fejlődtek az elmúlt években, ezek az elvek továbbra is igaznak tekinthetők.

Egy új oldal tartalma által létrejött pozitív figyelem egy gép által is értelmezhető (és algoritmikusan értékelhető) linkek gyűjteményévé alakul. Az új webhely időzítése, forrása, horgonyszövege és a linkek száma ma már fontos tényező a rangsoroláskor.

TIPP A TARTALOM MINŐSÉGÉT ILLETŐEN

Az egyik leggyakrabban elhangzó tanács a keresőoptimalizálásban egy viszonylag egyszerű (de annál nehezebben megvalósítható) tipp: készíts érdekes és hasznos tartalmat. Klisészerű, mégis a mai napig megbízható tanács ez, hiszen a SEO szempontjából elengedhetetlen a vonzó és releváns tartalom.

Minden keresés mögött valamilyen konkrét szándék van; a felhasználó meg szeretne találni, tanulni, oldani, vásárolni, javítani dolgokat, és a keresőmotorok úgy helyezik el a weblapokat a találati listában, hogy a végeredmény a lehető legjobban kielégítse az adott felhasználói igényt. Egy ilyen tartalom létrehozása nagyban javítja az esélyét annak, hogy jobb helyezést lehessen elérni a találati listán.

A FŐ KERESÉSI SZÁNDÉKOK CSOPORTOSÍTÁSA

A kereséseket a felhasználói szándék szerint többféleképp is csoportosíthatjuk.

Tranzakciós célú keresések

Ilyen például egy helyi vállalkozás azonosítása, az online vásárlás vagy egy adott feladat elvégzése.

A tranzakciós keresés nem feltétlenül jár együtt bankkártya/hitelkártya használatával vagy banki átutalással. Ide tartozhat ugyanis a regisztráció is egy ingyenes tartalom eléréshez, egy Gmail-fiók létrehozás vagy a legjobb mexikói ételeket felszolgáló étterem megkeresése.

Navigációs célú keresések

A navigációs keresések célja egy adott webhely felkeresése (lásd látogatás egy előre meghatározott célállomáson vagy egy adott URL keresése). Bizonyos esetekben a felhasználó nem ismeri a pontos URL-t, és ilyenkor a keresőmotor segítségét is kérheti.

Információs célú keresések

Ebbe a kategóriába soroljuk a nem tranzakciós jellegű információk keresését, a gyors válaszok beszerzésére irányuló kereséseket vagy az ego-kereséseket.

Az információs keresések nagyon széles skálán mozognak, egészen a helyi időjárásról való tájékozódástól addig, hogy térképeket és útbaigazításokat szerez be a felhasználó (a honnan-hova kérdésre). A közös nevező jelen esetben az, hogy a keresések elsősorban nem kereskedelmi jellegűek és nem tranzakcióorientáltak; az információ megszerzése a cél, és nem szükséges a kattintásokon és az olvasáson túlmutató interakció.

Ezeknek a céloknak a teljesítése rajtad múlik.

A kreativitás, a magas színvonalú írás, a példák használata, a képek és multimédia alkalmazása mind-mind segíthet abban, hogy olyan tartalmat készíthess, amely tökéletesen illeszkedik a kereső személy igényeihez. A jutalmad pedig az elégedett keresők lesznek, akik a webhelyeddel való elkötelezettség vagy a rá mutató linkek segítségével bizonyítják pozitív tapasztalataikat.

NÉPSZERŰSÉG ÉS LINKEK SZERZÉSE

A világvároshoz hasonlító internet feltérképezéséért felelős keresőmotoroknak az oldalak közötti hivatkozások olyanok, akár az utcák. A kifinomult linkelemzés segítségével a keresőmotorok ugyanis megtudhatják, hogy az oldalak hogyan és milyen okból kapcsolódnak egymáshoz.

Az 1990-es évek vége óta a linkekre szavazatként tekintenek a keresőmotorok a népszerűségért és fontosságért zajló folyamatos versenyben. A motorok művészi szintig finomították a linkadatok használatát, és ma már komplex algoritmusokat használnak az oldalak aprólékos értékelésére az így kinyert információk alapján.

Bár a keresőoptimalizálás nemcsak a linkekről szól, de a keresési szakemberek szerint a motorok algoritmusainak nagy részét a linkekkel kapcsolatos tényezők befolyásolják (lásd Search Engine Ranking Factors). A linkek segítségével a motorok nemcsak a weboldalak népszerűségét elemezhetik ki a hozzájuk linkelő oldalak száma és népszerűsége alapján, hanem olyan mérőszámokat is figyelembe vehetnek, mint a bizalom, a spamelés és a megbízhatóság.

Nagy általánosságban elfogadhatjuk ezt az alapvetést: a megbízható oldalak más megbízható webhelyekre linkelnek, míg a spamoldalak nagyon kevés linket kapnak megbízható forrásokból. A megbízhatósági modellek, mint például a Hilltop algoritmusban feltüntetett modellek, azt sugallják, hogy a linkek figyelembevétele nagyon jó módja az adott témakörben létező szakértői dokumentumok azonosításának.

A linkelemzésre irányuló fókusznak köszönhetően egy weblap linkprofiljának fejlesztése mára kritikus pont lett a megfelelő helyezés, valamint a figyelem és az organikus (keresőmotorokon keresztül történő) forgalom megszerzésében.

A linképítés éppen ezért a SEO-szakértők egyik kiemelt feladata, ami ahhoz szükséges, hogy a találati listában jobb eredményt és nagyobb forgalmat érjen el az adott weboldal.

LINKJELEK

A linképítés vonatkozásában fontos kérdés, hogy miképp rendelnek értéket a keresőmotorok a különböző hivatkozásokhoz.

Hogy erre pontos választ adhassunk, meg kell vizsgálnunk a hivatkozás(ok) különböző elemeit, és szemügyre kell vennünk, hogy a keresőmotorok hogyan értékelik ezeket az elemeket. Elöljáróban azt is el kell mondanunk, hogy nem értjük teljesen és nem ismerjük pontosan a keresőmotorok által használt mutatókat, de a szabadalmi bejelentések, az évek során gyűjtött tapasztalatok és a gyakorlati tesztek elemzésével néhány feltételezést felvázolhatunk. Ezek a megállapítások nemcsak Magyarországra vonatkoznak, hanem a világpiacon is érvényesek.

Az alábbiakban felsoroljuk azokat a fontosabb tényezőket, amiket a keresőoptimalizálással foglalkozó szakemberek szem előtt tartanak a linkek értékének és a webhely linkprofiljának mérésekor. A linkek keresőmotorok általi értékeléséről a Moz Blog-on olvashatsz bővebben.

GLOBÁLIS NÉPSZERŰSÉG

Nagy általánosságban igaz, hogy minél népszerűbb és fontosabb egy webhely, annál többet érnek az onnan kiinduló linkek. Egy olyan oldalról, mint a Wikipédia, amelyre több ezer különböző webhelyről irányulnak linkek, azt feltételezhetjük, hogy az egy népszerű és fontos weboldal.

Ahhoz, hogy a keresőmotorok bizalmát megszerezd, és hogy azok hitelesnek tartsanak, más linkpartnerek segítségére is szükséged lesz. Ezek minél népszerűbbek, az annál jobb a webhelyed rangsorolására nézve.

LOKÁLIS VAGY TÉMAKÖR-SPECIFIKUS NÉPSZERŰSÉG

A „helyi” népszerűség fogalma, amelyet először a Teoma keresőmotor használt, arra vonatkozik, hogy a témaspecifikus közösségek webhelyeiről származó linkek többet érnek, mint az általános vagy a témától eltérő webhelyek linkjei. Ha a webhelyed például kutyaházakat értékesít, akkor a kutyatenyésztők egyesületének honlapján elhelyezett link sokkal többet nyom a latban, mint egy görkorcsolyázásról szóló honlapon lévő.

HORGONYSZÖVEG

A horgonyszöveg (tartalma) az egyik legerősebb jel, amit a keresőmotorok a rangsoroláskor használnak. Ez azt jelenti a valóságban, hogy ha több link mutat a megfelelő kulcsszavakkal ellátott oldalra, akkor az az oldal nagy valószínűséggel jobb helyezést fog elérni.

Teszteld le ezt a megállapítást egy olyan kereséssel, mint a „kattints ide” kulcsszó, amelynél láthatod, hogy a találati listán sok elem csak a bejövő linkek horgonyszövege miatt került fel az eredmények közé.

TRUSTRANK

Szomorú tény, hogy az internet nagy mennyiségű spamet (szemetet) tartalmaz: egyes becslések szerint a weblapok 60 százaléka spam. Annak érdekében, hogy ezeket a nem releváns tartalmakat kiszűrjék, a keresőmotorok a bizalom mérésére szolgáló rendszereket használnak, amelyek közül sok a linkhálózaton alapul. A megbízható domainekről a te weblapodra irányuló hivatkozások jelentősen növelhetik ezt a pontozási mutatót. Erős bizalmi mutatóval rendelkező oldalak például a kormányzati weboldalak, valamint az egyetemek és a nonprofit szervezetek honlapjai.

LINKSZOMSZÉDSÁG

A spamlinkek gyakran kétirányúak: a webhely, amely spamre hivatkozik, valószínűleg maga is spam, és gyakran arra is sok spamoldal hivatkozik. Ezeket a hivatkozásokat összességében nézve a keresőmotorok felfedezhetik azt a linkszomszédságot, amelynek a weboldal a része. Éppen ezért bölcs dolog gondosan megválogatni azokat a webhelyeket, amelyekre linked mutat, és ugyanilyen gondosan érdemes eljárni azokkal a weboldalakkal is, amelyekről linkeket próbálsz szerezni.

FRISSESSÉG

Egy adott link jelei idővel leromolhatnak. Azok a webhelyek, amelyek egykor népszerűek voltak, akár el is avulhatnak; például nem szereznek elegendő mennyiségű új linket, és ezáltal nem is segítik már hatékonyan a rangsorolásodat. Ezért fontos, hogy folyamatosan új és erős linkeket szerezz.

FreshRank néven a keresőmotorok a linkek frissességét használják fel a jelenlegi népszerűség és relevancia megítéléséhez.

SOCIAL MEDIA SHARING

Az elmúlt években robbanásszerűen nőtt a közösségi médiában (Facebookon, Twitteren, Pinteresten) keresztül megosztott tartalom mennyisége. Bár a keresőmotorok az ezeken a felületeken megosztott hivatkozásokat más módon kezelik, mint az egyéb típusú hivatkozásokat, de attól még ugyanúgy észlelik őket.

A SEO szakemberek között régóta és sok vita folyik arról, hogy a keresőmotorok hogyan építik be a social linkek jeleit az algoritmusaikba, de az nem tagadható, hogy folyamatosan nő ennek a csatornának a jelentősége, ezért külön is érdemes foglalkozni vele.

A social sharing hatalma

Avagy miképp változtatta meg a Google+ (béke poraira!), a Twitter és a Facebook a játékszabályokat?

A 2011–2012-es években, a közösségimédia-felületek erősödése miatt jelentős mértékben nőtt a social sharing és annak a keresésekre gyakorolt hatása; különösen a Google kezdett el sok social jelzést beépíteni a keresési eredményekbe. Ez magába foglalta a személyre szabott találati eredményeket is a bejelentkezve maradt felhasználók esetében, amelyek például tartalmazták a kereső személy közösségi médiás ismeretségi köre által megosztott tartalmait is (Facebook, Twitter). A szóban forgó eredmények még ma sem feltétlenül jelennek meg a találati lista első tízes listájában, de a közösségi média befolyása előrébb mozdít(hat)ja azok rangsorolását.

Ez a változás nagy hatással volt a SEO-szakértők munkájára, hiszen feltételezhető, hogy a nagy közösségi médiás lábnyommal rendelkező, sok tartalmat megosztó személyek nagyobb valószínűséggel előrébb rangsorolva látják a megosztott anyagot a keresési eredmények között. Ma már tudjuk, hogy a tartalomgyártók számára kifejezetten hasznos, ha tartalmukat megosztja egy ilyen nagy befolyással rendelkező ember, akinek nagy közösségi médiás követőbázisa van.

Azonos erejűek-e a közösségi médiás megosztások a linkekkel?

A válasz egyszerű: nem. Bár bizonyíték van arra, hogy a közösségi médiás megosztások, például a tweetek, a lájkok és a pluszok befolyásolják a rangsorolást, viszont a linkek jelenleg sokkal jobb minőségűnek és tartósabbnak tekinthetők a tartalom népszerűségének elősegítésére.

A LINKÉPÍTÉS ALAPJAI

Többször, több helyen leírtuk már, hogy…

… a linképítés művészet. Ugyanakkor az egyik legnehezebb keresőoptimalizálási munka, miközben a siker szempontjából a legkritikusabb is egyúttal. A kapcsolatépítés kreativitást, tülekedést és gyakran pénzt igényel, és a szokásosnál nagyobb szerepet kap ebben az esetben a szerencse is.

Nincs két ugyanolyan linképítő kampány, és a linkek építésének módja ugyanannyira függ a webhelytől, mint az építő személyiségétől. Érdemes ezért bemutatni egy link megszerzésének három alapvető típusát.

„Természetes” szerkesztői linkek

Azok a linkek tartoznak ide, amelyeket természetes módon kapsz bizonyos webhelyektől. Ezek a linkek nem igényelnek konkrét linképítési cselekvést, viszont csak akkor lehet benne részed, ha értékes és izgalmas (megosztásra érdemes) tartalmakat hozol létre, és gondoskodsz is arról, hogy azok nagyobb olvasói réteghez eljussanak.

Kézi „outreach” linképítés

A linképítésért felelős szakértő ebben az esetben kapcsolatba lép a céloldal tulajdonosával (például e-mailt ír neki), és megkéri, hogy jelenítse meg a linkjét. Gyakori módszer, a mai napig népszerű.

A szakértő ilyenkor ajánlatot tesz, és elmagyarázza megcélzott oldal tulajdonosának, hogy miért érdemes neki a kívánt linket megjeleníteni. A fizetség sokrétű (akár anyagi ellenszolgáltatás is) lehet.

Saját készítésű, de nem szerkesztői

Több százezer weboldal kínál a látogatóinak lehetőséget arra, hogy a vendégkönyvben, a fórumaláírásokban, a blogmegjegyzésekben vagy akár a felhasználói profilokon keresztül linkeket hozzon létre. Ezek a linkek kínálják a legalacsonyabb értéket, de összességében így is hatással lehetnek a webhely rangsorolására.

Általánosságban persze elmondható, hogy a keresőmotorok a legtöbb ilyen típusú linket értéktelennek tekintik, és arra is tudunk példát, hogy megbüntetik azokat a webhelyeket, amelyek agresszíven használják ezt a módszer. Manapság az ilyen típusú kapcsolatokat gyakran spamnek tekintik a keresőmotorok, ezért óvatosan kell velük bánni.

Szakértőként rajtad múlik, hogy kiválaszd, a fenti módszerek közül melyik hozhatja neked a legmagasabb megtérülést. Általános szabály, hogy a linkprofilt a lehető legnagyobbra és legváltozatosabbra kell építeni, hiszen ezáltal érhető el a legjobb eredmény a rangsorolás során. Készülj arra, hogy bármely nem szabványos, természetellenes vagy manipulatív linképítési mintát a keresőmotorok végül kiiktatnak a folyamatosan fejlődő algoritmusukból.

EGY LINKÉPÍTÉSI KAMPÁNY ELINDÍTÁSA

Mint minden marketingtevékenység, úgy a linképítési kampány esetében is a célok kialakítása és a stratégia létrehozása az első lépés. Sajnos a linképítés az egyik legnehezebben mérhető tevékenység: bár a keresőmotorok mindegyik hivatkozást precízen, matematikai mérőszámokkal becsülik fel, a külső felhasználóknak lehetetlen hozzáférni ehhez az információhoz.

A szakértők ugyanakkor számos jelzésre támaszkodnak, amelyek segítenek egy linkértéket minősítő skála kialakításában. A fent említett linkjelzőkből származó adatok mellett ezek a mutatók a következőket tartalmazzák:

A releváns keresési kifejezésekre való rangsorolódás

Az egyik legjobb módszer annak megállapítására, hogy a keresőmotor milyennek értékel egy adott oldalt, az az, ha keresel néhány olyan kulcsszót és kifejezést, amelyeket az oldal megcélzott (különösen a title tagben és a fejlécben találhatókat).

Hasznos tanács: ha például egy weblap a „kutya kennel” kifejezésre próbál jó helyezést elérni, akkor olyan oldalakról érdemes linkeket szerezni, amelyek erre a kifejezésre már jól szerepelnek a találati listán.

MozRank

A MozRank (mR) azt mutatja meg, hogy az adott weblap milyen népszerű a weben. A magas MozRank-pontszámokkal rendelkező oldalak jobb helyezéssel rendelkeznek a találati listán, és minél több hivatkozás mutat egy adott oldalra, az annál népszerűbb lesz. A fontosabb oldalakról érkező linkek nagyobb hatékonysággal növelik egy oldal népszerűségét – ennek következményeként pedig a MozRankot is –, mint a népszerűtlen weboldalak.

Egy oldal MozRankja javítható azáltal, hogy az sok linket kap közepesen népszerű oldalakról, vagy néhány linket nagyon népszerű oldalakról.

Domain hitelesség (Domain Authority)

A Moz Domain Authority (vagy DA) egy lekérdezés független mérőszám, amely azt figyeli, hogy egy adott domain milyen valószínűséggel szerepel majd jól a rangsorban az adott lekérdezésre. A DA-t az internetes domainhálózat elemzésével és egy adott domainnek a Google több tízezer lekérdezésével történő összehasonlításával számítják ki.

A versenytárs bejövő linkjei

Vizsgáld meg, hogy egy adott kulcsszóra jó helyezést elérő weboldalra milyen külső linkek (backlinkek) mutatnak. Nagy valószínűséggel ezek a backlinkek értékes oldalakról származnak. Ehhez a vizsgálathoz például az Open Site Explorert használhatod.

Oldalakon lévő linkek száma

Az eredeti PageRank-képlet szerint az az érték, amelyet egy link közvetít, felhígul akkor, ha az oldalon más linkek is találhatók. Ha minden más szempontot kizárunk (vagy azonosnak tekintünk), akkor egy kevés linkkel rendelkező oldalról érkező hivatkozás jobb, mint egy sok linkkel rendelkező oldalról származó. Az, hogy ez milyen fokig releváns, sajnos nem pontosan ismert (tesztelésünk alapján fontosnak tűnik, de nem túlzottan), viszont érdemes ennek tudatában lenni a linkszerzési kampány során.

Keresőn kívülről érkező potenciális forgalom (referral)

A linképítés nem csak és kizárólag a keresőmotorokról és keresőmotoroknak szól. Azok a linkek, amelyeken keresztül nagy mennyiségű közvetlen átkattintási forgalom érkezik, nemcsak jobb értéket biztosítanak a találati rangsorban, de célzott, értékes látogatókat is küldhetnek webhelyedre; ez pedig minden onlinemarketing-tevékenység alapvető célja. Ráadásul ez az oldallátogatások vagy az oldalmegtekintések száma alapján tökéletesen mérhető.

Ne feledd: a változók magabiztos használatához idő, gyakorlat és tapasztalat szükséges, és a webhelyek elemzésével később viszonylag hatékonyan meg tudod majd határozni, hogy az adott kampány sikeres volt-e.

Egy kampány pedig akkor sikeres, ha nő a keresőkön keresztül érkező forgalom, jobb a helyezés a találati listán, gyakoribbak a feltérképezések és a keresőkön kívülről bejövő forgalom növekedése jól látható. Ha ezek a mutatók nem emelkednek a linképítési kampány után, akkor lehetséges, hogy jobb minőségű linkcélokat kell keresned, vagy javítani kell az on-page optimalizálást.

3 JÓ PÉLDA A LINKÉPÍTÉSI STRATÉGIÁRA

#1. Érd el az ügyfeleidnél, hogy a linked megjelenjen a honlapjukon

Ha rendszeresen együtt dolgozol partnerekkel, vagy hűséges ügyfeleid vannak, akkor ezt kihasználhatod partnerjelvények kiküldésével; ezek olyan grafikus ikonok, amelyek a honlapodra mutató linket tartalmaznak (mint ahogy a Google is teszi ezt az Ads hitelesítési programja során). Ez ahhoz hasonló, mint amikor ráveszel embereket arra, hogy a te logóddal ellátott pólót viseljenek. Ha több információra vagy kíváncsi, nézd meg ezt a bejegyzést az e-kereskedelmi linkekről.

#2. Hozz létre egy vállalati blogot

Ez legyen értékes, informatív és szórakoztató forrás. Ez a linképítési taktika annyira népszerű és értékes, hogy még a Google mérnökei is ajánlják. A blogokon folyamatosan megjelenhetsz friss és hasznos tartalmakkal, részt vehetsz webes beszélgetésekben, és linkeket szerezhetsz más blogokon, beleértve a blogrollokat és a blogkönyvtárakat is.

De vigyázz: olyan tartalmat kell létrehoznod, amely elősegíti a megosztást és a természetes hivatkozások megjelenését. A keresőoptimalizálás világában ezt gyakran „linkbaitnek” nevezzük. Jó példa erre David Mihm Local Search Ranking Factors-a, a Meerkat összehasonlítása vagy a vicces Hogyan ne tisztítsunk ablakot.

Ha pedig a tartalmat sok felhasználó osztja meg, az emeli a blog értékét a honlap tulajdonosok szemében; ez hosszabb távon backlinkeket hozhat a konyhára. Az ilyen magas színvonalú, szerkesztő általi „szavazatok” felbecsülhetetlen értékűek a bizalom, a megbízhatóság és a rangsorolás lehetőségeinek kiépítésében.

#3. Legyél újdonság

A sajtó, a bloggerek és a média figyelmének felkeltése hatékony és hagyományos módja a linkszerzésnek. Néha ezt egyszerű dolgokkal is  elérheted (giveaway, új termék piacra dobása, vélemény formálása egy adott témában).

A LINKÉPÍTÉSI TEVÉKENYSÉG NAGYBAN FÜGG A WEBHELY TÍPUSÁTÓL

Kisebb oldalak esetében a manuális linképítés (könyvtárak, linkkérések és linkcsere) is része lehet a folyamatnak. Nagyobb weblapoknál viszont ezek a taktikák már nem működnek, és ennél sokkal precízebben mérhető megoldásokra van szükség.

Ilyenkor keress a tiédhez hasonló webhelyeket az üzleti tevékenységedhez közvetlenül kapcsolódó kulcsszavak és kifejezések segítségével. Amikor olyan weboldalt találsz, amely nem közvetlenül versenytárs, akkor vedd fel a tulajdonossal a kapcsolatot, és kérd a linked elhelyezését, vagy ajánlj fel linkcserét.

„MUTASD A PÉNZT”

A Google és a Bing arra törekszik, hogy csökkentse a fizetett linkek hatását az organikus keresési eredményekben. Noha lehetetlen, hogy az összes fizetett linket észleljék és kétségbe vonják, a keresőmotorok sok időt és erőforrást használnak fel azok felderítésére.

A linkvásárláson kapott vagy linkrendszerekben részt vevő honlapok pedig súlyos büntetéseket kockáztatnak, és az ilyen tevékenységek miatt ezek a weboldalak akár el is veszíthetik jó helyezésüket. Ettől függetlenül a hivatkozásvásárlás néha működhet, ha óvatosan csinálod.

Mi viszont inkább azt javasoljuk, hogy olyan hosszú távú linképítési stratégiát kövess, amely a linkek természetes kiépítésére összpontosít. A tapasztalatok azt mutatják, hogy ezzel lehet tartós eredményeket elérni.

KERESŐMOTOR-ESZKÖZÖK ÉS -SZOLGÁLTATÁSOK

Van egy jó hírünk! A keresőmotorok (illetve a mögöttük álló cégek) azt szeretnék, ha a webmesterek mindenki által könnyen elérhető és felhasználóbarát honlapokat hoznának létre, ezért a szakértőknek többfajta eszközt, elemzést és útmutatást is a rendelkezésükre bocsátanak.

Ezek a szabad források adatokat és egyedi lehetőségeket biztosítanak a motorokkal való információcserére. Ebben a fejezetben azokat a közös elemeket ismertetjük, amelyeket a nagy keresőmotorok mindegyike támogat, és meghatározzuk azt is, hogy ezek miért hasznosak.

Elsőként a közös keresőmotor-protokollokról beszélünk.

1. WEBHELYTÉRKÉPEK

A webhelytérkép olyan fájl, amiben a tulajdonos információt közölhet a keresőmotoroknak a webhelyén található tartalmakról. A webhelytérképek abban segítenek, hogy a keresőmotorok megtalálják és osztályozzák azokat a (webhelyen található) tartalmakat, amelyeket maguktól nem találtak volna meg. A webhelytérképek különböző formátumokban készülhetnek.

A protokollok részleteit a Sitemaps.org webhelyen olvashatod el, emellett saját webhelytérképeket is létrehozhatsz az XML-Sitemaps.comon. A webhelytérképeknek három fajtája van:

  • XML. Extensible Markup Language (ajánlott formátum).
    Ez a webhelytérképek legszélesebb körben elfogadott formátuma. A keresőmotorok könnyen ki tudják elemezni az ilyen fájlban található információkat, és sok webhelytérkép-generátor is elő tudja állítani. Az XML lehetővé teszi az oldalparaméterek részletes kontrollálását. Hátránya, hogy viszonylag nagy fájlméretet eredményez a használata.
  • RSS. Really Simple Syndication vagy Rich Site Summary.
    Előnye, hogy könnyen karbantartható. Az RSS-webhelytérképek viszonylag egyszerűen kódolhatók arra, hogy automatikusan frissüljenek az új tartalom hozzáadásakor. Hátránya, hogy bár az RSS az XML dialektusa, valójában sokkal nehezebb kezelni a frissítési tulajdonságai miatt.
  • Txt. Szöveges fájl (lásd jegyzettömb).
    Előnye, hogy rendkívül egyszerű. Hátránya, hogy nem biztosítja a lehetőségét a metaadatok oldalakhoz történő hozzáadásának.

2. ROBOTS.TXT

robots.txt fájl a Robots Exclusion Protocol terméke, és az valójában egy webhely gyökérkönyvtárában tárolt fájl (pl. www.google.com/robots.txt). A robots.txt fájl utasításokat ad a webhelyre látogató automatizált webfeltérképező robotoknak, beleértve a keresőrobotokat is.

Használatával a webmesterek azt jelezhetik a keresőmotorok számára, hogy egy webhely mely területeit szeretnék a bejárástól mentesíteni, valamint itt jelzik a webhelytérképfájlok helyét és a feltérképezéskésleltetési paramétereket. Bővebb információt a robots.txt Knowledge Center oldalán olvashatsz erről a témáról.

A következő lehetőségek állnak rendelkezésre:

  • Disallow
    Megakadályozza, hogy a robotok hozzáférjenek bizonyos oldalakhoz vagy mappákhoz.
  • Sitemap
    A weboldal webhelytérképének helyét jelzi.
  • Crawl Delay 
    Azt a sebességet jelzi (másodpercben), amivel a robot feltérképezheti a szervert.

Példa a Robots.txt-re:

# Robots.txt www.example.com/robots.txt

User-agent: *

Disallow:

# Nem hagyja, hogy a spambot feltérképezze bármelyik oldalt

User-agent: spambot

Disallow: /

sitemap: www.example.com/sitemap.xml

ERRŐL JÓ, HA TUDSZ!

Nem minden webrobot követi a robots.txt fájlt. A rossz szándékú személyek (pl. e-mail scraperek) olyan botokat építenek, amelyek nem követik ezt a protokollt, és szélsőséges esetekben ezt használhatják fel a személyes adatok helyének azonosítására. Ezért ajánlott, hogy az adminisztrációs részek és a nyilvánosan hozzáférhető webhelyek egyéb privát részeinek helye ne kerüljön bele a robots.txt fájlba. Ehelyett ezek a lapok a meta robots taget használják (lásd következő rész) azért, hogy a nagy keresőmotorok ne indexeljék a magas kockázattal rendelkező tartalmakat.

3. META ROBOTS

A meta robots címke oldalszintű utasításokat hoz létre a keresőmotorok botjainak, és azt a HTML-dokumentum fejrészében kell szerepeltetni.

Példa a meta robotsra:

<Html>

  <Head>

    <title> A legjobb weblap </title>

    <meta name = “ROBOTS” content = “NOINDEX, NOFOLLOW”>

  </ Head>

  <Body>

    <h1> Hello world</h1>

  </ Body>

</ Html>

4. REL=”NOFOLLOW”

Emlékszel rá, hogy azt írtuk, a linkek épp úgy működnek, mint a szavazatok? Nos, a rel=nofollow attribútum lehetővé teszi, hogy linkelj egy forráshoz, miközben eltávolítod a keresőmotor szempontjából fontos „szavazatodat”. A „nofollow” azt mondja a keresőmotoroknak, hogy azok ne kövessék a linket.

A nofollow példája:

<a href=”http://www.example.com” title=”Example” rel=”nofollow”> Példa link </a>

5. REL=”CANONICAL”

Gyakran előfordul, hogy két vagy több, ugyanolyan tartalmú másolat jelenik meg a webhelyen különböző URL-ek alatt. Például a következő URL-ek egyetlen honlapra vonatkozhatnak:

  • http://www.example.com/
  • http://www.example.com/default.asp
  • http://example.com/
  • http://example.com/default.asp
  • http://Example.com/Default.asp

A keresőmotorok viszont ezeket öt különböző oldalként értelmezik majd. Mivel a tartalom minden oldalon megegyezik, ezért a keresőmotorok leértékelhetik az oldalakat, és azok potenciális helyezése is hátrébb kerülhet a találati listán.

A canonical tag ezt a problémát oldja meg azáltal, hogy jelzi a keresőrobotoknak, melyik oldal az egyes számú, hiteles verzió, amelynek a webes találati listán számítania kell.

Példa:

rel = “canonical” ehhez az URL-hez: http://example.com/default.asp

<Html>

  <Head>

    <title> A legjobb internetes oldal </title>

    <link rel = “canonical” href = “http://www.example.com”>

  </ Head>

  <Body>

    <h1> Hello world</h1>

  </ Body>

</ Html>

A fenti példában a rel=canonical azt mondja a robotoknak, hogy ez az oldal a http://www.example.com egy példánya, és az utóbbi URL-t tekintse elismertnek és hitelesnek.

A KERESŐMOTOROK ESZKÖZEI

Két fontosabb eszközt szedtünk össze neked, ezekre érdemes odafigyelni.

GOOGLE SEARCH CONSOLE

A Google Search Console főbb jellemzői:

Földrajzi cél. Ha egy adott webhely egy adott földrajzi hely felhasználóit célozza meg, akkor a webmesterek információt szolgáltathatnak a Google-nak ezzel kapcsolatban. A jelzés segítségével a Google meghatározhatja, hogy az adott webhely hogyan jelenjen meg az országspecifikus keresési találatok között, és azzal javítani lehet a Google keresési eredményeit a földrajzi lekérdezéseknél is.

Előnyben részesített domain. Preferált domainnek nevezzük azt, amelyet a webmester a webhely oldalainak indexelésénél használni akar. Ha egy webmester a http://www.example.com domaint határozza meg preferáltként, és a Google a http://example.com formátumú webhelyre mutató linket talál, akkor a Google úgy fogja kezelni ezt a linket, mintha a http: //www.example.com címre mutatna.

URL-paraméterek. Webmesterként a webhely minden egyes paraméterét jelezheted a Google-nak, például a „sort=price” és a „sessionid=2” paramétereket. Ez segít a Google-nak az adott webhelyet még hatékonyabban feltérképezni.

Feltérképezési ráta. A bejárási sebesség befolyásolja a Googlebot lekéréseinek sebességét (de nem a gyakoriságát) a feltérképezési folyamat során.

Malware. A Google tájékoztatni fog, ha egy rosszindulatú programot talált a webhelyeden. A rosszindulatú programok rossz felhasználói élményt okoznak, és ha ez ellen nem teszel valamit, annak következménye a találati listában elért helyezéseden is meglátszódik majd.

Feltérképezési hibák. Kérheted, hogy a Googlebot értesítést küldjön arról, ha jelentős hibákat észlel a webhelyed feltérképezésekor (pl. 404).

HTML-javaslatok. A Google ilyenkor nem keresőmotor barát HTML-elemeket keres, mint például a meta-leírásokkal és a title tagekkel kapcsolatos problémák.

A WEBHELYED AZ INTERNETEN

A keresőmotor-eszközök által szolgáltatott statisztikák egyedülálló betekintést nyújtanak a SEO-ba, mint például a kulcsszó-megjelenítések, az átkattintási arányok, a keresési eredményekben megadott legjobb oldalak és a linkstatisztikák.

Webhely-konfiguráció

Lehetővé teszi a webhelytérképek és a robots.txt fájlok előterjesztését, a webhelylinkek módosítását és az URL-cím módosítási kérések benyújtását akkor, amikor a webhelyet az egyik domainről egy másikra helyezed. Ez a terület magában foglalja az előző részben tárgyalt Beállítások és URL paraméterek részeket is.

Labs

A Search Console „Labs” részében olyan beszámolók találhatóak, amelyeket a Google még mindig a kísérleti szakaszban tart, de amelyek ennek ellenére hasznosak lehetnek a webmesterek számára. A beszámolók közül az egyik legfontosabb a webhely teljesítménye, amely azt jelzi, hogy milyen gyorsan vagy lassan töltődik be a webhely a látogatók számára.

BING WEBMESTERESZKÖZÖK

A Bing Webmestereszközök főbb jellemzői:

Webhelyek áttekintése. Az interfész áttekintést nyújt az összes webhelyed teljesítményéről a binges keresési eredmények között. A mutatókra elég csak egy pillantást vetni, hogy lásd a kattintásokat, a megjelenítéseket, az indexelt oldalakat és az egyes webhelyeken feltérképezett oldalak számát.

Feltérképezési statisztikák. Itt tekintheted meg a jelentéseket arról, hogy hány oldaladat járta már be a Bing, és megtudhatod, hogy milyen hibák merültek fel a folyamat közben. A Google Search Console-hoz hasonlóan webhelytérképeket is feltölthetsz, amelyek segítenek a Bingnek abban, hogy feltérképezze és rangsorolja a tartalmadat.

Index. Ez a rész lehetővé teszi a webmesterek számára, hogy megtekinthessék és ellenőrizhessék azt, hogy a Bing hogyan indexeli a weboldalaikat. A Google Search Console beállításaihoz hasonlóan itt is megnézheted, hogyan van elrendezve a tartalmad a Bingen belül, URL-eket tudsz feltölteni, URL-eket távolíthatsz el a keresési eredményekből, felfedezheted a bejövő linkeket és beállíthatod a paraméterbeállításokat.

Forgalom. A Bing Webmestereszközök forgalom összefoglalója megjelenítési és átkattintási adatokról számol be a Bing és a Yahoo! kombinált keresési eredményei alapján. A jelentések itt az átlagos pozíciót és a költségbecsléseket mutatják akkor, ha esetleg kulcsszavakat célzó hirdetéseket vásárolnál.

MOZ OPEN SITE EXPLORER

A Moz Open Site Explorere értékes betekintést nyújt a webhelyedre és annak linkjeire. Érdemes külön beszélni a segédprogram fontosabb jellemzőiről.

Hatékony hivatkozások azonosítása. Az Open Site Explorer az összes bejövő linket a mutatóik szerint rendezi, amely így segít meghatározni azt, hogy mely linkek a legfontosabbak.

Keresd meg a legerősebb linking domaineket. Ez az eszköz megmutatja a domainedre hivatkozó legerősebb domaineket.

Link-horgonyszöveg-eloszlás elemzése. Az Open Site Explorer megmutatja a szöveg eloszlását, amelyet más webhelytulajdonosok akkor használtak, amikor a honlapodra irányító linket használtak.

Fej-fej melletti összehasonlító nézet. Ez a funkció lehetővé teszi, hogy összehasonlíthass két webhelyet, ezáltal megértheted, hogy miért van az egyik előrébb rangsorolva a másiknál.

Social média megosztási mutatók. Mérd meg a Facebookos megosztásokat, a lájkokat, a tweeteket és a pineket bármely URL-nél.

Tartsd szem előtt, hogy a keresőmotorok még csak nemrég kezdtek jobb eszközöket fejleszteni és adni a webmestereknek, hogy azok hatékonyan javíthassanak a keresési eredményeiken.

Ma is igaz, és valószínűleg igaz lesz a jövőben is, hogy a keresőoptimalizálás végső felelőssége a marketingeseket és a webmestereket terheli.

MÍTOSZOK ÉS TÉVHITEK A KERESŐOPTIMALIZÁLÁSRÓL

Az elmúlt években számos tévhitről olvashattunk a keresőmotorok működésével kapcsolatban. A kezdőknek ez rengeteg félreértést okozhat, ezért fontosnak tartjuk, hogy beszéljünk a különböző mítoszokról, és hogy tiszta vizet öntsünk abba a bizonyos pohárba.

KERESŐMOTOR-BEADVÁNY

A klasszikus időkben (az 1990-es évek végén) a keresőmotoroknak úgynevezett beadványai voltak, amelyek az optimalizálási folyamat részét képezték. A webmesterek és a webhelytulajdonosok kulcsszavakkal címkézték fel webhelyeiket és aloldalaikat, és benyújtották a kitöltött űrlapokat a keresőmotoroknak. Az űrlap benyújtását követően egy bot feltérképezte és indexbe foglalta a forrásokat.

A keresőmotorok fejlesztői azonban idővel rájöttek, hogy ez a módszer nem megfelelő, mivel a beadványokat gyakran spamelték, ezért új megoldás után kellett nézniük. Így jöttek létre a tiszta feltérképezés alapú keresőmotorok.

2001-től kezdve ezért már nem szükséges beadványokat készíteni, hiszen a motorok automatikusan és űrlapok kitöltése nélkül dolgoznak.

Ettől függetlenül előfordulhat, hogy még most is találsz néhány olyan oldalt, ahol a beadványokra helyezik a fókuszt, de ezek inkább már csak a múlt maradványai, és a modern keresőoptimalizáláshoz nincs szükség rájuk. Ha ilyen jellegű szolgáltatásokat kínáló bemutatkozást hallasz, fuss, és meg se állj, míg egy igazi szakértőt nem találsz!

Miért? Azért, mert ha a motorok a benyújtási szolgáltatást is használják a webhely feltérképezéséhez, még akkor sem valószínű, hogy elég erős linkeket tudsz szerezni ahhoz, hogy bekerülj az indexeikbe, vagy, hogy versenyképes leszel a keresési lekérdezések között.

META CÍMKÉK

A meta tagek (különösen a meta kulcsszavak) régen fontos részét képezték a keresőoptimalizálási folyamatnak. A módszer így nézett ki: azokat a kulcsszavakat, amelyekre a webhelyet rangsorolni szerették volna, belefoglalták a tagekbe, és amikor a felhasználók begépelték ezeket a kifejezéseket, lehet, hogy az adott oldal jelent meg a találati listában.

Gondolhatod, hogy mi lett ennek a következménye: a módszert szétspamelték, és annak használatát mint fontos rangsoroló szempontot végül az összes nagyobb keresőmotor ejtette. De valamit ne felejts el!

Más címkék (különösen a title tag és a meta description tag) kulcsfontosságú szerepet kap a minőségi keresőoptimalizálás szempontjából, és emellett a meta robots címke is fontos eszköz a robot hozzáférésének ellenőrzéséhez.

KULCSSZÓHALMOZÁS

Emlékszel még arra az időszakra, amikor egy sor ilyen és ehhez hasonló szöveget olvashattál a különböző honlapokon? Voilá:

Kis-Nagy Péter, az olcsó budapesti vízvezetékszerelő a legjobb olcsó budapesti vízvezetékszerelő az összes vízvezetékszerelési munkához. Lépjen kapcsolatba egy olcsó budapesti vízvezetékszerelővel, mielőtt túl késő lenne.”

Nem meglepő, hogy a keresőoptimalizálásban a mai napig tartja magát az a mítosz, amely szerint a keresőmotorok a relevancia és a rangsorolások kiszámításához a kulcsszósűrűséget is használják; ami nem más, mint az oldalak szavainak száma elosztva egy adott kulcsszó említéseinek számával.

Annak ellenére, hogy ezt újra és újra megcáfolták, a tévhit nem akar kikopni a közvélekedés egyes bugyraiból. A valóság ezzel szemben az, hogy a kulcsszósűrűség nem fontos mérőszám. Figyelmen kívül kell hagynod, és az a legjobb módszer, ha a kulcsszavakat értelmesen, olvashatóan használod a szövegben. Ettől lesz a tartalmad felhasználóbarát, és az fontosabb szempont.

A FIZETETT KERESÉS (FIZETETT HIRDETÉS) TÁMOGATJA AZ ORGANIKUS TALÁLATOK HELYEZÉSÉT IS

Ez az egyik leggyakoribb összeesküvés-elmélet a keresőoptimalizálással kapcsolatban: a keresőmotor-hirdetésekre fordított kiadások (ez a kattintásonkénti fizetés, vagyis a PPC (Pay-Per-Click)) javítják az organikusan elért helyezést a találati listában.

A szakértők viszont még nem találtak arra bizonyítékot, hogy ez a vélekedés több lenne tévhitnél, és a híreszteléseket a Google, a Bing és a Yahoo! is cáfolja.

A Google rendszereiben havonta több tízmillió dollárt elköltő hirdetők is megjegyezték, hogy még ők sem kaptak megkülönböztetett elbánást az algoritmustól.

KERESŐMOTORSPAM

Amíg létezik keresés, addig spam is lesz. Az 1990-es évek közepe óta a keresőmotorok spamelésének száma folyamatosan növekszik; ez azt jelenti, hogy a spamelők olyan oldalakat és sémákat hoznak létre, amiknek a rangsorok helyezésének mesterséges befolyásolása vagy a rangsorolási algoritmusokkal való visszaélés a fő célja.

A tét természetesen nagy. Az egyik szakértő megállapította, hogy egyetlen napig tartó jobb helyezés a „buy viagra” lekérdezésre a Google találati listáján 20 ezer dollár (extra) bevételt generálhat. Nem csoda, hogy a keresőmotorok manipulálása népszerű tevékenység lett, de ez az évek során mind nehezebbé és nehezebbé vált. Ennek két oka van:

1. NEM ÉRI MEG AZ ERŐFESZÍTÉST

Szögezzük le: a felhasználók gyűlölik a spamet, a keresőmotoroknak pedig pénzügyi motivációjuk van arra, hogy fellépjenek azok ellen. Sokan úgy vélik, hogy a Google legnagyobb termékelőnye az elmúlt 10 évben épp az volt, hogy már sokkal jobban képes ellenőrizni és eltávolítani a spameket, mint versenytársai. Kétségtelen viszont, hogy erre már a többi keresőmotor is nagy figyelmet szentel, ezért a spam előállításához több erőforrásra van szükség (szemben például a jó tartalom előállításával). Ez azt jelenti, hogy spamre alapozni sem rövid, sem hosszú távon nem éri meg.

2. INTELLIGENSEBB MOTOROK

A keresőmotorok figyelemre méltó munkát végeztek a spammanipuláció elleni küzdelemben a skálázható, intelligens módszerek azonosításával, amely nehezebbé teszi az algoritmusok szándékos befolyásolását. Az olyan mérőszámok, mint a Moz TrustRank, a statisztikai elemzés és a történelmi adatok, mind-mind leszorították a keresési spam értékét, és eközben vonzóbbá tették a fehér kalapos SEO-taktikákat (azokat, amelyek nem sértik a keresőmotorok irányelveit).

A közelmúltban a Google Panda frissítése kifinomult gépi tanulási algoritmusokat vezetett be a spam és más alacsony értékű oldalak leküzdésére, és a keresőmotorok folyamatosan újítanak és emelik a mércét a minőségi találatok biztosításának érdekében.

Az eddigiekből is világos, de hangsúlyozzuk ki még egyszer: nem ajánljuk a spamtaktikák alkalmazását. Viszont segíteni is szeretnénk azoknak a webmestereknek, akiknek webhelyeit megbüntetik, betiltják vagy megjelölik. Érdemes ezért beszélni azokról a tényezőkről, amelyeket a keresőmotorok a spam azonosítására használnak. A motorok spamjével kapcsolatos további részletekért tekintsd meg a Google Search Console útmutatásait és a Bing webmester GYIK-ját.

3. OLDALSZINTŰ SPAMELEMZÉS

A keresőmotorok spamelemzést végeznek az egyes oldalakon és a teljes webhelyeken (domainek). Először vizsgáljuk meg, hogyan értékelik a keresőmotorok a manipulatív tevékenységeket URL-szinten.

Kulcsszóhalmozás

Az egyik legnyilvánvalóbb és legszerencsétlenebb spamtechnika a kulcsszóhalmozás, vagyis amikor kulcsszavakkal vagy kifejezésekkel szórják tele az oldalt, folyamatosan és gyakran értelmetlenül ismételve azokat annak érdekében, hogy relevánsabbnak tűnjön a webhely a keresőmotorok számára. Leírtuk már, de az ismétlés a tudás anyja: ez a stratégia szinte biztosan hatástalan.

Fogadd el, hogy a halmozott kulcsszavakat tartalmazó oldal szkennelése nem jelent nagy kihívást, és a keresőmotorok algoritmusai már készen állnak erre a feladatra.

Manipulatív hivatkozások

A webes spam egyik legkedveltebb formája a manipulatív linkszerzés, amelynek során a láthatóság mesterséges javítása érdekében a webmesterek megpróbálják kihasználni, hogy a keresőmotorok a linknépszerűséget is figyelembe veszik a rangsorolási algoritmusaikban. A keresőmotorok szemszögéből nézve ez a legnehezebben detektálható visszaélés, mert az sokféle formában megjelenhet.

Példák a manipulatív linkek megjelenésére:

  • Kölcsönös linkcsere programok. A webhelyek olyan linkoldalakat hoznak létre, amelyek kölcsönösen egymásra mutatnak, és ezzel próbálják növelni a linknépszerűséget. Ezt a módszert a motorok viszonylag egyszerűen ki tudják szúrni, mivel azok egy sajátos mintához illeszkednek.
  • Linkrendszerek. Ide tartoznak a „linkfarmok” és a „linkhálózatok”, ahol a hamis vagy alacsony értékű weboldalakat kizárólag linkforrások létrehozása érdekében készítik el és tartják fenn. A motorok ezek ellen a webhely regisztrációk közötti kapcsolat felderítésével, a linkátfedések és a közös linkrendszer taktikájára irányuló egyéb módszerek felfedezésével harcolnak.
  • Fizetett linkek. Akkor beszélünk erről, ha valaki linkeket vásárol olyan oldalakról, amelyek hajlandók pénzért cserébe azokat elhelyezni az oldalukon. Tegyünk különbséget azonban két módszer között: egészen másról beszélünk abban az esetben, ha például egy fizetett PR-megjelenés keretében az adott tartalomban (a szerződés értelmében) a másik oldalnak a linkedet is meg kell jelenítenie. A módszerrel akkor van baj, ha a fizetett linkek a hivatkozások vásárlóinak és eladóinak nagyobb hálózataivá fejlődnek. A keresőmotorok keményen dolgoznak, hogy megakadályozzák ennek a módszernek a terjedését (különösen a Google tett jelentős intézkedéseket).
  • Alacsony minőségű linkkatalógusok. Gyakori manipulációs forrás a keresőoptimalizálásban. Számos – pénzért cserébe elhelyezést kínáló – internetes katalógus létezik, amelyek szabályosnak adják ki magukat, pedig nem azok. A Google gyakran fellép ezekkel az oldalakkal szemben úgy, hogy eltávolítja (vagy drámaian csökkenti) a PageRank-pontszámot az eszköztárából.

A keresőmotorok számos más manipulatív linképítési taktikát is felfedeztek már a működésük során, és az ilyen spamelési technikák ellen a motorokat fejlesztő szakemberek továbbra is küzdeni fognak.

Álcázás

A keresőmotor-irányelvek alapvetése az, hogy ugyanazt a tartalmat jelenítsd meg a keresőmotor feltérképező robotjának, mint amelyet egy felhasználónak mutatsz. Ez többek között azt is jelenti, hogy nem rejtesz el a webhelyed HTML-kódjában szöveget, amelyet aztán egy sima felhasználó nem lát.

Ha ez az irányelv nem teljesül, azt a motorok „álcázásnak” veszik, és lépéseket tesznek azért, hogy ne érjen el az adott oldal jó helyezést a találati listában.

Az álcázás többféle módon és többféle okból is megtörténhet, és ezek mindegyike lehet pozitív és negatív is. Bizonyos esetekben a keresőmotorok technikai álcázást megengednek, mert annak használata hozzájárulhat a pozitív felhasználói élményhez.

Alacsony értékű oldalak

Bár ez technikailag nem tekinthető webes spamnek, ma már mindegyik keresőmotor meg tudja állapítani, hogy a vizsgált weboldal egyedi tartalmat és értéket biztosít-e a felhasználóknak. A leggyakrabban szűrt oldaltípusok az átvett tartalmak, a tartalmak ismétlődései és a dinamikusan létrehozott tartalomoldalak, amelyek nagyon kevés egyedi szöveget vagy értéket adnak. A keresőmotorok fellépnek ez ellen a módszer ellen, és számos tartalmi és linkelemzési algoritmust használnak az alacsony értékű oldalak kiszűrésére.

A Google 2011-es Panda- algoritmus frissítése agresszív lépéseket tett a rossz minőségű tartalmak csökkentése érdekében, és a Google továbbra is ezt a folyamatot követi.

4. DOMAINSZINTŰ SPAMELEMZÉS

A keresőmotorok azonosítani tudják azon jellemzőket is az egész gyökér- vagy aldomainben, amelyek spamként definiálhatják azokat az algoritmusok szemében.

Hivatkozási gyakorlatok

A keresőmotorok figyelemmel kísérhetik az adott webhelyre küldött hivatkozások típusát és minőségét is. Azon weboldalak, amelyek következetesen és befolyásoló módon vesznek részt a fentebb leírt manipulációs tevékenységekben, azok a keresési forgalmuk csökkenését vehetik észre; legrosszabb esetben pedig ki is tilthatják a webhelyeiket a keresőmotorok az indexből.

Szavahihetőség

A megbízható státuszt szerzett weboldalakat gyakran másképp kezelik a keresőmotorok, mint azokat, amik nem rendelkeznek még ezzel a státusszal. A szakértők már szóvá tették ezt a kettős mércét, ami megvalósulhat például a nagyobb jelentőségű webhelyek és az új, független oldalak megítélése között. A módszer használata viszont bizonyos szempontból érhető.

A keresőmotorok nézőpontjában a bizalom valószínűleg a domain által megszerzett linkekkel lehet kapcsolatban. Ha alacsony minőségű, ismétlődő tartalmat tesz valaki közzé a személyes blogján, majd több linket vásárol a spames könyvtárakból, akkor valószínűleg jelentős rangsorolási problémákkal szembesül majd. Ha azonban a weboldal tulajdonosa ugyanazt a tartalmat a Wikipédián is közzéteszi – még akkor is, ha a fenti példában említett spamlinkek továbbra is az URL-re mutatnak –, akkor valószínűleg jobb helyezést ér el a találati listán.

Ez az adott domainbe vetett bizalom és a hitelesség hatalma. A bizalom a bejövő linkek segítségével is megállapítható.

Tartalomérték

Ahogy azt leírtuk, egy oldal értékét a keresőmotorok részben az egyediség és a látogatók tapasztalatai alapján számítják ki; ugyanezt csinálják a teljes domain értékének kalkulásakor is. Azok a webhelyek, amelyek elsődlegesen nem egyedi és nem értékes tartalmat szolgáltatnak, azok nem szerepelnek jól a találati listában, még akkor sem, ha a klasszikus on-page és off-page SEO jól optimalizált. A motorok nem akarják az indexeiket több ezer példányban másolatokkal feltölteni, ezért algoritmikus és manuális felülvizsgálati módszereket használnak ennek kiküszöbölésére.

A keresőmotorok emellett folyamatosan értékelik saját eredményeik hatékonyságát, és kiemelt figyelmet fordítanak a minőségre. Ráadásul nem elég csak a jó helyezés eléréséért küzdeni; miután megszerezted a kívánt helyet a rangsorban, újra és újra bizonyítanod kell, hogy arra érdemes vagy.

HONNAN TUDHATOD, HOGY ROSSZ VOLTÁL?

Merthogy – kis túlzással – bárkivel előfordulhat, hogy akarva-akaratlanul rossz útra téved, és sokszor nehéz megállapítani azt is, hogy egy webhely kapott-e büntetést a keresőmotoroktól vagy sem. Hiszen lehet, hogy csak az algoritmus változott meg…

… vagy te csináltál valamit, ami bár nem ütközik a szabályokba, de negatívan befolyásolta a helyezésedet. Mielőtt azt feltételeznéd, hogy megbüntettek, ellenőrizd a következőket:

ELSŐ LÉPÉS: KIZÁRÁS

Először végezd el a kizárással kapcsolatos feladatokat.

Hibák

Vannak-e olyan hibák a webhelyeden, amelyek gátolhatják vagy megakadályozhatják a feltérképezést? A Google Search Console jó eszköz ennek felméréséhez.

Változtatások

Hatással lehettek-e a helyezésedre a webhelyen vagy az aloldalakon történt módosítások? Ezek megváltoztathatták, hogyan látják a keresőmotorok a tartalmadat. Lásd on-page változások, a belső linkszerkezet változásai, tartalommozgások stb.

Hasonlóság

Ellenőrizd, hogy vannak-e olyan aloldalak, amelyek hasonló backlinkprofillal rendelkeznek, és nézd meg, hogy vesztettek-e azok is a helyezésükből. Amikor a motorok frissítik a rangsorolási algoritmusukat, akkor a linkértékelés és a fontosság eltolódhat, ez pedig eltéréseket okozhat a rangsorolásban.

Ismétlődő tartalom

A modern weboldalak sokszor küzdenek az ismétlődő tartalom problémájával, különösen, ha azok nagy méretűek. Ellenőrizd, hogy nem vétettél-e ezen irányelv ellen.

A BÜNTETÉSEK MEGSZÜNTETÉSE

Készülj fel arra, hogy a felülvizsgálat kérése, esetleg a motorokba történő újbóli visszavétel gyakran nehézkes és sikertelen procedúra. A büntetést ritkán kíséri visszajelzés a keresőmotorok részéről, és azok nem hívják fel külön a figyelmedet arra, hogy miért kerültél a szégyenpadra, viszont fontos tudni, hogy mit kell tenned büntetés vagy tilalom esetén.

Ha még nem gondoskodtál róla, akkor regisztráld a webhelyed az adott keresőmotor Webmestereszközök szolgáltatásában. Ez a regisztráció egy plusz bizalmi pont, és az kapcsolatot teremt a webhelyed és a keresőmotort fejlesztő csapat között.

Győződj meg róla, hogy alaposan leellenőrizted-e a Webmestereszközök fiókjainak adatait, kezdve a törött oldalaktól a szerver vagy feltérképezési hibákon keresztül a figyelmeztető vagy spamjelző üzenetekig.

Probléma esetén küldd el a felülvizsgálati vagy újbóli felvétel iránti kérelmedet a keresőmotor Webmestereszközök szolgáltatásán keresztül, és ne a nyilvános csatornákat használd. Ez bizalmi szempontból szintén erősebb, és ezért nagyobb eséllyel kapsz majd választ a kérdéseidre, kéréseidre.

Légy őszinte, mert ez fontos ahhoz, hogy valóban átgondolják a felülvizsgálatot, és pozitív színben tekintsenek rád. Ha például spamelés történt, akkor vallj be mindent, amit tettél; kezdve a megszerzett linkektől egészen addig, hogyan kaptad meg azokat és hogy ki adta el neked stb. A keresőmotorok, különösen a Google, részleteket akarnak, hogy javíthassák az algoritmusaikat. Ha elhallgatod a fontos részleteket, akkor valószínűleg tisztességtelen, korrupt vagy épp reménytelen esetnek gondolnak majd, és nem is válaszolnak.

Távolíts el vagy javíts meg mindent, amit csak tudsz. Ha rossz linkeket szereztél, próbáld meg leszedni azokat. Ha bármilyen manipulációt végeztél a saját webhelyeden (túloptimalizált belső linkelés, kulcsszóhalmozás stb.), akkor szüntesd meg ezeket, és csak utána küldd el a kérést.

Készülj fel a várakozásra, a válasz megérkezéséhez ugyanis hetekre vagy akár hónapokra is szükség lehet (mint ahogy az újbóli visszaillesztésre is, már ha ez egyáltalán megtörténik). Megbecsülni is nehéz, hogy a keresőmotorok hány oldalt büntetnek meg naponta, de valószínűleg sejted, hogy nagyon sokat. A várólista ezért mindig hosszú.

Érdemes részt venni a szakmai konferenciákon, mert a keresőmotorok fejlesztői rendszeresen megjelennek ezeken, és a kapcsolatteremtésre szánt idő és pénz a problémák esetén (kamatostul) visszafizetődhet.

Emellett légy tudatában annak, hogy a keresőmotoroknak nem kötelességük a büntetés megszüntetése. Joguk van bármely webhely vagy oldal rendszerükbe történő beillesztésére vagy annak elutasítására. Fogadd el, hogy a befogadás kiváltság, nem pedig jog; ezért legyél óvatos, és ne alkalmazz olyan SEO-technikákat, amelyekkel kapcsolatban szkeptikus vagy, különben kellemetlen helyzetben találhatod magadat.

A SIKER MÉRÉSE ÉS KÖVETÉSE – ON-THE-FLY KERESŐOPTIMALIZÁLÁS

Van egy mondás: ha mérni tudod, akkor javíthatod. A keresőoptimalizálásban sincs ez másképp, és a mérés itt is a siker kritikus tényezője. A profi szakértők éppen ezért precízen nyomon követik a rangsorok, a hivatkozások és a linkek adatait, illetve segítenek a SEO-stratégia elemzésében és a sikerhez vezető tervek elkészítésében.

Éppen ezért a mostani fejezetben a követéshez ajánlott metrikáról fogunk beszélni.

Bár minden vállalkozás egyedülálló a maga nemében, és a különböző webhelyek különböző mérőszámokat tartanak fontosnak, a lentebb bemutatott lista ettől függetlenül univerzálisnak mondható.

A fejezetben nem az általánosabb, hanem a SEO szempontjából kritikus mérőszámokról fogunk írni. A webes elemzések részletesebb áttekintése érdekében olvasd el Avinash Kaushik cikkét, a Web Analytics kulcsfontosságú teljesítménymutatóit.

1. A KERESŐMOTOR RÉSZESEDÉSE A KERESŐN KÍVÜLI LÁTOGATÁSOKBÓL

Fontos feladat, ne felejtkezz meg róla: minden hónapban kövesd nyomon az egyes forgalmi források hozzájárulását a webhelyedhez. Ide tartoznak a következők:

  • Közvetlen navigáció: közvetlenül begépelt URL, könyvjelzőkön keresztüli, követőkódok nélküli e-mail-linkeken keresztüli forgalom stb.
  • Referral Traffic: a webes linkekből, illetve a követhető e-mailekből, promóciós és márkakampányok linkjeiből származó forgalom.
  • Keresési forgalom: lekérdezéseken vagy kereséseken keresztül érkező forgalom.

Mind a százalék, mind a pontos számok ismerete segíthet azonosítani a gyengeségeket, és alapot adhat a későbbi összehasonlításhoz.

Mondunk egy példát: ha látod, hogy a forgalom drasztikusan nőtt, de az nagyrészt alacsony relevanciájú referral linkekből származik, akkor még nem jött el az idő az ünneplésre. Másrészt, ha a keresőből történő forgalom drámaian csökkent, akkor lehet, hogy baj vagy. Használd fel ezeket az adatokat a marketingtevékenységek nyomon követésére és a forgalomszerzési törekvések megtervezésére.

2. A KERESŐMOTOROKON KERESZTÜLI FORGALOM

Az Egyesült Államokban az összes keresési forgalom bő 95 százalékát három fő motor birtokolja: a Google és a Yahoo!-Bing szövetség.

Az Egyesült Államokon kívül a keresési forgalom 80 százaléka kizárólag a Google-tól származik (néhány figyelemre méltó kivétel persze akad, ilyen Oroszország és Kína). Ezért fontos és mérned kell, hogy a keresőmotorok miképp járulnak hozzá a keresési forgalomhoz. A következőkre figyelj:

A teljesítmény és a piaci részesedés összehasonlítása

Ide tartozik az egyes motorok hozzájárulási mennyiségének összehasonlítása a becsült piaci részesedéssel.

A várható forgalomesések elemzése

Ha a keresési forgalom jelentősen csökken egy ponton, akkor az egyes motorok relatív és pontos hozzájárulásának ismerete elengedhetetlen a probléma diagnosztizálásához. Ha mindegyik motornál egyformán esik a forgalom, akkor a probléma szinte minden bizonnyal hozzáférhetőségi. Ha csak a Google-nál esik, míg a többiek a korábbi szinteken maradnak, az nagy valószínűséggel azt jelenti, hogy az adott motornál büntették vagy leértékelték a keresőoptimalizálási tevékenységet.

Fedezz fel stratégiai értéket

Nagy a valószínűsége annak, hogy néhány erőfeszítés, amit a keresőoptimalizálás során végzel, pozitívabb eredményeket fog mutatni az egyik motornál, és kevésbé lesz hatékony a többinél. Megfigyeltük például, hogy az on-page optimalizációs taktikák, például a jobb kulcsszóbeépítés (inclusion) és a targeting reap több előnnyel jár a Bing és a Yahoo! esetében, mint a Google-nál.

Másrészről a több domainről származó konkrét horgonyszöveglinkek megszerzése pozitívabb hatást gyakorol a Google-ra, mint a többiekre. Ha felismered a taktikákat, amelyek egyik-másik motornál sikeresek, akkor jobban fogod tudni, hogyan kell összpontosítanod az erőfeszítéseidet.

3. BIZONYOS KERESŐMOTOR-KIFEJEZÉSEK ÁLTAL GENERÁLT FORGALOM

A forgalmat hozó kulcsszavak kiemelt fontosságú elemei az elemzési tortának. Kövesd ezeket rendszeresen nyomon, hogy azok segíthessenek a kulcsszókereslet új trendjeinek azonosításában; hogy megmérjék a teljesítményedet a kulcsfontosságú kifejezések esetében; és hogy olyan kifejezéseket találhass a későbbiekben, amelyek jelentős forgalmat hozhatnak, de esetleg aluloptimalizáltak.

A kereséseken keresztüli kifejezések precíz nyomon követése, azon belül is a népszerűtlenebb kifejezések értékesek lehetnek a számodra.

Ha a trendvonalak rossz irányba mutatnak, akkor tudnod kell, hogy milyen erőfeszítéseket kell tenned a helyes irányba tereléshez. A keresési forgalom világszerte folyamatosan emelkedett az elmúlt 15 évben, ezért a referralok mennyiségének csökkenése zavaró. Ellenőrizd a szezonalitás és a rangsorolás kérdéseit (lásd: vajon a honlapod forgalma csökkent vagy a keresési volumenedé?).

4. KONVERZIÓS ARÁNY A KERESÉSI LEKÉRDEZÉS KIFEJEZÉSE ALAPJÁN

Kevés olyan fontos mutatószám van, mint a konverzió. Olyan kulcsszavakat kell találnod és használnod, amelyek fizetőképes és vásárolni képes látogatókat küldenek a weblapodra.

5. A KERESŐMOTOROKTÓL LEGALÁBB EGY LÁTOGATÁST KAPOTT OLDALAK SZÁMA

A keresőmotor-forgalmat fogadó oldalak számának ismerete alapvető mérőszám a SEO teljes teljesítményének ellenőrzéséhez. Segítségével bepillantást nyerhetsz az indexálásba, ami a webhelyedről származó oldalak száma a motorok indexeiben.

A legtöbb nagyobb webhely esetén a forgalomszerzéshez elengedhetetlen a puszta beillesztés (inclusion), és ez a mutató egy nyomon követhető számot eredményez, ami jelzője lehet a sikernek vagy a kudarcnak. Amikor olyan témákon dolgozol, mint a webhely-architektúra, a linkszerzés, az XML-webhelytérképek, valamint a tartalom és a metaadatok egyedisége, akkor a trendvonalnak emelkednie kell, ez pedig azt mutatja, hogy egyre több oldalad jut be a keresőmotorok találatai közé.

Míg más elemzési adatpontok nagy jelentőséggel bírnak, addig a fent említett példákat általánosan kell alkalmazni, hogy a SEO-kampányból a maximális értéket lehessen kihozni.

A GOOGLE (NOT PROVIDED) KULCSSZAVAI

2011-ben a Google bejelentette, hogy a bejelentkezett felhasználók forgalma ezentúl (HTTP helyett HTTPS) titkosított csatornán keresztül fog végbemenni.

Ez azt jelentette, hogy a Google Analytics-ben megjelenő szerves kulcsszóadatok helyett a Google-ba bejelentkezett felhasználók látogatásai a „(nem biztosított)” kulcsszavakat jelzik. A Google akkor azt mondta, hogy ez az összes keresési lekérdezés kevesebb mint 10 százalékát érinti majd, de a webmesterek nem sokkal később már a keresési lekérdezések 20 százalékát jelentették.

Az ezt követő két évben a webmesterek sokkal nagyobb mennyiségű (nem biztosított) kulcsszóról számoltak be, mivel egyre több keresést végeztek titkosított kereséssel (azaz a Google https:// verziójával). Idővel a szakértők olyan módszereket azonosítottak, amelyekkel megküzdhettek a (nem biztosított) helyzettel, és visszanyerhették az elvesztett adatokat.

Ilyenek például a megfelelő elemző szoftverek, lásd a Moz Analytics, az Omniture vagy a Fireclick; ingyenes változatok: a Yahoo! Web Analytics, a Google Analytics és a Clicky Web Analytics.

Függetlenül attól, hogy melyik elemző szoftvert választod, javasoljuk, hogy teszteld az oldalak különböző verzióit, és az eredmények alapján javítsd a konverziós arányokat. Az oldalak tesztelése ugyanolyan egyszerű lehet, mint egy ingyenes eszköz használata az oldal fejlécének két verziójának teszteléséhez, vagy olyan összetett is, mint egy drága, többváltozós szoftver használata egy oldal több száz változatának egyidejű teszteléséhez.

MUTATÓK A MÉRÉSHEZ

Tartsd szem előtt, hogy rendkívül nehéz optimalizálni a keresőmotorok egyedi viselkedését, mert azok algoritmusai nem nyilvánosak. De a különböző taktikák kombinációja hatékonynak bizonyult eddig, és ezek során olyan új adatok keletkeztek, amelyek segítettek nyomon követni a rangsorolást befolyásoló változókat és a rangsoroló jelek ingadozásait.

Az okos lekérdezések strukturálásával és a keresőmotorok által közzétett adatok felhasználásával ezeket te is felhasználhatod a versenyelőny megszerzésére.

Google-oldal lekérdezés

Korlátozd le a keresést egy adott oldalra. Ez kifejezetten hasznos akkor, ha meg szeretnéd tekinteni az adott domainen indexelt oldalak számát és listáját. Az értéket további lekérdezési paraméterek hozzáadásával bővítheted, például:

site: moz.com/blog inurl: tools

… ez csak azokat az oldalakat fogja megjeleníteni a Google indexében, amelyek az adott blogon találhatók, és amelyek URL-je a „tools” szót tartalmazza.

Google Trends

A google.com/trends webhelyen a kulcsszavak keresési nagyságát és népszerűségét tanulmányozhatod. Jelentkezz be a Google-fiókodba, hogy gazdagabb adatokat kaphass (például az egyszerű trendvonalak helyett így a jellemző számok jelennek meg).

Bing-oldal lekérdezés

Korlátozd le a keresést egy adott oldalra. Csakúgy, mint a Google, úgy a Bing is lehetővé teszi a lekérdezések számára, hogy azok az adott webhely oldalainak számát és listáját az indexükben megjelenítsék. Tartsd észben, hogy a Bing a számításait jelentős ingadozásokkal számolva végzi, ami korlátozhatja az adatok hasznosságát.

Bing IP-lekérdezés

Korlátozd a lekérdezést egy adott IP-címre. Ez a lekérdezés megmutatja azokat a lapokat, amelyeket a Microsoft motorja talált az adott IP-címen. Ez hasznos lehet annak megállapításához, hogy az oldal egy megosztott szolgáltatón van-e, vagy hogy ugyanazon az IP-címen milyen oldalak találhatók.

Bing Ads Intelligence

A Bing Ads Intelligence számos kulcsszókutatási- és intelligenciaeszközzel rendelkezik, amelyek elsősorban a keresési és megjelenítési hirdetésekre szolgálnak. Érdemes kipróbálni ezt is.

Blog Search Link lekérdezés

Segít egy adott blogban történő keresés során. A Google általános linklekérdezés-üzemeltetője nem mindig hasznos, de a blogkeresésük általában jó minőségű eredményekkel szolgál, ráadásul dátumtartomány és relevancia alapján is rendezhetőek.

A KAPOTT ADATOK ALKALMAZÁSA

Figyelj arra, hogy a számok ismerete nem segít addig, amíg nem tudod, hogy azokkal mit is kéne kezdened. Az alábbiakban az adatpontok nyomon követésével nyert néhány leggyakoribb irányjelzésből vettünk mintát, és javaslatokat tettünk arra, hogy miképp tudod kihasználni őket és hogyan tudsz válaszolni rájuk.

Ingadozás

… a keresőmotor oldalán és a linkszámlálók számaiban.

A „site:” és a „link:” lekérdezésekben megjelenített számok ritkán pontosak, ezért nem kell túlaggódnod a nagy ingadozásokat, hacsak a forgalom nem csökken jelentősen.

Amikor viszont a linkek vagy az indexelt oldalak csökkenése egybeesik a keresőmotorok referral-forgalmának csökkenésével, akkor valószínűleg a linkek súlyának csökkenését vagy az indexálás elvesztését tapasztalhatod. Ellenőrizd, hogy a fontos linkek, amelyek korábban forgalmat és rangsorokat erősítettek, léteznek-e még. Egy átfogó elemzés a saját web analytics-od és a Google Webmaster Tools használatával sokat segíthet a lehetséges problémák azonosításában.

Egy motorból származó keresési forgalom csökkenése

Több oka lehet annak, hogy egy keresőmotor számottevően kevesebb forgalmat küld a keresési lekérdezések széles skálájára. Először azonosítsd a problémát, majd vizsgáld meg a lehetőségeket. Ha segítségre van szükséged, látogass el az olyan fórumokra, mint a Cre8asite, a HighRankings, a Google Webmesterek csoportjai és/vagy a Moz-közösség.

Ezekre figyelj:

  1. Az adott keresőmotorban büntetést kaptál a keresési minőség vagy a szolgáltatási feltételek megsértése miatt.
  2. Véletlenül blokkoltad a keresőmotor robotjának hozzáférését. Ellenőrizd a robots.txt fájlt és meta-robots tageket, és tekintsd át az adott motor webmestereszközeit, valamint nézd meg, hogy az jelzett-e problémákat.
  3. Az adott keresőmotor megváltoztatta a rangsorolási algoritmusát oly módon, hogy az már nem kedvez a webhelyednek. Ez sokszor azért fordul elő, mert a webhelyedre mutató hivatkozások valamilyen módon leértékelődtek, ami különösen azoknál a webhelyeknél fordul elő, amelyek manuális linképítési kampányokat végeznek alacsony vagy közepes minőségű linkekkel.

Több motorból származó keresési forgalom csökkenése

Előfordulhat az is, hogy valamit csináltál a webhelyeden a robotok blokkolására vagy az indexálás leállítására. Ez lehet valami a robots.txt vagy a meta robots címkék kapcsán, de probléma merülhetett fel a tárhellyel és/vagy az üzemidővel kapcsolatban, a DNS-felbontással, illetve a háttérben egyéb műszaki meghibásodás is állhat. Beszélj a rendszergazdával, a fejlesztőkkel vagy a tárhelyszolgáltatóval, majd gondosan nézd át a webmestereszközök fiókjait és elemzéseit, hogy meghatározhasd a lehetséges okokat.

Egyedi

Ide tartoznak például az általános helyezésingadozások. Ilyenkor egy vagy több kifejezés rangsorolásának megszerzése vagy elvesztése naponta több millió oldalnál előfordulhat, ezért ez nem ad okot az aggodalomra. A rangsorolási algoritmusok folyamatosan ingadoznak, a versenytársak linkeket kapnak és veszítenek, és a keresőmotorok még az indexek között is fluktuálnak (sőt, néha még hibákat is elkövethetnek a feltérképezés, a befogadás vagy a rangsorolás során).

Ha viszont drámaian visszaesik a találatok közötti helyezés, akkor érdemes alaposan átnézni az on-page elemeket a túlzott optimalizálásra vagy az iránymutatások megsértésére utaló jelek után kutatva (lásd álcázás, kulcsszóhalmozás stb.). Ellenőrizd, hogy szereztél-e vagy veszítettél-e linkeket, és ne feledd, hogy a hirtelen csúcsokat az új tartalom rangsorolásánál gyakran követheti drámai csökkenés; a SEO területén ezt „frissességnövelésnek” nevezzük.

Fontos, hogy ne ess pánikba a kis ingadozások miatt. A nagy eséseknél pedig ügyelj arra, hogy legalább néhány nap elteljen, mielőtt létfontosságú döntést hozol; aludj néhányat, hogy tisztább képet kaphass, és megfontoltabb döntést hozhass. Ha épp egy új webhelyet futtatsz, vagy még folyamatban van a linkszerzés és az aktív marketing, akkor ezek a hirtelen ugrások és zuhanások még gyakrabban előfordulnak, így egyszerűen csak légy felkészült és folytasd a megkezdett munkát.

Előfordulhat továbbá az is, hogy a linkek mutatói a rangsorbeli hely növekedése nélkül nőnek.

Sok webhelytulajdonos azt feltételezi, hogy amikor elvégzett néhány klasszikus keresőoptimalizálási feladatot, akkor az eredmény azonnal megérkezik. Ez sajnos nem így van, különösen az új webhelyek, aloldalak és tartalmak esetében nem, amelyeknél erős a verseny, és amiknél a rangsorolás javítása időbe telik.

Éppen ezért készülj fel arra, hogy még a nagyszerű linkek megszerzése sem biztosítja, hogy azonnal a csúcsra kerülj. Ne feledd, hogy a keresőmotoroknak nemcsak fel kell térképezniük azokat a weboldalakat, ahol linkeket szereztél, de még indexelniük és feldolgozniuk is kell őket. Tehát a keresett mutatók és rangsorok napokkal vagy akár hetekkel is lemaradhatnak a fejlesztések mögött.

Gratulálok, a SEO alapokkal már tisztában vagy. Most már készen állsz arra, hogy optimalizáld a saját oldaladat és alkalmazd az itt tanult trükköket, hogy ezzel javíthasd a keresési találatok között elért helyezésedet.

 

TARTALOMJEGYZÉK