SEO

Z Seopedia
Přejít na: navigace, hledání

SEO neboli Search engine optimization (česky optimalizace pro vyhledávače) je proces, při němž se snažíte webovou prezentaci anebo internetovou stránku dostat na co možná nejlepší místa ve vyhledávači. Základem je předpoklad, že čím lepší pozice stránka získá, tím větší návštěvnost bude skrz vyhledávače proudit. Důležité je tedy i cílit na klíčová slova, která vyhledává dostatek lidí.

V dnešní době už SEO není jen o cílení na klíčová slova. Návštěvnost z vyhledávání obrázků, videí anebo třeba lokálního vyhledávání je stále důležitější. Jde ruku v ruce s optimalizací pro prohlížeče různých zařízení, budování srozumitelného obsahu pro roboty anebo propagaci webu jako takového. Už dávno to není jen o lepších pozicích ve vyhledávačích, cílem je získávat návštěvnost a optimalizovat stránku.

Historie

SEO přišlo s prvními vyhledávači. V podstatě snaha získat lepší pozice tu byla už od začátku. Mluvilo se o optimalizaci webu, protože první roboti na procházení webů takzvaní "spideři" či "crawleři", naráželi na různé překážky, které jim bránili v indexaci obsahu. Aby robot stránku mohl vhodně projít, potřeboval, aby její kód byl alespoň použitelný, anebo aby obrázky byly popsané, jen tak jí mohl předat dál k indexaci.

S tím jak rostla návštěvnost z vyhledávačů si jejich majitelé začali uvědomovat jak důležité organické výsledky jsou. Píše se rok 1997 a John Audette poprvé používá pojem "search engine optimization".

První vyhledávače jsou odkázány na informace, které majitelé stránek do nich vložili, například meta tagy. Například ALIWEB je díky tomu dokáže hodnotit. Bez nich jsou výsledky značně nepřesné. Stránky bez dostatku informací mají problém s indexací. Ovšem volba klíčových slov, které se objeví v meta tagu je jen a pouze na majiteli stránek. Ti zkouší s weby různě manipulovat, aby získali lepší výsledky. Objevuje se pojem Black Hat SEO a White Hat SEO. Vyhledávače jsou příliš moc závislé na onpage faktorech jako je například hustota klíčových.

Vyhledávače jsou stále populárnější. Aby si zajistily uživatele musí s manipulacemi bojovat. Vyvíjí nové hodnotící algoritmy, snaží se vytvářet různé modely, jak by ideální stránka mohla vypadat, zkouší co možná nejvíce hodnotících faktorů.

V těchto dobách přichází čerství absolventi Stanfordské Univerzity Larry Page a Sergey Brin. Vytváří vyhledávač Backrub, který je postaven na algoritmu hodnotícím jakousi autoritu stránek. Na hodnotě PageRank, která autoritu hodnotí podle příchozích zpětných odkazů. V roce 1998 zakládají Google. Ten si poměrně rychle získává popularitu díky své jednoduchosti. Mimo PageRanku hodnotí weby podle desítek onpage faktorů. V té době však není Google jediný, kdo používá jako hodnotící prvek odkazy. Je tu i vyhledávač Inktomi, díky kterému mají webmástři nástroje na linkbuilding. Navíc se i mezi běžnými majiteli stránek rozmáhá výměna odkazů, spamování za účelem získat zpětný odkaz a vznik různých webů jen za účelem přelévání link juice.

V roce 2004 už Google používá tolik různých hodnotících signálů, že je nemožné nějak vypočítat pozice stránek Všechny jsou navíc utajené. V roce 2007 vyjde článek v Ney York Times, že na hodnocení pozic webu se používá více jak 200 signálů v různé míře.

Roku 2005 zkouší Google pracovat s personalizovaným vyhledáváním. Začíná se mluvit o smrti SEO.

V roce 2007 se situace zhoršuje. Google má problém s výměnnou odkazů a manipulací s PageRankem. Vyhlašuje velkou kampaň, která má za cíl proti tomuto nešvaru bojovat. Jako zbraň volí nofollow, atribut, který má označovat reklamní odkazy. Ty nepřenáší link juice ani PageRank. O pár let později se dostane ven informace, že tohle vše bylo kvůli Black Hat metodě zvané PageRank sculpting. Ta ve zvýšené míře dokázala masivně ovlivnit výsledky. Což ovšem nikam nevedlo, protože existuje více metod jak PageRank sculpting úspěšně provozovat.

Dalším přelomem je rok 2009. Google oznámí, že dalším důležitým faktorem hodnocení webů bude databáze historie hledání jeho uživatelů. Tato služba je silně propojena s personalizovaným vyhledáváním.

V roce 2010 Google představuje Google Instant. Službu na hledání v reálném čase. Do popředí se dostávají sociální sítě a blogy.

2011 přichází algoritmus Panda, který má za úkol eliminovat duplicitu a weby s nízkou obsahovou kvalitou, které se vytváří za účelem přenášení link juice.

2012 přichází algoritmus Penguin. Ten cílí na zpětné odkazy. V roce 2013 jeho verze 2.0, dokonce umožňuje penalizovat stránku jen na určité klíčové spojení.

Spolupráce majitelů webů a vyhledávačů

Aby bylo dosaženo, co možná nejlepších výsledků je nutná spolupráce majitelů webů a vyhledávačů. Za tímto účelem jsou zaváděny nové standardy, které se snaží webmástři dodržovat. Na začátku to byl meta tag keywords. Později přibyl soubor robots.txt anebo sitemap.xml.

V současné době se snaží vyhledávače pustit si k tělu majitele webů více. Zřizují pro ně sadu nástrojů, které oběma stranám pomáhají a také pomocí nichž si lze rychle vyříkat chyby. Například Google má Google webmaster tools a Bing zase Bing Webmaster Tools. Do budoucna se dá předpokládat, že spolupráce bude ještě intenzivnější.