Spis treści

Jak działają algorytmy Google?

Algorytm wyszukiwarki to nic innego, jak pewien zbiór zasad postępowania, którymi kieruje się ona w procesie wyboru stron internetowych wyświetlanych w wynikach wyszukiwania. Jest to integralna część oprogramowania tego rodzaju, ponieważ organizuje treść i sprawia, że użytkownik może znaleźć to, czego szukał. Nie mam na celu wyczerpującego opisania wszystkich algorytmów, które stworzyli specjaliści Google, bo po pierwsze wiele z nich wprowadziło wyłącznie kosmetyczne zmiany, a po drugie taki artykuł miałby objętość przynajmniej dwukrotnie większą. Skupiłem się zatem na wyborze propozycji, które istotnie wpływają na pozycjonowanie stron internetowych i są niezwykle ważne w pracy nad poprawą miejsca w rankingu wyszukiwarki.

Pagerank, czyli pionier w swojej dziedzinie

No dobrze, jedna jaskółka wiosny nie czyni, a wyjątek potwierdza regułę. Choć obecnie o algorytmie Pagerank, bo o nim mowa, jest już bardzo cicho, a wskaźnik oparty na jego działaniu został ostatecznie wycofany w 2016 roku, to nie sposób o nim nie wspomnieć. Była to w końcu pierwsza próba uporządkowania organicznych wyników dla wygody użytkownika. Twórcy Google od samego początku swojego istnienia dostrzegli potrzebę wyświetlania listy stron internetowych na podstawie ich popularności oraz częstotliwości występowania odnośników z innych witryn. A wyglądało to tak: Strony internetowe otrzymywały wyjściową ocenę (w skali od 0 do 10), która ulegała zmianie podczas tworzenia do niej odnośników z innych stron. Serwisy www pozycjonowane wysoko przekazywały część swojej wartości tym witrynom, do których linkowały w artykułach. Ostateczna ocena zależała więc od własnej wartości danej strony internetowej oraz wartości pozyskanej dzięki powoływaniu się na nią innych serwisów. Jakość odnośników miała większe znaczenie niż ich ilość.

PageRank, choć bardzo sprawny, okazał się stosunkowo łatwy do obejścia, przez co wysoką pozycję zyskiwały strony www o niskiej jakości treści. Dla poprawy sytuacji niezbędne były aktualizacje oraz innowacyjne algorytmy.

Algorytm Panda

Algorytm, którego symbolem jest zwierzątko uwielbiane na całym świecie (zawód dla miłośników zwierząt - nazwa pochodzi od Navneeta Pandy, inżyniera Google) w rzeczywistości spowodował niemałe zawirowania, żeby nie powiedzieć rewolucję w podejściu do pozycjonowania stron internetowych. Jakie najważniejsze zmiany wprowadził pierwszy podopieczny googlowskiego zoo?

  • Karanie za duplikację treści, która pochodziła zarówno ze źródeł zewnętrznych, jak i wewnętrznych (podstron),
  • Promowanie stron prezentujących wyczerpujące, adekwatne artykuły,
  • Rozpoznawanie nasycenia słowami kluczowymi oraz eliminacja mało wartościowych treści tworzonych wyłącznie dla poprawy pozycji w wynikach wyszukiwania,
  • Promowanie przydatnych podstron oraz dobrze opisanej oferty.

Czyli w skrócie, Panda zmiotła większość farm treści lub przynajmniej zmusiła je do poprawy jakości publikowanego materiału. Właściwie od tego momentu można mówić o swoistej rewolucji w content marketingu - wytyczne co do tekstów stały się dużo bardziej restrykcyjne, co w zamyśle miało przynieść korzyść użytkownikom.

algorytm panda zdjęcie

Walka Pingwina z kiepską treścią

Wygląda na to, że Google uwielbia tworzyć poczucie delikatnego dysonansu poznawczego. Kolejne miłe zwierzątko ugodziło bowiem w wiele stron działających niezgodnie z polityką firmy. Zainicjowany w 2012 roku Pingwin zajął się przede wszystkim ograniczeniem spamu oraz kontynuacją polityki związanej z promowaniem wartościowych i adekwatnych treści. Największe zmiany wprowadził jednak w efektywnym link buildingu. Co dokładnie się zmieniło?

Kluczową wagę zyskały 3 czynniki:

  • ilość, a precyzyjniej, przyrost ilości odnośników do danej strony internetowej w czasie. Jeżeli wydaje się nienaturalny (niemożliwy do osiągnięcia w prawidłowy sposób) Google nakłada określoną karę,
  • jakość odnośników - mała liczba linków z dobrych źródeł ma o wiele większą moc, niż ogrom odnośników z podejrzanych/mało wartościowych miejsc,
  • dywersyfikacja źródeł pozyskiwania linków - dobrze jest brać pod uwagę różne typy stron internetowych: blogi, katalogi, fora, social media oraz inne miejsca w sieci.

Koliber z długim ogonem

Nowy algorytm został stworzony po to, by ułatwić użytkownikowi poszukiwanie odpowiedzi na złożone zapytania. W efekcie pomógł znacznie witrynom internetowym pozycjonującym się na frazy longtailowe. W skrócie chodziło o to, by analizować zapytanie jako całość, a nie dzielić go na poszczególne frazy składowe. Co jeszcze zmienił Koliber?

  • W wynikach wyszukiwania pojawiło się nowe okno, wyświetlające odpowiedź na pytanie użytkownika bez konieczności odwiedzin na danej stronie,
  • Większe znaczenie otrzymało wyszukiwanie lokalne,
  • Wprowadził mechanizm dużo lepszego zrozumienia sensu danego zapytania.

Nie taki Gołąb straszny, jak go malują

Trzeba przyznać, że gołębie w wielu budzą raczej neutralne lub nawet negatywne emocje, jednak w tym przypadku użytkownicy powinni być zadowoleni. Aktualizacja Pigeon wprowadziła kolejne usprawnienia do wyszukiwania lokalnego. Od tego momentu Google rozpoznaje lokalizację użytkownika, bez konieczności dodawania miasta w zapytaniu. Co musisz wiedzieć o tym algorytmie? Przede wszystkim wprowadził połączenie wyników wyszukiwania w mapach oraz wyników organicznych w wyszukiwarce. To z kolei bardzo zwiększyło znaczenie dokładnego uzupełniania wizytówki firmy oraz podawania jak największej liczby przydatnych dla użytkownika informacji.

Mobilna rewolucja z Mobilegeddon

Responsywne strony www to właściwie podstawa efektywnej działalności w sieci. Mobilegeddon sprawił, że witryny internetowe niezoptymalizowane pod kątem urządzeń mobilnych spadają w rankingu i trudniej im trafiać ze swoją ofertą do nowych użytkowników. To zaś doprowadziło do znacznej poprawy w tej dziedzinie - w końcu niska pozycja w wynikach organicznych to duży cios dla wielu projektów. Ostatecznie, jak to zwykle z algorytmami bywa, korzystać ma odbiorca treści.

Phantom - naczelny straszak słabych serwisów

Phantom to algorytm, który przyprawił o szybsze bicie serca wielu właścicieli stron i specjalistów od pozycjonowania. Wprowadza on możliwość nakładania bardzo nieprzyjemnych kar, które uderzają często w konkretne podstrony. Dokładne zbadanie ich charakteru okazuje się jednak niezwykle problematyczne. Analizuje głównie duże, często odwiedzane witryny internetowe.

Phantom ma za zadanie niwelować przede wszystkim:

  • Błędy oraz trudności techniczne prowadzące do utrudnionej obsługi strony www,
  • Sztuczne nasycenie tekstów frazami kluczowymi oraz słabą jakość treści,
  • Reklamy zaburzające funkcjonalność serwisu.

Inteligentny RankBrain

Sztuczna inteligencja coraz śmielej wkracza w obręb nowoczesnych technologii, dlatego nie dziwi fakt, że Google używa jej do przedstawiania użytkownikom wyników maksymalnie dopasowanych do ich zamiarów. RankBrain ma za zadanie przeanalizować sens zapytania (zwłaszcza w przypadku długich, skomplikowanych zdań, które wcześniej nie były poprawnie rozpoznawane) i udzielić odpowiedzi na podstawie wyników powyższej analizy.

algorytm rankbrain zdjęcie

Opos i jego pomoc dla lokalnych firm

Bardzo często zdarza się, że firmy mają swoje siedziby poza miastem lub obszarem, w którym rzeczywiście prowadzą działalność. Przed wprowadzeniem nowego algorytmu takim przedsiębiorstwom trudno było pozycjonować się na frazy związane z daną miejscowością, w przypadku, gdy adres nie był z nimi zgodny. Opos sprawił, że bardziej zaczęło liczyć się realne miejsce dostarczania swoich usług.

Pozostałe algorytmy, o których warto wiedzieć

Google Intrusive Interstitials Mobile Penalty - algorytm służący karaniu stron internetowych, na których w wersji mobilnej pojawiają się pełnoekranowe reklamy, utrudniające korzystanie z serwisu.

Page Layout - główną funkcjonalnością algorytmu jest obniżanie wartości tych portali www , które wyświetlają dużą liczbę reklam w górnej części strony, widocznej od razu po jej załadowaniu. W pewnych sytuacjach obecność takich elementów sprawia, że w celu odnalezienia szukanej treści trzeba przescrollować widok.

Pirat - algorytm służący usunięciu wyników, które dostarczają użytkownikom nielegalne treści oraz materiały chronione prawem autorskim.

Payday Loan - założonym celem tej aktualizacji jest minimalizacja wartości stron internetowych, które zawierają dużo spamu oraz treści zupełnie bezwartościowych dla przeciętnego użytkownika.

Podsumowanie

Przez lata Google wprowadziło dziesiątki mniejszych lub większych aktualizacji, które sprawiły, że proces pozycjonowania stron internetowych stał się niezwykle wymagający i czasochłonny. Nie może być dzisiaj mowy o jasnych wytycznych czy przepisie, którego przestrzeganie doprowadzi z pewnością do upragnionych celów. Chociaż tempo zmian w ostatnim czasie zwolniło, to praca pozycjonera nadal opiera się na analitycznym myśleniu, intuicji oraz stałym śledzeniu informacji napływających zza oceanu. Celem powyższego tekstu było naszkicowanie podstawowych ram procesu pozycjonowania oraz zrozumienie jego istoty.