Blog

Zasięgnij naszych porad w dziedzinie SEO

blog

SEO dawniej i dziś, czyli jak pozycjonować skutecznie stronę

Mateusz Kozłowski; 2021-10-30

Każdy przedsiębiorca zapewne zdaje sobie sprawę, jak ogromną rolę odgrywa dziś internet. Nie wystarczy, aby produkt czy usługa były wysokiej jakości, atrakcyjne cenowo czy łatwo dostępne. Do szerokiego grona odbiorców można dotrzeć za pomocą wyszukiwarki internetowej, a im wyższa pozycja witryny w rankingu Google, tym większa szansa na dotarcie do odbiorcy. Pozycjonowanie stron internetowych diametralnie zmieniło się w ciągu ostatnich 20 lat. Jakie praktyki stosowano kiedyś i jakie stosuje się dziś? Sprawdźmy, jak zagadnienia związane z SEO zmieniły się z biegiem czasu.

 

Jak wyglądały początki SEO?

Początki pozycjonowania związane są z powstaniem samego internetu i pierwszych wyszukiwarek, jednak działania SEO nabrały realnego znaczenia wraz ze stworzeniem wyszukiwarki Google w 1997 roku. Wówczas poczynania kreatorów stron internetowych można było opisać mianem „samowolki”. Panowała wówczas zasada, że „skoro coś nie jest zabronione, to znaczy, że jest dozwolone”. Głównym celem marketerów i pozycjonerów było uzyskanie wysokiej pozycji witryny w wyszukiwarce, nie zważając na jakość zawartych treści i doświadczenie użytkownika (UX). Stosowano praktyki, które sprawiały, że internet zalała fala bezużytecznych treści, a internauta nie był w stanie znaleźć właściwej odpowiedzi na wpisane do wyszukiwarki zapytanie. Google stanęło przed wyzwaniem opracowania takiego algorytmu, aby domena spełniała swoje zadanie – była użyteczna dla internautów.

 

Algorytm Google – w jaki sposób wyszukiwarka dobiera wyniki?

W tym miejscu warto pokrótce wyjaśnić, czym jest algorytm Google. Jest to skomplikowana struktura matematyczna, która pozwala przeszukiwać jak największą liczbę stron w poszukiwaniu odpowiedzi na wpisane przez użytkownika zapytanie. Mimo iż Google przekazało opinii publicznej główne czynniki zawarte w algorytmie, nie jest do końca jasne, w jaki sposób roboty indeksują przeszukiwane witryny i nadają im właściwą rangę ważności. Zadaniem specjalistów od SEO jest podążanie za aktualizacjami wprowadzanymi przez Google, aby strony internetowe znajdowały się jak najwyżej w rankingu wyszukiwania.

 

Ten dobry i ten zły, czyli Black Hat SEO oraz White Hat SEO

Kiedy domena Google raczkowała i nie posiadała jeszcze skomplikowanych algorytmów, działania pozycjonerów znacząco różniły się od dzisiejszych. Ukuto wówczas dwa terminy White Hat SEO oraz Black Hat SEO na wzór antagonistycznych postaci stojących po stronie dobra lub zła z amerykańskich westernów.

 

Czym jest White Hat SEO?

Określenie White Hat SEO wskazuje na dobre praktyki przyczyniające się do poprawy użyteczności wyszukiwarki i spełniające potrzeby internautów. Wśród działań określanych jako pożądane uznaje się:

– zamieszczanie treści unikalnych i wartościowych dla użytkownika,

– stosowanie adekwatnych słów kluczowych w odpowiednich proporcjach na stronie internetowej,

– tworzenie wartościowego zaplecza linków zewnętrznych i wewnętrznych,

– dbanie o użyteczność i czytelność witryn z punktu widzenia użytkownika.

 

Czym jest Black Hat SEO?

Mianem Black Hat SEO określa się nieetyczne działania kreatorów stron internetowych, których głównym celem było oszukanie algorytmu Google’a przez tzw. drogę na skróty. Do dnia dzisiejszego wiele z tych praktyk jest stosowanych, jednak staje się to coraz rzadsze, nie tylko ze względu na częste aktualizacje Google’a (których może być rocznie nawet niecałe 3000!), ale również z tego względu, że działania Black Hat SEO są w dłuższej perspektywie nieskuteczne. Oto lista najczęściej stosowanych niepożądanych zabiegów.

Farmy linków – nagminne spamowanie na forach internetowych

Wiele lat temu pozycjonowanie opierało się głównie na linkowaniu zewnętrznym. Masowe ilości linków odsyłających wstawiano na wszelkiego rodzaju fora internetowe. Pozbawione opisu adresy URL zamieszczano gdziekolwiek, nie zważając na kontekst i powiązanie treści.

Chaotyczne używanie słów kluczowych

W czasach, gdy algorytmy Google jeszcze nie istniały, powszechną praktyką było wstawianie na strony jak największej ilości słów kluczowych bez jakiegokolwiek porządku. Treści na witrynie były przesycone frazami, które sprawiały wrażenie nienaturalnych i „wciśniętych na siłę”. Często były pozostawiane w nieodmienionej formie. Nie stroniono również od zabiegu zwanego „cloakingiem”. Marketerzy w zmyślny sposób umieszczali słowa kluczowe na stronie, które były widoczne z punktu widzenia wyszukiwarki, ale pozostawały niewidoczne dla użytkownika (np. poprzez wstawianie fraz zapisanych białą czcionką na białym tle). Na porządku dziennym była również manipulacja kodem źródłowym strony internetowej, do którego upychano słowa kluczowe.

Treści skopiowane i niskiej jakości

Do nieetycznych praktyk określanych mianem Black Hat SEO zaliczano bezpardonowe kopiowanie treści z innych witryn. Zamieszczane artykuły były pisane typowo pod wyszukiwarkę i zawierały niewiele treści użytecznych z punktu widzenia internauty.

Spamerskie oprogramowania

Chęć obejścia algorytmów dała pole do popisu programistom, którzy wykazali się niemałą kreatywnością. Zaczęto tworzyć spamerskie automaty, takie jak Xrumer, których zadaniem było zasypywanie popularnych forów dyskusyjnych linkami odsyłającymi do danej witryny. Wychodząc naprzeciw szkodliwemu oprogramowaniu, stworzono test CAPTCHA, który blokuje automaty stworzone przez spamerów.

 

Panda, Pingwin i Koliber – najistotniejsze zmiany w Google

Eksperci Google nieustannie pracują nad poprawą jakości wyszukiwania oraz nad lepszym dopasowaniem odpowiedzi na zapytania użytkowników. Chcąc być na bieżąco z nowościami internetowego giganta, warto obserwować takie osoby jak John Mueller czy Danny Sullivan. Lista dotychczas wprowadzonych przez Google zmian jest długa, jednak warto wymienić trzy najistotniejsze modyfikacje zaimplementowane na przestrzeni lat, które znacząco wpłynęły na sposób pozycjonowania stron.

Algorytm Panda

Wraz z rosnącą liczbą portali oraz stron internetowych, powiększała się ilość internetowego spamu. W 2011 roku Google zaimplementował algorytm Panda, którego celem była selekcja wyników ukazujących się w SERP. Nałożono sankcje na strony internetowe zawierające:

– nienaturalnie dużo słów kluczowych,

– zbyt dużą ilość natrętnych reklam,

– skopiowane treści z innych witryn,

– niepoprawne gramatycznie i niskiej jakości treści.

Wprowadzenie algorytmu Panda spowodowało lepsze dostosowanie wyników do oczekiwań użytkowników. Witryny posiadające unikalne treści wysokiej jakości stały się lepiej indeksowane przez roboty Google.

Algorytm Pingwin

Drugim krokiem rewolucji w pozycjonowaniu okazał się algorytm Pingwin wprowadzony przez Google w 2012 roku. Jego celem było ukrócenie manipulowania linkami zewnętrznymi. Algorytm kwestionował wiarygodność źródeł i częstotliwość zamieszczanych URLi na forach i portalach internetowych. Przykładowo jeśli dana strona generowała kilkaset linków zewnętrznych dziennie, można było spodziewać się obniżenia jej pozycji w wyszukiwarce.

Algorytm Koliber

Celem algorytmu Koliber wprowadzonego w 2013 roku było lepsze dopasowanie wyników wyszukiwania do potrzeb i intencji użytkowników. Wzięto pod uwagę znaczenie całych wyrażeń, a nie tylko pojedynczych słów kluczowych. Dzięki algorytmowi Koliber powszechne stało się pozycjonowanie za pomocą fraz z długim ogonem oraz pozycjonowanie lokalne. Użytkownik miał szansę odnaleźć odpowiedź na zadane pytanie bez konieczności wchodzenia na daną stronę. Również szybkość wyświetlania się i stabilność strony uległy poprawie. Następcą algorytmu Koliber jest RankBrain – system uczenia maszynowego wprowadzony w 2015 roku. Dzięki niej Google wykorzystuje sztuczną inteligencję do indeksowania stron, a co za tym idzie pozwolił wyszukiwarce lepiej zrozumieć znaczenie danej witryny.

Aktualizacja BERT

Wśród istotnych aktualizacji wprowadzonych przez Google warto wymienić tę z 2019 roku o nazwie BERT. Zaimplementowano wówczas NLP, czyli przetwarzanie języka naturalnego, dzięki któremu roboty Google w lepszy sposób rozumieją potoczny język oraz rozpoznają kontekst treści.

 

Jak dziś wygląda SEO?

Mimo intensywnych zmian w ekosystemie Google podstawami SEO wciąż są linki zewnętrzne, treść oraz budowa witryny. Działania pozycjonerów muszą być jednak zintensyfikowane ze względu na stale rosnącą ilość podmiotów rywalizujących o najwyższą pozycję w wyszukiwarce. Zadaniem specjalistów od SEO jest monitorowanie wprowadzanych przez Google zmian oraz nieustanna analiza konkurencji. Dzisiaj działania pozycjonerów wymagają współpracy ze specjalistami z działu analityki, działu PR oraz z copywriterami.

 

Jakie są elementy skutecznych działań SEO?

Merytoryczny i wartościowy content SEO

Obecnie nie ma zbyt wiele miejsca na treści niskiej jakości. Warto postawić na wartościowe artykuły odpowiadające intencjom internauty i odnoszące się wprost do zapytań w SERP. Coraz większą popularnością cieszą się tzw. EAT, czyli treści eksperckie (Expertise), kreowane przez specjalistów z danej dziedziny (Authoritativeness) oraz wiarygodne (Trustworthiness).

Formatowanie treści zgodnie z zasadami SEO

Teksty przedstawione na witrynach internetowych muszą być czytelne dla użytkownika. To znaczy, że nie mogą być pisane tekstem ciągłym. Istotne jest podzielenie treści na akapity i przedstawienie jej w przystępnej formie, aby użytkownik mógł swobodnie „zlustrować” zawartość. Przeglądając sformatowany tekst, w którym zawarte są nagłówki i śródtytuły, a jego fragmenty są wyboldowane lub wypunktowane, istnieje większa szansa, że internauta wczyta w całość.

Właściwe użycie słów kluczowych

Istotnym zabiegiem pozycjonowania jest wytypowanie odpowiednich słów kluczowych. Pozycjonerzy szybko zdali sobie sprawę, że stosowanie jedynie krótkich, popularnych fraz jest nie tylko nieefektywne, ale również kosztowne. Częściej stosuje się słowa kluczowe bezpośrednio odpowiadające na zapytania użytkowników lub frazy z długiego ogona (bardziej doprecyzowane). Nie bez znaczenia jest sposób rozmieszczenia słów kluczowych w tekście. Należy umieszczać je zarówno w śródtytułach, jak również w opisach grafik (tzw. opisy ALT). Nowoczesna optymalizacja treści opiera się przede wszystkim na naturalnym stosowaniu słów kluczowych, co daje pole do popisu copywriterom, których zadaniem jest sprawić, aby frazy nie przeszkadzały w odbiorze tekstu. Duży nacisk kładzie się na umieszczanie słów bliskoznacznych podnoszących ogólną jakość treści. Warto również zapoznać się z terminem kanibalizmu. Należy wystrzegać się umieszczenia tych samych słów kluczowych i podobnych treści na podstronach danej witryny.

Linkowanie on-page i off-page

Niezwykle ważnym elementem pozycjonowania jest właściwe linkowanie strony WWW. Linkowanie wewnętrzne (on-page) to umieszczanie odnośników kierujących na inne podstrony witryny. Co prawda, jest bardziej wartościowe z punktu widzenia użytkownika, gdyż ułatwia poruszanie się po danej stronie, jednak nieznacznie wpływa też na uzyskanie lepszych wyników w rankingu Google. Linkowanie zewnętrzne (off-page) jest niezwykle ważne w kontekście pozycjonowania. Umieszczanie wielu odnośników z innych stron w znaczny sposób wpływa na wartość witryny, jednak należy pamiętać, że istotną rolę odgrywa źródło ich pozyskania. Jeśli linkowanie zewnętrzne będzie powiązane ze stronami o złej reputacji, może to negatywnie wpłynąć na ocenę witryny. Liczy się również powiązanie tematyczne – warto umieszczać zewnętrzne odnośniki na blogach i portalach o pokrewnej treści.

Odpowiednia budowa witryny

Roboty Google sprawdzają stronę pod kątem dostosowania do użytkownika. Liczy się nie tylko zawartość, ale również responsywność (sposób wyświetlania się na urządzeniach mobilnych), szybkość ładowania się strony oraz zamieszczanie urozmaiconych i właściwie opisanych grafik, zdjęć i wykresów.

Stale zmieniające się trendy w dziedzinie SEO angażują pozycjonerów do intensywniejszych działań. Rośnie konkurencja nie tylko ze strony rywalizujących witryn internetowych. Konkurenta upatruje się również w samej wyszukiwarce Google, która swoimi działaniami utrudnia zadanie pozycjonerom. Takie rozwiązania jak grafy wiedzy, fragmenty z podpowiedziami czy tzw. Universal Search, sprawiają, że użytkownicy znajdują odpowiedzi na zadane pytania bez konieczności wchodzenia na konkretną witrynę. Pozycjonerom pozostaje mieć się na baczności i stale monitorować zmieniające się trendy w internecie. Z pewnością w przyszłości zostaną wprowadzone takie zmiany, jak chociażby MUM (Multitask Unified Model), dzięki któremu roboty Google będą mogły czytać treści z obcojęzycznych źródeł, a także rozumieć zawartość wideo oraz grafik.

Dodaj komentarz