Inspiracją do napisania tego artykułu stała się seria audytów optymalizacyjnych, które przygotowałem w ostatnim czasie dla różnych klientów – od dużych sklepów e‑commerce do niewielkich stron wizytówkowych. Elementami wspólnymi tych serwisów, są te same błędy, popełniane przez osoby odpowiedzialne za optymalizację. Z reguły są to działania, rekomendowane przez firmy, które nie działają zgodnie z aktualnymi trendami w SEO. Krótko mówiąc, to co było skuteczne kilka lat temu, obecnie nie działa, a wręcz przeciwnie – może szkodzić.
Mamy rok 2017, rok mobile (jak co roku, od co najmniej kilku lat ;), czynników rankingowych, które wyszukiwarka bierze pod uwagę są setki. Google średnio co kilka dni wdraża poprawki do swoich algorytmów, a ciągłe wahania pozycji w zasadzie już nikogo nie dziwią. Osiągniecie wysokich pozycji na konkurencyjne słowa kluczowe jest coraz trudniejsze. Wymaga dobrze przygotowanej strony pod względem technicznym, a także rozbudowanej i angażującej treści, która będzie podlinkowana zewnętrznie i wewnętrznie. A to i tak tylko początek drogi…
Mimo tego, że przebić się jest coraz trudniej, nawet w branżach o ograniczonym terytorialnie zasięgu, wiele ze stron internetowych posiada wciąż te same błędy optymalizacyjne wewnątrz serwisu. W wynikach lokalnych, konkurencja stała się bardzo mocna – na zapytania lokalne co raz częściej wyświetlają się ogromne serwisy (korzystają z autorytetu domeny i siły linkowania wewnętrznego) mimo że Google w teorii powinien faworyzować biznesy lokalne (ale to temat na osobny artykuł). Jak robić dobre SEO? To długa historia, przyjrzymy się więc bliżej najpopularniejszym metodom, które w 2017 nie zagwarantują wysokich miejsc w serpach.
1. Keyword stuffing
Klient z dużego sklepu e‑commerce, żyje ze świadomością, że pozycjonowanie opiera się na synonimizowaniu – upychaniu różnych wariantów słów kluczowych w treści. Dostaje więc to, czego oczekuje. Ta, niezgodna z wytycznymi Google, technika upychania słów kluczowych, nadal jest bardzo popularna wśród webmasterów. Procent nasycenia fraz kluczowych względem pozostałej treści (tzw. Keyword density) można sprawdzić na przykład tutaj.
Przykład Keyword stuffingu – nadmiernego upychania słów kluczowych względem pozostałej treści:
Lub inny przykład – „Chmura słów kluczowych” w stopce podstrony:
Karą za keyword stuffing może być filtr ręczny – kara od zespołu moderatorów Google o której zostaniemy powiadomieni w naszym panelu Google Search Console. Możemy również zostać dotknięci filtrem algorytmicznym, podczas aktualizacji jednego z algorytmów jakościowych. Nie zostaniemy o nim poinformowani, lecz odczujemy jego działanie poprzez spadek pozycji dla słów kluczowych, a w konsekwencji zmniejszoną liczbę wizyt organicznych.
2. Ukrywanie treści na stronie
Mogłoby się wydawać, że te czasy minęły bezpowrotnie, ale nic bardziej mylnego. Ukrywanie treści lub słów kluczowych przy pomocy stylów CSS to wciąż popularna metoda oszukiwania algorytmów. Wyszukiwarki są już na to bardzo dobrze uodpornione i wykorzystywanie tej metody to najprostsza droga do kary ręcznej i wykluczenia strony z indeksu.
3. Silne Linkowanie Exact Match
Metoda, która jeszcze dość niedawno była bardzo popularna i skuteczna. Świadomość klientów odnośnie linkowania domeny, często zawęża się do tego, że należy linkować podstronę danym słowem kluczowym, aby pojawiła się wysoko w wynikach. Obecnie, gdy Pingwin* działa real time, silne linkowanie za pomocą ścisłego dopasowania słowa kluczowego, to szybka droga do filtru algorytmicznego. Odpowiednia dywersyfikacja, zdrowy rozsądek i naturalny wygląd linków – zdecydowanie musi wziąć górę w przypadku linkowania domeny exact matchami. Poniżej przykład linkowania danej podstrony tylko i wyłącznie słowami kluczowymi, bez brandu, bez dywersyfikacji, w bardzo dużych ilościach:
https://seo.zgred.pl/
*Pingwin – Algorytm dotyczący linków, wycelowany w strony internetowe, które masowo pozyskują odnośniki niskiej jakości. Pingwin karze strony, które mają nienaturalny profil linków, m.in.: zbyt dużo linków z exact match lub linki z miejsc zaspamowanych. Ostatnia aktualizacja Pingwina (v.4.0) z dnia 23.09.2016 wprowadza go „Real Time” – czyli w czasie rzeczywistym.
4. Szkodliwe linkowanie
Powszechnie widomo, że linki są jednym z najważniejszych elementów, budujących wysokie pozycje witryny w wyszukiwarce. Wartość linku możemy ocenić na podstawie tego, czy pochodzi on z zaufanej domeny, w której realnie odbywa się ruch lub, czy jest powiązany tematycznie ze stroną linkowaną. Warto postarać się o odnośniki z serwisów, które są linkowane na podobne frazy. Możemy również posłużyć się narzędziami zewnętrznymi oraz ich wskaźnikami dot. oceny linka / domeny. Do niedawna, gdy wskaźnik Page Rank był w toolbarze, klienci kupowali na serwisach aukcyjnych „Mocne linki z Page Rank 8”, nie wiedząc, że wskaźnik ten jest od długiego czasu nie wspierany i nie aktualizowany przez wyszukiwarkę Google. Prowadziło to do sytuacji, w której dostawali odnośniki bardzo niskiej jakości, często z chińskich systemów wymiany linków. Wielu klientów składało wtedy zapytania z prośbą
o wskazanie przyczyny spadku widoczności i ruchu w domenie. W zdecydowanej większości z nich, przyczyną były linki bardzo niskiej jakości, które Google odbierał jako próba manipulacji algorytmem wyszukiwarki. Potrzebny był link detox – zrzeczenie się linków niskiej jakości poprzez zgłoszenie ich do narzędzia Disavow Tool.
5. Popsute lub bezsensowne linkowanie wewnętrzne
W momencie, gdy uświadomiono klientom, że znaczenie ma nie tylko linkowanie zewnętrzne, ale również i wewnętrzne,
a w przypadku serwisów z dużą liczbą podstron to drugie ma nawet większe, webmasterzy wymyślali przeróżne metody linkowania wewnętrznego. Od wzajemnego linkowania nietematycznych podstron, przez upychanie w artykułach zbyt dużej liczby kotwic (niebieski artykuł) do … no właśnie – linkowania wewnętrznego za pomocą słów kluczowych, polegającego na przeładowaniu strony.
6. Przeoptymalizowane strony
Z optymalizacją można również przesadzić. O ile w przypadku aspektów technicznych dążenie do perfekcji jest wręcz wskazane, to w przypadku optymalizacji treści oraz tworzenia nowych stron docelowych, należy zachować odpowiedni umiar. Obecnie mechanizm RankBrain, wykorzystujący sztuczną inteligencję, doskonale rozumie kontekst zapytań kierowanych do wyszukiwarki oraz rozpoznaje synonimy. Tworzenie kilku dedykowanych podstron pod te same frazy, tylko inaczej odmienione, to zły pomysł, który może łatwo doprowadzić do problemu kanibalizacji słów kluczowych w serwisie.
Przykład: Mając poniższe frazy:
Biurka dla dzieci, biurka dla dziecka, biurka dziecięce, biurka dla młodzieży,
Należy stworzyć jedną, podstronę /biurka-dla-dzieci/ zamiast 4 dedykowanych podstron pod każdą frazę:
/biurka-dla-dzieci/
/biurka-dla-dziecka/
/biurka-dzieciece/
/biurka-dla-mlodziezy/
* Kanibalizacja słów kluczowych – sytuacja, w której wiele podstron serwisu jest zoptymalizowanych podobnie, pod kątem tej samej frazy i wszystkie podstrony rywalizują między sobą w wynikach wyszukiwania. Jednego dnia na dane słowo wyświetla się podstrona X, innego dnia na dane słowo wyświetla się podstrona Y.
Trzeba pamiętać, że metody, które były skuteczne kilka lat temu, obecnie nie przyniosą oczekiwanych efektów. Należy stale dbać o optymalizację techniczną i semantyczną naszych witryn. Wtedy będziemy mieli pewność, że staniemy się odporni na wszystkie aktualizacje algorytmów wyszukiwarki pod kątem jakości serwisów.