Opublikowano 4 komentarze

Dlaczego Google nie indeksuje Twojej strony?

dlaczego google nie indeksuje

Utrata widoczności w sieci to powód do niepokoju dla każdego e-przedsiębiorcy w Polsce. Wyobraź sobie taką sytuację: stali klienci dzwonią do Ciebie, mówiąc, że nie mogą znaleźć Twojej strony w Google. W panice przeglądasz statystyki nie rozumiejąc, czemu wejścia z wyszukiwarki praktycznie się w nich nie pojawiają. Nie wiesz co robić i co się dzieje? Spokojnie! Przeczytaj poniższy artykuł, a znajdziesz prawdopodobne wyjaśnienie i stworzysz sensowny plan działania, aby Twoja strona www dobrze się indeksowała.

Pierwsze kroki – przekonaj się, jak jest naprawdę

Divider

Sytuacja, w której właścicielom strony wydaje się, że Google o niej zapomniał, w rzeczywistości na ogół przedstawia się zupełnie inaczej. Podstawowe pytanie brzmi: jakie kroki próbujesz podjąć, by sprawdzić, dlaczego Google nie indeksuje Twojej strony? Jeśli wpisujesz nazwę firmy/strony lub wybrane z niej zdanie w polu wyszukiwarki, a następnie skanujesz wzrokiem pierwszą stronę wyników, popełniasz powszechny błąd. Polega on na pomyleniu braku indeksowania z osiągnięciem niskiej pozycji w rankingu Google.

Strony www, które nie zostały poddane złożonemu procesowi pozycjonowania i optymalizacji, lub nie mają ogromnej liczby odwiedzających jej odbiorców, nie znajdą się wysoko na liście wyników. Upewnij się zatem, że witryna faktycznie nie jest indeksowana, używając komendy „site:”, gdzie po dwukropku wpisujesz pełny adres strony. Jeśli ją znajdziesz, ale wyszukanie za pomocą komendy to jedyna sytuacja, gdy ukaże się ona na samym szczycie wyników, to znak, że czas zainwestować w solidną kampanię SEO.

Nowa strona? Cierpliwość potrzebna od zaraz

Divider

Jeśli właśnie uruchomiłeś świeżo przygotowaną witrynę, prawdopodobnie nie ma najmniejszych powodów do obaw. Na ogół pełne zaindeksowanie strony zajmuje Google około tygodnia, ale może też potrwać nawet miesiąc, w zależności od wagi i stopnia rozbudowania contentu pod danym adresem URL oraz ilości zewnętrznych odnośników/wzmianek. Specyfika działania algorytmów wyszukiwarki oraz ogromna liczba nowych stron, które każdego dnia pojawiają się w sieci, to główne powody, dla których zajmuje to tak dużo czasu.

Czy możesz zrobić coś, by skrócić ten okres? Jak najbardziej. Istnieje możliwość zgłoszenia strony do Google w celu ponownego zaindeksowania przy użyciu Google Search Console (Google Webmaster Tools). Dzięki temu strona pojawi się po kilku minutach w wyszukiwarce, ale roboty nie będą do niej regularnie wracać. Dlaczego? Z powodu braku zewnętrznych sygnałów, czyli linków. Dlatego zadbaj również o zdobycie dobrych odnośników, na przykład z mediów społecznościowych bądź z branżowych forów/katalogów.

Indeksowanie w Google od podszewki – jak to działa?

Divider

Za tworzenie oraz rozbudowywanie indeksu stron w wyszukiwarce Google odpowiedzialny jest robot indeksujący – Googlebot. Porusza się on po zakamarkach sieci, a jego przejścia pomiędzy witrynami zapisywane są w postaci indeksu, który staje się całkowitą bazą treści, dostępną z poziomu wyszukiwarki. Oczywiście treściom tym bardzo daleko do reprezentowania całego stworzonego internetu, ale to już temat na inną publikację.

Za pierwsze indeksowanie strony odpowiedzialny jest tryb deep crawl Googlebota. Odświeżanie natomiast odbywa się na podstawie fresh crawl, gdzie robot koncentruje się na regularnie aktualizowanych stronach. Podstawą jego funkcjonowania są umieszczone na stronie linki, pod adresem których umieszczone są strony już zaindeksowane. To jedna z najważniejszych przyczyn, dla których koncentracja na odpowiednim link buildingu szybko zaczyna przynosić satysfakcjonujące efekty w zakresie pozycjonowania.

Noindex i nofollow – sprawdź, czy wszystko się zgadza

Divider

Pierwszym miejscem, w którym Googlebot zapozna się z Twoją stroną, będzie plik robots.txt. Można go z powodzeniem określić jako swego rodzaju skrócony podręcznik etykiety dla botów – stąd właśnie dowiadują się, co mogą zrobić w obrębie danej witryny, a co nie będzie mile widziane. W jego obrębie umieszczane są parametry takie jak allow i disallow, określające zakres tego, co może, a czego nie ma indeksować robot Google.

By przekonać się, że kod Twojej strony nie wyklucza możliwości jej indeksowania, sprawdź kod strony poprzez skrót klawiszowy ctrl + U. Jeżeli znajdziesz tam tag noindex i nofollow oznacza to, że crawl robota indeksującego nie zakończy się sukcesem. A dlaczego ktoś chciałby celowo umieścić tam takie tagi? Powody mogą być dość zróżnicowane – najpopularniejszym z nich jest wykorzystanie tagów na etapie konstrukcji strony. Powinny one zostać następnie usunięte, gdyż pomyłka w tym zakresie będzie skutkować brakiem indeksowania.

Skorzystaj z narzędzi dostarczonych przez Google

Divider

Aktywne zarządzanie widocznością oraz pozycją stron internetowych przez ich właścicieli znacznie ułatwia pracę programom Google. Nie dziwi więc fakt, iż firma przygotowała do ich dyspozycji takie narzędzia jak Google Search Console (GSC). Jego umiejętne użytkowanie dostarczy Ci odpowiedzi na wiele pytań związanych z dostępnością strony oraz pomoże poprawić jej funkcjonowanie tak, by była jak najlepiej oceniania przez algorytmy wyszukiwarki.

By z niego korzystać, potrzebne będzie utworzenie indywidualnego konta oraz dodanie adresu witryny, która następnie zostanie zweryfikowana. Musi pojawić się ona w ostatecznej, dostępnej w sieci wersji. Za pomocą GSC możesz przesłać do Google kompletną mapę Twojego serwisu, co przyspieszy działanie robotów i zapobiegnie ewentualnym błędom. Załadowanie jej w formie podzielonych na czytelne segmenty plików dodatkowo ułatwi proces indeksowania.

Dzięki niezwykle przydatnej funkcjonalności „Pobierz jako Google” GSC przekonasz się, w jaki sposób Twoja strona przedstawia się z punktu widzenia algorytmów wyszukiwarki. Jeśli pomiędzy wersją, którą widzą użytkownicy a tą, która pokazuje się Googlebotowi istnieją jakiekolwiek różnice, właśnie w nich może tkwić przyczyna problemów z indeksowaniem.

Duplicate content? Treść musi się zgadzać

Divider

Występowanie na stronie duplicate content, czyli powtarzających się treści, może wpłynąć negatywnie nie tylko na pozycje fraz kluczowych w rankingach, ale i na sam proces jej indeksowania. Warto tu zaznaczyć, że przypadkowy duplicate content w obrębie tej samej domeny to zasadniczo coś innego, niż świadome wykorzystanie treści pojawiających się na innych stronach, niemniej jednak w dalszym ciągu ma on znaczenie, jeśli chodzi o postrzeganie strony przez Google (więcej na ten temat TUTAJ).

Weryfikując stronę pod kątem powielonej treści, zacznij w pierwszym rzędzie od samego adresu witryny. Jeśli nie jest on jednolity, a występuje w kilku wersjach, dokonaj potrzebnej modyfikacji, najlepiej przy użyciu parametru Canonical bądź przekierowania 301. Pomoże to usunąć problemy wynikające z istnienia witryny w wielu wersjach.

Divider

Jako duplicate content mogą zostać ocenione także takie treści jak powtarzający się w tej samej formie skład kosmetyku, czy też opis produktu. Nie zawsze ich zmiana na unikalne będzie tu najlepszą drogą (np. podawanie składów w dokładnej kolejności to wymóg wynikający z przepisów prawa UE), ale z pewnością nie zaszkodzi poszukać metod na obejście tej sytuacji. Pamiętaj także, że umieszczanie na stronie treści, które w nachalny sposób przygotowane zostały pod pozycjonowanie nie przedstawiając przy tym większej wartości dla użytkownika, może skutkować nałożeniem przez Google mniej lub bardziej dotkliwych kar, w tym braku indeksacji.

Przekierowania 301 – czy tu leży powód zamieszania?

Divider

Z przekierowań 301 korzystasz za każdym razem, gdy zależy Ci na nadanie nowego kierunku ruchowi na stronie. Dzięki ich użytkowaniu Twoi klienci nie natykają się na zniechęcające do dalszej eksploracji komunikaty o błędzie, a zostają przeniesieni do nowej wersji podstrony. Być może wiesz już, że z systemem przekierowań mogą wiązać się tymczasowe spadki SEO, ale to nie wszystko. Dokładne zaindeksowanie pojawiających się zmian przez roboty to proces, nie działanie jednorazowe, zatem może się zdarzyć, że nie będzie on przebiegał bezwypadkowo.

Upewnij się, że we właściwy sposób dokonałeś przekierowania – w tym celu sprawdź zawartość pliku .htaccess. Ogólnie można założyć, iż przekierowanie nie powinno zawierać zbyt wielu pętli, by nie powstała sytuacja, w której robot indeksujący nie będzie w stanie dotrzeć do witryny docelowej. Jeśli do tego dojdzie, crawl Googlebota nie zakończy się sukcesem, czego bezpośrednim efektem będzie brak strony w indeksie Google. Pamiętaj także by zapoznać się z aktualnymi zaleceniami Google w zakresie korzystania z przekierowań 301, 302 i 307. Sprawdź przy tym protokoły zabezpieczeń używane przez Twoje witryny.

Inne przyczyny problemów

Divider

Jeżeli robot indeksujący nie będzie w stanie pobrać dostępnych na stronie grafik czy elementów javascript, witryna może nie zostać zaindeksowana prawidłowo. Starannie zanalizuj jej kontent, poszukując potencjalnego źródła błędów indeksowania za pomocą wymienionego wyżej programu GSC. Następną kwestią, której należy uważnie się przyjrzeć, jest sama prędkość ładowania strony internetowej – sprawa pozornie błaha, jednak w tym przypadku nie warto dać się zwieść pozorom. Zbyt ciężkie strony to w oczach robotów Google element niepożądany w sieci nastawionej na użytkownika. Postaraj się zatem, by Twoja strona główna i wszystkie podstrony ładowały się w tempie ekspresowym – do 3 sekund.

PODSUMOWANIE

Divider

Wolne ładowanie się strony może wynikać również z sytuacji, w której sam kontent waży zbyt mało w stosunku do kodu i innych elementów konstrukcji witryny. Pamiętaj także, że na każdą stronę przewidziany został przez Google określony budżet indeksowania witryny (crawl budget). Googlebot nie jest w stanie jednorazowo indeksować nieskończonej liczby podstron – będzie robił to stopniowo, powracając do danej strony. Warto zatem zadbać o porządek w poleceniach dotyczących indeksowania, aby wspomniany budżet nie wyczerpał się od razu z powodu stron, których obecność w indeksie nie jest do niczego potrzebna, np. dotyczących cookies czy też polityki prywatności.

Opublikowano 7 komentarzy

Nagłówki na stronie a pozycjonowanie – jakie jest ich znaczenie?

nagłówki a pozycjonowanie

Czy nagłówki na stronie internetowej i blogu mają naprawdę duże znaczenie dla pozycjonowania? Czy ich używanie jest konieczne i czym jest hierarchia nagłówków?
Obalamy mity i przekazujemy prawdę. Wyduś dzisiejszy tekst jak cytrynę –
Ta wiedza jest dla Ciebie niezbędna!

Divider

Nagłówki zaliczamy do struktury strony. Zapisywane są w kodzie html za pomocą znaczników < h1 >< /h1 >, < h2 >< /h2 >, aż do < h6 >< /h6 > (bez spacji między nawiasami). Każdy z poszczególnych nagłówków pełni pewną funkcję. Mianowicie nagłówek H1 jest znacznikiem tytułów stron, wpisów i kategorii. Ze wszystkich nagłówków to on jest najważniejszy. Pozostałe nagłówki H2 – H6 to pod- i śródtytuły, z tym, że nagłówków H4, H5 i H6 rzadziej się używa.

Stosowanie pod tytułów i śródtytułów poprawia czytelność tekstu wizualnie, ale również wpływa na zaznaczanie ważnych treści w tekście, a także umożliwia podział tekstu na dwa tematy powiązane ze sobą, co z kolei umożliwia płynne przejście z jednego tematu na drugi.

Nagłówki na stronie i ich rola w pozycjonowaniu

Divider

Stosowanie odpowiednich nagłówków jest ważnym elementem przyczyniającym się do dobrego pozycjonowania. Na początek przedstawiamy hierarchię nagłówków, która przypisuje do poszczególnego nagłówka rolę, o jakich wspominaliśmy wyżej.

Divider

Stosując nagłówki kluczowe jest zadbanie o to, aby:

  • Trzymać się hierarchii nagłówków – czyli jeśli nagłówek H1 jest tytułem strony lub wpisu (a jest i powinien być w 99% przypadków), to zgodnie ze strukturą nagłówków po H1 należy zastosować nagłówek H2, następnie H3 itd.
  • Nagłówek H1 umieszczać na każdej stronie tylko raz – jest to znaczące dla pozycjonowania. Nie można dopuścić do przesycenia nagłówka H1 w treści.
  • Nie przesadzać z ilością stosowanych nagłówków w tekście– jak zostało wyżej wspomniane, nagłówków od poziomu H4 do H6 raczej się nie stosuje.

Z reguły najczęściej na stronach internetowych i blogach umieszcza się nagłówki HTML do znacznika < H3 > (bez spacji między nawiasami).

Dlaczego hierarchia nagłówków jest taka ważna?

Divider

Odgrywa istotną rolę w pozycjonowaniu. To swego rodzaju określenie treści od najważniejszej do tej mało znaczącej dla użytkownika. Tak samo odczytują nagłówki roboty wyszukiwarek. Gdyby tytuł strony oznaczyć na przykład nagłówkiem H6, roboty wyszukiwarek otrzymają informację, że dana treść jest mało znacząca dla odbiorcy – co skutkowałoby tym, że tekst nie będzie pojawiać się w pierwszych stronach wyników wyszukiwania na określone słowo kluczowe. W tym miejscu należy jednak zaznaczyć, że nie wystarczy optymalizacja samych nagłówków, aby dobrze wypozycjonować stronę. Nagłówki są jednym z elementów wspomagających pozycjonowanie, ale nie są ich głównym napędem.

Słowa kluczowe w nagłówkach

Divider

Jak sama nazwa wskazuje, słowa kluczowe (keywords) odgrywają kluczową rolę w pozycjonowaniu. Nie bez powodu zwraca się także uwagę na ich prawidłowe umieszczenie w tekście i nagłówkach. W znaczniku H1 i H2 powinny być umieszczone główne słowo kluczowe, natomiast od H3 dobrze by było używać synonimów lub wyrazów powiązanych z głównym słowem kluczowym.

O czym trzeba pamiętać, umieszczając słowa kluczowe w treści, tytułach, pod tytułach i śródtytułach? Przede wszystkim o zagnieżdżeniu keywords’ów w sposób naturalny. Nie ma nic gorszego niż naszprycowany tekst słowami kluczowymi, które aż gryzą w oczy laika z tematu SEO. Jeśli nawet czytelnik widzi, że słowa zamieszczone są w nienaturalny sposób w tekście, to najlepsza pora na optymalizację treści. Co oznacza nienaturalnie? Prosty przykład: “Wiesz, że tworzenie stron internetowych Poznań, to wizytówka Twojej firmy?” Jak widać, to zdanie jest niepoprawnie sformułowane i po prostu jest sztuczne. Co ma Poznań wspólnego z wizytówką Twojej firmy?

Optymalizacja nagłówków pod pozycjonowanie

Divider

Jak optymalizować nagłówki, aby było to zgodne z SEO?

  • Nagłówek H1 jest na najwyższym szczeblu hierarchii – należy zatem zadbać o umieszczenie w nim wybranego słowa kluczowego (głównego). Pamiętając przy tym, że słowa kluczowe nie mogą być przypadkowe.
  • Naturalność – to, co zostało wspomniane wcześniej. Słowo kluczowe musi być zagnieżdżone w tytule w sposób naturalny. Przede wszystkim nie zapominając o przyjaznym tytule dla czytelnika.
  • Najlepszy układ tytułu to taki, w którym słowo kluczowe znajduje się na samym początku. Jednak z doświadczenia wiemy, że nie zawsze da się zachować naturalność słów kluczowych w takim układzie. Zatem nic nie stoi na przeszkodzie, aby w takiej sytuacji słowo klucz umieścić w innej części zdania.
Divider

  • Clickbait – bajka dla naiwnych, która napędza wyświetlenia. Często w dużej mierze szkodzi, niż pomaga. Więcej o clickbait’ach opiszemy poniżej.
  • Długość ma znaczenie – długość nagłówka oczywiście. Tworząc tytuł należy pamiętać o tym, aby nie był on zbyt długi. Z dwóch powodów: długi tytuł nie jest ciekawy dla czytelnika, a i roboty wyszukiwarek mogą mieć problem z określeniem ważności tytuły dla danej frazy. Nagłówek H1 powinien być krótki i zwięzły. Optymalna długość nagłówka to jeden wiersz.
  • Duplikacja H1 – H1 odpowiada za tytuły stron, wpisów i podstron. Tworząc je, należy zadbać o unikalne nagłówki dla każdej ze stron. Na przykład: zakładka z ofertą firmy – nasza oferta/oferta itd. Wpis na blogu dotyczący oferty firmy powinien zatem mieć inny tytuł – Oferta firmy XYZ w pigułce, nasze usługi w pigułce itp.
  • Znacznik H1 opisuje zawartość strony i jest najwyższy w hierarchii, zatem roboty wyszukiwarek traktują treść umieszczoną w < h1 >< /h1 > pierwszorzędnie. W ten sposób rozumieją zawartość strony i to o czym jest. W tym miejscu należy zaznaczyć, że wstawiając słowa kluczowe, trzeba zadbać o to, aby były one zgodne z ofertą firmy. Lub tematem artykułu, do jakiego kieruje tytuł. Jeśli tak nie będzie to wysoki bounce rate (współczynnik odrzuceń) jest gwarantowany.

Divider

Powyżej opisaliśmy wskazówki dla optymalizacji nagłówka H1. Sprawa wygląda niemalże identycznie w przypadku pozostałych nagłówków. Jednak jest kilka wyjątków, o których trzeba pamiętać:

  • Główne słowo kluczowe nie może zostać użyte więcej niż raz w nagłówkach od H2-H6 – Najlepiej, jeśli zostanie umieszczone w H2 lub H3 (oprócz H1, bo jak ustaliliśmy powyżej, już znajduje się w tytule).
  • NIE należy również upychać słów kluczowych w każdym ze znaczników od H2-H6 – Skutkuje to wytworzeniem keyword stuffing (upchane słowa kluczowe w treści), co negatywnie wpływa na ocenę strony przez roboty wyszukiwarek.
  • Najlepszym rozwiązaniem będzie stosowanie w naturalny sposób synonimów i wyrazów blisko powiązanych z głównym słowem kluczowym.
  • Przede wszystkim piszemy i tworzymy dla ludzi, a nie pod roboty wyszukiwarek internetowych – To zasada, o której nie można zapomnieć. Najlepszym rozwiązaniem jest jednak umiejętne połączenie tych dwóch aspektów, a z tym dobry SEO copywriter nie będzie miał najmniejszego problemu.

Oczywiście optymalizacja nagłówków nie niesie za sobą przymusu umieszczania w tekście wszystkich znaczników od H2 do H6. Najczęściej stosuje się znaczniki do poziomu trzeciego, rzadziej do czwartego. Zasada jest banalna – w treści należy umieścić taką ilość znaczników, aby odpowiadała strukturze tekstu i informacji w nim zawartych. To śródtytuły są namiastką tego, co czytelnik znajdzie w akapicie.

Clickbait – maszynka do robienia wyświetleń?

Divider

Czym jest ten cały clickbait? Clickbait to trick marketingowy znany od początków XIX wieku. Ma za zadanie skłonić czytelnika do kliknięcia linku, w obraz, czy gif. Termin clickbait nie odnosi się bowiem tylko do treści. Zasada działania tytułów Clickbait jest bardzo prosta. Tytuł ma skłonić czytelnika do kliknięcia linku.Nic więcej.

Dlaczego clickbait’y są takie złe? W większości przypadków stosuje się tytuł, który nie ma odzwierciedlenia w treści. Czyli nic innego jak sugeruje nieprawdziwą informację lub wiadomości, których docelowo czytelnik nie odnajdzie w treści. Ponadto celowo wprowadza czytelnika w błąd. To takie trochę oszukiwanie, aby nabić wejścia na stronę.

Przykład: “Zrobiła to własnej córce, co za matka – jak mogła!” – a w linku tekst o tym,
jak matka oddała swoją nerkę dla córki – czyli czyn pochlebny. Tytuł powyżej natomiast sugeruje krzywdę lub coś bardzo złego.

Korzyści ze stosowania clickbait’ów(?)


DUŻY RUCH NA STRONIE

WIĘKSZA ILOŚĆ WYŚWIETLEŃ

Negatywne skutki:


RUCH NA STRONIE JEST CHWILOWY

SPADKI W WYNIKACH WYSZUKIWANIA

STRATA CZYTELNIKÓW

BRAK ZYSKÓW

UTRATA DOBREGO IMIENIA FIRMY

ŁATKA BEZWARTOŚCIOWEJ STRONY

To tylko kilka aspektów, które jak widać nie prowadzą do niczego dobrego. Jednak musimy tutaj wspomnieć, iż da się stworzyć tytuł clickbait’owy, nie tracąc przy tym odbiorców. Wystarczy, że tytuł będzie zachęcający, ale nie będzie kłamstwem. Czyli po prostu czytelnik w tekście znajdzie wartościowe informacje. Wypadkową takich dobrych clickbait’ów może być BuzzFeed, czyli naturalne udostępnienia linka w social mediach. Naturalne, ponieważ zostaną udostępnione przez zaciekawionych odbiorców.

PODSUMOWANIE

Divider

1. Nagłówki mają wpływ na pozycjonowanie, jednak nie mają bezpośredniego wpływu. Znaczniki te są jednym z ponad 200 czynników wpływających na SEO.

2. Ważne jest jednak stosowanie hierarchii nagłówków, ze względu na strukturę strony czytanej przez roboty wyszukiwarek.

3. Umieszczając słowo kluczowe w H1, powinno się ono znajdować na początku zdania.

4. W znacznikach H3-H6 dobrze stosować jest synonimy słowa kluczowego lub wyrazy z nim powiązane, aby nie doprowadzić do przesycenia tekstu słowami kluczowymi.

5. Słowa kluczowe powinny być umieszczone w tekście w sposób naturalny.

6. Odbiorca, a później roboty wyszukiwarek. Czyli tworząc tytuł skupiamy się na odbiorcy i jego wrażeniach, a dopiero później na robotach wyszukiwarek.

7. Nie należy stosować clickbait’ów. Chyba że wiarygodność firmy i jej dobre imię nie ma znaczenia. Czy warto jednak robić tabloid z firmowej strony?

Opublikowano 6 komentarzy

Duplicate content – dlaczego jest tak groźny i jak się przed nim ustrzec?

Jeśli chcesz sobie zaszkodzić i narazić się Wujkowi Google to z całą pewnością polecamy masowo tworzyć duplicate content. Osiągniesz wtedy stan apogeum, w którym nikt nie znajdzie Twojej strony w odmętach internetu!…

…A tak całkiem poważnie – dowiesz się dzisiaj, dlaczego powielanie treści ma negatywny wpływ na Twoją stronę, jej pozycjonowanie i czego nie robić, aby być wiarygodnym dla czytelników i klientów.

Czym jest duplicate content?

Divider

Duplicate content to w prostym tłumaczeniu zdublowana/powielona treść. O zjawisku powielonej treści mówimy wtedy, gdy pojawia się ona więcej niż raz na stronie (w miejscu docelowym) oraz na innych stronach internetowych. Od strony technicznej działa to tak – jeśli roboty wyszukiwarek internetowych odnajdują takie same treści na dwóch różnych stronach, prześwietlają je i eliminują zduplikowaną treść.

W praktyce strona, na której tekst znalazł się jako pierwszy zostanie uznana za źródło, dzięki czemu będzie wyżej w wynikach wyszukiwania. Natomiast strony z powieloną treścią będą miały odjęte punkty przez algorytm. W przypadku kiedy duplikat będzie bardzo naruszał standardy i wytyczne algorytmów, strona może zostać nawet zbanowana. Co oznacza nic innego jak usunięcie jej z wyników wyszukiwania.

W tym miejscu warto też nadmienić, iż duplicate content dotyka całego content marketingu. Zatem nie chodzi tylko o sam tekst, ale również o grafikę, gify czy wideo.

Nieświadomie powielona treść na Twojej stronie

Divider

Chcąc usprawnić działanie Twojej strony możesz nieświadomie tworzyć powieloną treść. Poniżej znajdziesz przykład:

  • http://twojastrona.com,
  • http://twojastrona.com/index.html,
  • http://www.twojastrona.com,
  • http://www.twojastrona.com/index.html,
  • http://twojastrona.com/index.html?utm_source=rss.

Każdy z odnośników, choć różni się trochę nazwą adresu url, prowadzi do tej samej strony. Zatem przez roboty wyszukiwarek jest uznawany za tą samą powieloną treść. Najczęściej do tej sytuacji dochodzi wtedy, gdy dodatkowo udostępniasz kanał rss na stronie lub udostępniasz wersję strony do druku.

Syndykowanie treści a duplicate content

Divider

Syndykacja treści to nic innego jak świadome tworzenie powielonej treści. Syndykowanie oznacza udostępnienie danej treści do przedruku innym serwisom. Przykładem takiego działania prezentuje platforma Artelis. To miejsce, gdzie użytkownik może dodać artykuł już istniejący na swojej stronie i umożliwić innym przedrukowanie go. Co jest ważne w tym systemie? Zawsze, ale to zawsze należy podać źródło z linkiem przedrukowanego artykułu. Dzięki czemu roboty wyszukiwarek widzą powieloną treść, ale również odczytują źródło danego tekstu.

Black Hat Seo – nieczyste praktyki pozycjonowania stron internetowych

Divider

Często jednak właśnie przez stosowanie tego typu praktyk tworzy się powieloną treść. Tutaj możemy mówić o zjawisku świadomej lub nieświadomej kradzieży treści. Bowiem osoba zajmująca się pozycjonowaniem, która korzysta ze specjalnych narzędzi do automatycznego pobierania treści z internetu nie jest świadoma, skąd pobierane są treści. Inna sytuacja – nazwijmy ją po imieniu – to zwykła kradzież tekstu. Ktoś wchodzi na Twoją stronę, kopiuje tekst i wstawia go do siebie.

W obu sytuacjach należy skontaktować się z właścicielem strony i w pierwszej kolejności poprosić o usunięcie zduplikowanej treści. W momencie jawnej kradzieży i braku reakcji na prośby należy po prostu udać się ze sprawą na policję. Musisz pamiętać, aby zebrać jak najwięcej dowodów. Musisz udowodnić między innymi, że ta sama treść pojawiła się na Twojej stronie jako pierwsza – że jesteś jej twórcą i autorem. Wbrew pozorom takie sytuacje nie są łatwe, bo jeśli treść jest tylko “mocną inspiracją” lub została przepuszczona przez narzędzie do synonimizacji tekstów – może być trudniej. Pamiętaj, że między inspiracją, a kradzieżą tekstu leży cienka granica.

Co możesz zrobić, aby uniknąć duplicate content?

Divider

Najlepszym sposobem jest skorzystanie z dostępnych metod blokowania treści w kodzie strony. Na przykład komendy meta robots lub robots.txt, gdzie bezpośrednio w pliku możesz ręcznie zablokować zduplikowaną treść.

Przykład – aby wykluczyć z indeksacji jedną konkretną podstronę w danym katalogu należy zastosować komendę:

User-agent: *

Disallow: /katalog/podstrona.html

Analogicznie będzie wyglądać komenda np. do wykluczenia kilku stron oprócz jednej:

User-Agent: *

Allow: /blog/najnowszewpisy.html

Disallow: /blog/

Divider

Metatag noindex – używając metatagu noindex jest to jasna informacja dla robotów wyszukiwarek o nie indeksacji danej strony. Noindex umieszczamy w nagłówku strony w html. Jest to jednak rozwiązanie drugorzędne. Lepiej zastosować przekierowanie 301 lub tag rel=canonical.

Czym różni się rel=canonical od przekierowania 301? Sytuacjami, w jakich zastosujemy dane rozwiązanie. Musisz pamiętać, że tag rel=canonical jest traktowany przez roboty wyszukiwarek jak przekierowanie 301. Jednak z tą różnicą, że stosując
tag rel=canonical użytkownik nie zostaje przekierowany na nowy adres strony, tak jak ma to miejsce w przypadku ustawienia 301.

KIEDY ZATEM ZASTOSOWAĆ REL=CANONICAL, A KIEDY 301?

Divider

Divider

REL=CANONICAL

– podczas gdy tworzą się nowe ścieżki adresu url wskutek przeglądania witryny (http://www.twojastrona.pl/blog/kategoria/tag/ , http://www.twojastrona.pl/blog/tag/kategoria/),

– kiedy dajemy użytkownikowi możliwość zawężania wyników wyszukiwania.

Divider

PRZEKIEROWANIE 301

– domena z www i bez www (wybór domeny docelowej),

– przekierowanie starej domeny na nową (www.twojastrona.com na www.nowastrona.com)

– przekierowanie starych adresów na nowe np. przy zmianie nazwy wpisu na blogu, czy tytułu strony (www.twojastrona.com/duplicate-content-co-robic na www.twojastrona.com/duplicate-content-jak-go-unikac), przy czym jest to wciąż ta sama treść, ale następuje zmiana adresu url.

Masz sklep internetowy? Jesteś narażony na duplicate content!

Divider

Niestety, oprócz zwykłych stron internetowych, to właśnie sklepy e-commerce najczęściej borykają się z problemem powielonej treści. Zjawisko występuje zazwyczaj w opisach produktów. Prawda jest taka, że nieświadomie sam tworzysz duplikat jeśli kopiujesz tekst, np. ze strony producenta. Nie ukrywajmy – jest to notorycznie spotykana praktyka w sklepach e-commerce.

Wyjścia masz dwa – albo idziesz na łatwiznę i kopiujesz, albo tworzysz unikalne opisy produktów. Oczywiście możesz (a nawet wskazane jest) oddelegować do tego zadania seo copywritera. W sytuacji takich samych produktów, gdzie ich zmienną jest tylko kolor, możesz utworzyć dla towaru kartę produktu z możliwością wyboru koloru lub osobną kartę dla każdego z produktów z unikalnymi opisami. Polecamy tę drugą opcję ze względu na seo strony.

NARZĘDZIA, KTÓRE POMOGĄ CI WYKRYĆ DUPLIKAT TREŚCI

Divider

Oczywiście programy antyplagiatowe nie są w 100% niezawodne, jednakże w dużej mierze pomogą Ci w wykrywaniu plagiatów. W internecie dostępnych jest sporo narzędzi do analizy treści, zarówno płatne, jak i darmowe. Pozwolą one na sprawdzenie danego tekstu i wykryją duplikat.

Te narzędzia Ci pomogą:

Divider

Copyscape – wystarczy wkleić link do danego tekstu i kliknąć lupkę. Program analizuje treść i przedstawia Ci wyniki w formie raportu. Otrzymujesz też linki do stron z powielonym tekstem. Wersja podstawowa jest darmowa.

Plagiarism checker smallseo tools – zdecydowanie bardziej rozbudowane narzędzie niż copyscape. Tutaj masz 3 możliwości dodania tekstu. Możesz wgrać plik txt, wkleić link lub wstawić tekst bezpośrednio w edytorze tekstu. Po sprawdzeniu tekstu wyniki wyświetlane są w tabeli z procentowym określeniem unikalności danego tekstu.

Plagiarisma.net – tu również, tak jak w poprzednim narzędziu, masz kilka możliwości dodania tekstu. Dochodzi tutaj możliwość bezpośredniego sprawdzenia treści z Google Drive. Możesz również wybrać wyszukiwarkę, w jakiej ma zostać sprawdzony tekst – Google i Bing (Google jest dostępne po zarejestrowaniu się). Samo narzędzie jest darmowe. Wynik otrzymujesz w postaci tabeli z konkretnym zdaniem, linkiem do strony i procentowym określeniem unikalności tekstu.

PODSUMOWANIE

Divider

Jeśli korzystasz z usług copywritera możesz poprosić go aby dołączył do swojego tekstu raport z takiego narzędzia lub samemu sprawdzać przesłany tekst. Uchroni Cię to przed nieświadomym wstawianiem skopiowanej treści.

Oczywiście to nie jest tak, że każdy copywriter robi kopiuj-wklej i wysyła nieświadomemu klientowi tekst. Trzeba jednak uważać, bo zdarza się, że podczas researchu copywriter zbyt mocno inspiruje się czyimś tekstem. Tak samo w przypadku zlecenia na teksty synonimizowane wskazane jest, aby korzystać z programów antyplagiatowych.

Opublikowano 2 komentarze

Czym jest Artykuł 13 i dlaczego Google tak bardzo się go boi?

Artykuł 13 to nic innego jak jeden z punktów dyrektywy ACTA 2.0 wdrażanej przez Unię Europejską. Została ona przygotowana już dwa lata temu jako unijne zalecenie, reformujące kwestie praw autorskich. Największy niepokój w internecie wzbudził właśnie wspomniany artykuł 13. Na czym on polega i jaki będzie miał wpływ na działania w internecie? O tym poniżej.

Artykuł 11 – preludium

Divider

Treść artykułu 11 stanowi, że udostępnianie wszelkich treści w serwisach internetowych będzie się odbywało po otrzymaniu odpowiednich licencji. Dzięki nim twórcy treści takich jak video, dzieła sztuki, czy też materiały edukacyjne będą lepiej wynagradzani.

Artykuł 13 – dlaczego wzbudza taki sprzeciw?

Artykuł 13 narzuca na internetowe platformy zapobieganie naruszeniom praw autorskich. Podczas wymieniania opinii na ten temat są oskarżenia o manipulacje. Przecież każdy chciałby mieć możliwość wyboru i każdy ma prawo do użytkowania zasobów internetu. Legislator Europejski ma do podjęcia kluczową decyzję: Zgodzić się na wprowadzenie filtrów oraz wynagradzać twórców czy wzmocnić gigantów internetu?

Jednym z największych portali, których dotyczy unijna dyrektywa, jest YouTube, który jest w rękach Google. Wniosek jest jeden – Wejście nowego unijnego rozporządzenia w życie spowoduje brak dostępu do milionów filmów oglądanych na co dzień. Blokadą również zostanie objęty dostęp do wiedzy oraz promocja swojej pracy w sieci. Fakt nieprzewidzenia decyzji o ustawie zostaje zatuszowany. Internauci uspokajają użytkowników, aby nie martwić się na zapas.

Kogo w praktyce dotyczy artykuł 13?

Divider

Kampanie internetowe, m.in. Google uświadamiają, że dyrektywa będzie dotyczyć wszystkich użytkowników internetu oraz wydawców artykułów. Dlaczego? Każdy z nas lubi wyszukiwać ulubione piosenki, filmy czy skecze – to może ulec zmianie. Na przykład materiały video mogą być brane pod „odstrzał” jako pierwsze. A to wszystko tylko przez prawa autorskie, które nie do końca są jasne. Dlatego, aby uniknąć kar grzywny, firma będzie miała obowiązek zablokować filmy wideo. Również materiały edukacyjne mogą zniknąć z serwisu. Każdy komentarz dodany na portalach społecznościowych czy platformach będzie przechodził szczegółową kontrolę. Ma to na celu sprawdzenie, czy taki komentarz nie łamie przepisów prawa. Podobne prawo zostało wprowadzone już w Hiszpanii. W efekcie hiszpańska wersja Google News została usunięta z sieci.

Divider

Odpowiedzialność pośredników internetowych jest kolejnym pomysłem unijnych dygnitarzy. Takie portale jak: Facebook, YouTube, eBay, Amazon, Twitter lub z naszego podwórka (np. Wykop) mają mieć obowiązek filtrowania przesyłanych wiadomości od użytkowników. Tutaj głównie wytwórnie filmowe oraz muzyczne zabiegały o wprowadzenie tej zmiany.

Na dzisiaj zostaje usunięte to, co jest pirackie, ale nikt nie filtruje całych treści przesyłanych przez użytkowników. Wzięcie pod lupę tego procederu ma pomóc między innymi artystom w obronie ich praw autorskich, a docelowo zniwelować straty materialne.

Serwis YouTube a artykuł 13

Divider

Zaakceptowanie treści artykułu 13 i niekompletne informacje o prawach autorskich wywołały ogromny szum wśród internautów. Platforma YouTube musiałaby blokować nawet miliony filmów. Nie tylko tych nowych, ale również takich, które zostały już udostępnione wcześniej w całej Unii Europejskiej. Do zablokowania wliczałyby się np.: filmy edukacyjne pochodzące z obszaru Unii Europejskiej, teledyski, parodie itp.

Divider

Przystanie na treść artykułu 13 może spowodować nie tylko ograniczony dostęp do filmów, ale również utratę wielu stanowisk pracy. Mamy tu na myśli pracę twórców, firmy i wykonawców z Europy oraz ich współpracowników. Chodzi tutaj przede wszystkim o artystów, którzy tworzą covery utworów muzycznych (np. fani), mashupy czy też parodie. Dyrektywa dotyczyć będzie także portali edukacyjnych, które powielają treści. Naszym zdaniem to kompletny absurd. Przecież dzięki na przykład publikowaniu coverów, autorzy pierwotnych wersji mają coraz większy rozgłos. Natomiast, w kwestii edukacji, wiedza powinna być dobrem ogólnodostępnym.

Tak naprawdę możliwość znalezienia dużej ilości rzetelnych informacji w krótkim czasie, jest sukcesem naszej cywilizacji, a zablokowanie tego byłoby krokiem wstecz.

#saveyourinternet – kampania YouTube w obronie internetu

Divider

Portal YouTube zorganizował specjalną kampanię w celu ochrony internetu o nazwie #saveyourinternet. Akcja ma na celu przekonać większą ilość użytkowników sieci do protestu przeciwko dyrektywie. Kampania sama w sobie nie budzi agresji. Wręcz przeciwnie – jest kulturalna i stonowana. Brak w niej propagandowych haseł, a o jej sile stanowią rzetelne informacje. YouTube, wchodzący w skład organizacji Google, podkreśla, że ważna jest ochrona praw autorskich, ale ten cel można osiągnąć w inny sposób. Cele artykułu 13 są w pełni popierane przez platformę – jednakże forma, w jakiej została stworzona dyrektywa przez Parlament Europejski, może spowodować niezamierzone konsekwencje. Artykuł 13 jest krokiem ku zmianie oblicza internetu. Czy na lepsze? W aktualnej formie zdecydowanie nie.

Więcej o kampanii #saveyourinternet możecie obejrzeć na stronie YouTube https://www.youtube.com/watch?v=lepYkDZ62OY lub przeczytać tutaj – https://saveyourinternet.eu/.

Artykuł 13 a ,,podatek od linkowania”?

Divider

„Podatek od linkowania”, o którym wspomnieliśmy powyżej, dotyczyć będzie w dużym stopniu naszej branży. Komisja Europejska dąży do tego, żeby wyszukiwarki odprowadzały opłaty na rzecz wydawców prasy. Wyszukiwarki, np. Google oraz agregatory treści powinny złożyć podatek za wyświetlanie linków. Podatek od linków będzie dotyczyć każdego, kto opublikuje w internecie nawet kilka słów lub obrazków z prasy i umieści link do innej strony.

Jak dobrze wiemy, zdobywanie linków zewnętrznych do strony jest trzonem działań związanych z pozycjonowaniem. Czy artykuł 13 sparaliżuje dotychczasowe sposoby promocji firm w internecie? Tego jeszcze nie wiemy.

Artykuł 13 a działania pozycjonerskie

Divider