en
pl
wyślij brief
wyślij brief
kontakt

Duplikacja treści a SERP – wyniki testu

W poprzednich artykułach z cyklu Duplicate Content dowiedzieliście się jak szukać i unikać duplikacji treści, jak wykrywać i jak bronić się przed kradzieżą treści z waszej strony oraz jak unikać DC w przypadku stron wielojęzycznych. Dzisiejszy wpis, poświęcony jest wynikom testu, który przeprowadzam od kilku miesięcy.
Dlaczego akurat Duplicate Content?

Wszystko zaczęło się od efektów, jakie przyniosło skopiowanie i opublikowanie na jednym blogu trzech artykułów pobranych z innego serwisu, w tym przypadku też był to blog. Co dziwne, dla dwóch z trzech artykułów strona ze zduplikowaną treścią zaczęła zajmować wyższe pozycje niż ta oryginalna. Działo się to niezależnie od czasu skopiowania treści. Nie miało żadnego znaczenia, czy dana treść przeniesiona została kilka dni czy na przykład kilka sekund po publikacji. Taki stan rzeczy mógł wynikać z faktu, iż Google nie przypisuje specjalnej wartości czasowi indeksacji treści jako wyznacznikowi autorstwa tejże treści.
Co zatem Google bierze pod uwagę ustalając ranking dla tej samej treści w różnych serwisach?

Tu pojawiło się wiele możliwości. Zdecydowałem się sprawdzić jedną z nich, a mianowicie wpływ jakości serwisu (ustalonej na podstawie ilości linków zwrotnych) na jego pozycje w wynikach wyszukiwania.
Założenia testu
W teście brało udział 5 oryginalnych blogów oraz jeden powstały ze skopiowanej treści. Każdy z pięciu blogów znajduje się w Sieci od ponad roku. Prezentują one po kilka artykułów poruszających te same tematy. Dodatkowo, do każdego z nich linkuje od kilku do kilkunastu domen. W dalszej części artykułu będę posługiwać się numerami blogów i odwoływać do wartości z poniższej tabeli.

Wszystkie blogi zostały utworzone na darmowych platformach. Są naszą własnością wykorzystywaną do wewnętrznych testów.
Dla każdego z artykułów sprawdzane były pozycje w Google dla dwóch zapytań:
a) dokładne – tytuł artykułu,
b) ogólne, czyli fraza kluczowa dla danego artykułu, zawarta w tytule.
Dodatkowo, dla wszystkich blogów wybrane zostały 4 hasła ogólne związane z tematyką. Łącznie na koniec testu monitorowanych było 26 słów / fraz kluczowych. Do testów używałem narzędzia WebCEO. Aby uprościć wyliczenia średnich pozycji w przypadku, gdy blog nie znajdował się na daną frazę w pierwszych 30 wynikach wyszukiwania, przypisywano mu pozycję 31.

Najważniejsze spostrzeżenia

W przypadku nowo skopiowanych i zaindeksowanych przez roboty wyszukiwarek treści, obserwuje się stosunkowo wyraźną tendencję – kopiowane treści zajmują wysokie pozycje i wypierają z wyników wyszukiwania treści oryginalne. W większości przypadków jednak po pewnym czasie oryginalne wpisy wracają na „swoje miejsce”. Można powiedzieć, że w momencie zaindeksowania skopiowanej treści przez roboty wyszukiwarki artykuły dostają FSB (tzw. fresh site bonus), który znika po jakimś czasie. Wyniki przeprowadzonego testu nie są jednak wystarczającym poparciem tej tezy. Dlatego też proszę miejcie na uwadze, że w Waszym przypadku Google może zachować się inaczej.
Czy da się zbudować serwis na skopiowanej treści i prześcignąć oryginalne źródła w rankingu Google?

Zanim nowy blog został zauważony przez roboty wyszukiwarek Google, minęło kilka dni i kilka odnośników…

Już po trzech dniach (zielony punkt na powyższym wykresie) od utworzenia nowej strony i skopiowaniu kilku artykułów, blog zaczął pojawiać się w pierwszej 30 wyników wyszukiwania dla niektórych haseł. Po dwóch tygodniach (niebieski punkt na wykresie) na pierwszych 3 stronach wyników wyszukiwania pojawiało się już 65% z 20 monitorowanych wtedy fraz, a 40% z nich znajdowało się w top 5. Następnym rekordem (punkt czarny) było 50% z monitorowanych 20 haseł w top 10 i 45% w top 5. Kolejne dni to nieduże wahania pozycji.
Jak widać z powyższego wykresu, pomimo faktu budowania serwisu wyłącznie na skopiowanej treści, udało się uzyskać dość dobre pozycje dla wybranych fraz.
W kolejnych dwóch miesiącach blog z duplikacją treści zawierał już wszystkie artykuły, dlatego też monitorowanych było 26 słów kluczowych. Wyniki średnich pozycji możecie zobaczyć na powyższej ilustracji, gdzie widać, iż serwis z tygodnia na tydzień notuje spadki średnich pozycji, aby na koniec testu zajmować ostatnią pozycję wśród blogów biorących udział w eksperymencie.
Dobrze, ale jak to się ma do pojedynczego wpisu?

Ktoś pewnie powie, że średnia pozycja z 26 fraz daje zbyt ogólny zarys całej sytuacji, dlatego też poniżej znajdziecie dwa wykresy, przedstawiające średnie pozycje mierzone dla konkretnych artykułów.
Jak widać, w tym przypadku na początku zduplikowany artykuł zajmował średnią 24 pozycję (na podstawie dwóch fraz) w rankingu Google, aby po kilku dniach zamienić się z miejscami z wpisem oryginalnym. Po niecałym miesiącu pozycje artykułów ponownie zamieniły się miejscami, a oryginalny wpis zaczął zajmować jeszcze lepsze pozycje niż na początku.
Po przeanalizowaniu pozycji dla kilku artykułów stwierdziłem, że dobrym pomysłem będzie skopiowanie treści z serwisu niewykorzystywanego do tej pory w moim teście.
Tak, miałem w zanadrzu jeszcze jeden blog o tej samej tematyce, z roczną historią i 12 linkującymi domenami 🙂
Podobnie jak w pierwszym przypadku, również i tutaj widać podobną tendencję. Zduplikowany wpis już po kilku dniach od publikacji zamienił się miejscami z oryginalnym tekstem. Przez długi okres skopiowany wpis miał się o wiele lepiej w wynikach wyszukiwania Google, jednak ostatecznie spadł poza top 30.
Teraz kilka odpowiedzi na nurtujące Was pytania…

No właśnie – czy fakt późniejszej indeksacji artykułu na naszej stronie może spowodować, że nasz artykuł będzie traktowany jako duplikacja treści?

Tak, osobiście uważam, iż jest to jeden z czynników (jednak nie jest on najbardziej istotny), jakie Google bierze pod uwagę przy ustalaniu autorstwa treści, dlatego też powinniśmy zadbać o jak najszybszą indeksację naszych wpisów.
Co dzieje się w przypadku, gdy nasz artykuł zostanie skopiowany przez serwis lepszej jakości?

W przypadku naprawdę dobrych jakościowo serwisów jest duże prawdopodobieństwo, że nasz wpis będzie znajdował się niżej w wynikach wyszukiwania. Jeśli artykuł został skradziony to sugeruję zgłosić DMCA, czyli poinformować Google o kradzieży naszej własności. 
Co możemy zrobić, aby pomóc Google w przyporządkowaniu nam autorstwa danej treści? 

Authorship, czyli połączenie swojego profilu na Google+ z tekstami, które tworzymy (szczegóły implementacji znajdziecie tutaj). Biorąc pod uwagę kierunek, w którym zmierza Google, moim zdaniem Authorship jest obowiązkowy. Niewątpliwie pomaga on robotom wyszukiwarek określić autora danej treści, ale również ma pozytywny wpływ na CTR. W Sieci można znaleźć również wiele ciekawych informacji na temat tego elementu i jego wpływu na wyniki w SERPach.

Podlinkowanie wpisu ze strony głównej w celu szybszej indeksacji. Pewnie dla wszystkich z Was jest oczywiste, że w momencie publikacji wpisu ląduje on na stronie głównej. Co jednak w przypadku, gdy posiadamy popularny serwis / stronę firmową, a blog jest jedynie dodatkiem? Roboty wyszukiwarek mogą wtedy rzadziej zaglądać na nasz blog i tym samym wolniej indeksować wpisy. Dlatego też warto dodać odnośniki wraz z zajawkami ostatnich wpisów na stronie głównej serwisu tak, aby jak najszybciej poinformować Google o nowej treści.

Podzielenie się wpisem w serwisach społecznościowych Twitter / Facebook / Google+ i… Z racji, iż serwisy społecznościowe nabierają większego znaczenia w działaniach SEO, obowiązkowym elementem staje się dzielenie najnowszymi wpisami z naszymi fanami właśnie poprzez te serwisy. Informacja taka może być dodatkowym sygnałem dla Google, potwierdzającym autorstwo naszego artykułu i może pomóc w szybszej indeksacji tej treści.
Podsumowanie

Kilka tygodni po zakończeniu testu, blog zawierający zduplikowaną treść znajduje się na ostatnim miejscu spośród wszystkich 6 serwisów. Sytuacja ta dotyczy zarówno haseł ogólnych dla testowanej tematyki, jak i tych dla konkretnych artykułów. Konfrontując wyniki testu z tym, co do tej pory wiem o duplikacji treści mogę powiedzieć, iż Google coraz lepiej radzi sobie z rozpoznawaniem faktycznego autora treści. Niestety, pomimo faktu, że w naszym serwisie znajduje się oryginalna treść, nie sprawi to, że będziemy pojawiać się najwyżej w wynikach wyszukiwania. Duże znaczenia ma tutaj jakość danego serwisu, dlatego też bardzo często zdarzają się sytuacje, w których lepszy serwis wyprzedzi nas w SERP’ach. Niestety, jak widać w przeprowadzonym teście, 49 linkujących domen nie wystarczyło, by utrzymać stabilną pozycję.
Ponadto, wychodzę z założenia, iż Google zwraca uwagę na to, jakie są proporcje zduplikowanej treści do treści unikatowej znajdującej się w naszym serwisie. W momencie, kiedy ilość DC przekracza pewien poziom, serwis traci „w oczach” robotów wyszukiwarek i tym samym zajmuje niższe pozycje.
Zobacz również inne artykuły z cyklu:
Mateusz Rzetecki, SEO Specialist w Bluerank
Spodobał Ci się artykuł? Udostępnij go: