28 sierpnia 2013
W poprzednich artykułach z cyklu Duplicate Content dowiedzieliście się jak
szukać i unikać duplikacji treści, jak
wykrywać i jak bronić się przed kradzieżą treści z waszej strony oraz jak
unikać DC w przypadku stron wielojęzycznych. Dzisiejszy wpis, poświęcony
jest wynikom testu, który przeprowadzam od kilku miesięcy.
Dlaczego akurat Duplicate Content?
Wszystko zaczęło się od efektów, jakie przyniosło
skopiowanie i opublikowanie na jednym blogu trzech artykułów pobranych z innego
serwisu, w tym przypadku też był to blog. Co dziwne, dla dwóch z trzech
artykułów strona ze zduplikowaną treścią zaczęła zajmować wyższe pozycje niż ta
oryginalna. Działo się to niezależnie od czasu skopiowania treści. Nie miało
żadnego znaczenia, czy dana treść przeniesiona została kilka dni czy na
przykład kilka sekund po publikacji. Taki stan rzeczy mógł wynikać z faktu, iż
Google nie przypisuje specjalnej wartości czasowi indeksacji treści jako
wyznacznikowi autorstwa tejże treści.
Co zatem Google
bierze pod uwagę ustalając ranking dla tej samej treści w różnych serwisach?
Tu pojawiło się wiele możliwości. Zdecydowałem się sprawdzić
jedną z nich, a mianowicie wpływ jakości serwisu (ustalonej na podstawie ilości
linków zwrotnych) na jego pozycje w wynikach wyszukiwania.
Założenia testu
W teście brało udział 5 oryginalnych blogów oraz jeden
powstały ze skopiowanej treści. Każdy z pięciu blogów znajduje się w Sieci od
ponad roku. Prezentują one po kilka artykułów poruszających te same tematy.
Dodatkowo, do każdego z nich linkuje od kilku do kilkunastu domen. W dalszej
części artykułu będę posługiwać się numerami blogów i odwoływać do wartości z
poniższej tabeli.
Wszystkie blogi zostały utworzone na darmowych platformach.
Są naszą własnością wykorzystywaną do wewnętrznych testów.
Dla każdego z artykułów sprawdzane były pozycje w Google dla
dwóch zapytań:
a) dokładne - tytuł
artykułu,
b) ogólne, czyli
fraza kluczowa dla danego artykułu, zawarta w tytule.
Dodatkowo, dla wszystkich blogów wybrane zostały 4 hasła ogólne związane z tematyką.
Łącznie na koniec testu monitorowanych było 26 słów / fraz kluczowych. Do testów używałem narzędzia WebCEO. Aby uprościć wyliczenia średnich
pozycji w przypadku, gdy blog nie znajdował się na daną frazę w pierwszych 30
wynikach wyszukiwania, przypisywano mu pozycję 31.
Najważniejsze spostrzeżenia
W przypadku nowo skopiowanych i zaindeksowanych przez roboty
wyszukiwarek treści, obserwuje się stosunkowo wyraźną tendencję – kopiowane
treści zajmują wysokie pozycje i wypierają z wyników wyszukiwania treści
oryginalne. W większości przypadków jednak po pewnym czasie oryginalne wpisy
wracają na „swoje miejsce”. Można powiedzieć, że w momencie zaindeksowania
skopiowanej treści przez roboty wyszukiwarki artykuły dostają FSB (tzw. fresh site bonus), który znika po jakimś
czasie. Wyniki przeprowadzonego testu nie są jednak wystarczającym poparciem
tej tezy. Dlatego też proszę miejcie na uwadze, że w Waszym przypadku Google może
zachować się inaczej.
Czy da się zbudować serwis na
skopiowanej treści i prześcignąć oryginalne źródła w rankingu Google?
Zanim nowy blog został zauważony przez roboty
wyszukiwarek Google, minęło kilka dni i kilka odnośników...
Już po trzech dniach (zielony punkt na powyższym wykresie) od utworzenia nowej strony i skopiowaniu kilku artykułów, blog zaczął pojawiać się w pierwszej 30 wyników wyszukiwania dla niektórych haseł. Po dwóch tygodniach (niebieski punkt na wykresie) na pierwszych 3 stronach wyników wyszukiwania pojawiało się już 65% z 20 monitorowanych wtedy fraz, a 40% z nich znajdowało się w top 5. Następnym rekordem (punkt czarny) było 50% z monitorowanych 20 haseł w top 10 i 45% w top 5. Kolejne dni to nieduże wahania pozycji.
Jak widać z powyższego wykresu, pomimo faktu budowania serwisu wyłącznie na skopiowanej treści, udało się uzyskać dość dobre pozycje dla wybranych fraz.
W kolejnych dwóch miesiącach blog z duplikacją treści
zawierał już wszystkie artykuły, dlatego też monitorowanych było 26 słów
kluczowych. Wyniki średnich pozycji możecie zobaczyć na powyższej ilustracji,
gdzie widać, iż serwis z tygodnia na tydzień notuje spadki średnich pozycji,
aby na koniec testu zajmować ostatnią pozycję wśród blogów biorących udział w
eksperymencie.
Dobrze, ale jak to się ma do
pojedynczego wpisu?
Ktoś pewnie powie, że średnia pozycja z 26 fraz daje zbyt
ogólny zarys całej sytuacji, dlatego też poniżej znajdziecie dwa wykresy, przedstawiające
średnie pozycje mierzone dla konkretnych artykułów.
Jak widać, w tym przypadku na początku zduplikowany artykuł
zajmował średnią 24 pozycję (na podstawie dwóch fraz) w rankingu Google, aby
po kilku dniach zamienić się z miejscami z wpisem oryginalnym. Po niecałym
miesiącu pozycje artykułów ponownie zamieniły się miejscami, a oryginalny wpis zaczął
zajmować jeszcze lepsze pozycje niż na początku.
Po przeanalizowaniu pozycji dla kilku artykułów
stwierdziłem, że dobrym pomysłem będzie skopiowanie treści z serwisu
niewykorzystywanego do tej pory w moim teście.
Tak, miałem w zanadrzu jeszcze jeden blog o tej samej
tematyce, z roczną historią i 12 linkującymi domenami :)
Podobnie jak w pierwszym przypadku, również i tutaj widać
podobną tendencję. Zduplikowany wpis już po kilku dniach od publikacji zamienił
się miejscami z oryginalnym tekstem. Przez długi okres skopiowany wpis miał się
o wiele lepiej w wynikach wyszukiwania Google, jednak ostatecznie spadł poza
top 30.
Teraz kilka odpowiedzi na nurtujące
Was pytania…
No właśnie - czy fakt późniejszej indeksacji artykułu na naszej stronie
może spowodować, że nasz artykuł będzie traktowany jako duplikacja treści?
Tak, osobiście uważam, iż jest to jeden z czynników (jednak nie
jest on najbardziej istotny), jakie Google bierze pod uwagę przy ustalaniu
autorstwa treści, dlatego też powinniśmy zadbać o jak najszybszą indeksację naszych
wpisów.
Co dzieje się w przypadku, gdy nasz artykuł zostanie skopiowany przez
serwis lepszej jakości?
W przypadku naprawdę dobrych jakościowo serwisów jest duże
prawdopodobieństwo, że nasz wpis będzie znajdował się niżej w wynikach
wyszukiwania. Jeśli artykuł został skradziony to sugeruję zgłosić DMCA, czyli
poinformować Google o kradzieży naszej własności.
Co możemy zrobić, aby pomóc Google w przyporządkowaniu nam autorstwa danej treści?
Authorship, czyli
połączenie swojego profilu na Google+ z tekstami, które tworzymy (szczegóły
implementacji znajdziecie tutaj).
Biorąc pod uwagę kierunek, w którym zmierza Google, moim zdaniem Authorship
jest obowiązkowy. Niewątpliwie pomaga on robotom wyszukiwarek określić autora
danej treści, ale również ma pozytywny wpływ na CTR. W Sieci można znaleźć
również wiele ciekawych informacji na temat tego elementu i jego wpływu na
wyniki w SERPach.
Podlinkowanie wpisu
ze strony głównej w celu szybszej indeksacji. Pewnie dla wszystkich z Was
jest oczywiste, że w momencie publikacji wpisu ląduje on na stronie głównej. Co
jednak w przypadku, gdy posiadamy popularny serwis / stronę firmową, a blog
jest jedynie dodatkiem? Roboty wyszukiwarek mogą wtedy rzadziej zaglądać na
nasz blog i tym samym wolniej indeksować wpisy. Dlatego też warto dodać
odnośniki wraz z zajawkami ostatnich wpisów na stronie głównej serwisu tak, aby
jak najszybciej poinformować Google o nowej treści.
Podzielenie się
wpisem w serwisach społecznościowych Twitter / Facebook / Google+ i… Z
racji, iż serwisy społecznościowe nabierają większego znaczenia w działaniach
SEO, obowiązkowym elementem staje się dzielenie najnowszymi wpisami z naszymi
fanami właśnie poprzez te serwisy. Informacja taka może być dodatkowym sygnałem
dla Google, potwierdzającym autorstwo naszego artykułu i może pomóc w szybszej
indeksacji tej treści.
Podsumowanie
Kilka tygodni po zakończeniu testu, blog zawierający
zduplikowaną treść znajduje się na ostatnim miejscu spośród wszystkich 6
serwisów. Sytuacja ta dotyczy zarówno haseł ogólnych dla testowanej tematyki,
jak i tych dla konkretnych artykułów. Konfrontując wyniki testu z tym, co do
tej pory wiem o duplikacji treści mogę powiedzieć, iż Google coraz lepiej radzi
sobie z rozpoznawaniem faktycznego autora treści. Niestety, pomimo faktu, że w
naszym serwisie znajduje się oryginalna treść, nie sprawi to, że będziemy
pojawiać się najwyżej w wynikach wyszukiwania. Duże znaczenia ma tutaj jakość
danego serwisu, dlatego też bardzo często zdarzają się sytuacje, w których
lepszy serwis wyprzedzi nas w SERP’ach. Niestety, jak widać w przeprowadzonym
teście, 49 linkujących domen nie wystarczyło, by utrzymać stabilną pozycję.
Ponadto, wychodzę z założenia, iż Google zwraca uwagę na to,
jakie są proporcje zduplikowanej treści do treści unikatowej znajdującej się w
naszym serwisie. W momencie, kiedy ilość DC przekracza pewien poziom, serwis
traci „w oczach” robotów wyszukiwarek i tym samym zajmuje niższe pozycje.
Zobacz również inne
artykuły z cyklu:
8 komentarzy:
Czytając ten artykuł dochodzę do wniosku, że w krótkiej perspektywie czasowej "opłaca się" duplikacja treści, ponieważ rankuje ona bardzo dobrze.
@Hicarian pytanie tylko czy krótkoterminowe efekty są tymi, na których nam zależy :)
Fajny test.
W poprzednim artykule była wzmianka o wykorzystaniu do poszukiwania kopii treści serwisu Copyscape.
Ja dorzucam dwie alternatywne strony Plagiarism Checker:
http://smallseotools.com/plagiarism-checker/
i AntyPlagiat:
http://www.antyplagiat.twojeartykuly.info/
z drugiej strony - do automatów na niskie poziomy piramid? wychodzi na to że warto
Podobne wnioski miałem już dużo wcześniej. Czasami też kopiowałem jakieś artykuły z innych miejsc - głównie portale i "moje" są wyżej niż oryginalne. No, ale ja to ja i wiem co zrobić z takimi wpisami by się nie zmarnowały :).
@shypo test polegał wyłącznie na sprawdzeniu czy większa liczba linków zwrotnych jest w stanie zapewnić lepsze pozycje. Nie były tu podejmowane żadne inne działania, które mogłyby sprawić, że DC będzie wyżej w SERPach. Tak z ciekawości dopytam, serwis był zbudowany wyłącznie z DC?
@Dawid test nie miał na celu pokazać, czy strona zbudowana na duplicate content nadaje się do wszelkiego rodzaju automatów i piramid linków. Jego celem było sprawdzenie jak Google podchodzi do tematu kopiowania artykułów przez inne serwisy :)
W krótkiej perspektywie może tak, ale jak chce się postawić na długofalowość... nie bardzo. Google stale ulepsza wykrywanie DC, jak wspomniane zostało w artykule, więc raczej na zduplikowanych treściach długo się nie pociągnie ;)
Prześlij komentarz