21 grudnia 2012

Specjaliści SEO Bluerank - opinie o 2012 roku w branży

Postanowiliśmy podsumować mijający rok, w dyskusji wzięli udział przedstawiciele działu SEO Bluerank. Opinie, przemyślenia i wnioski podzieliliśmy na trzy części.

Najważniejsze wydarzenie w branży SEO?

Naszym zdaniem rozwój „Pandy” i  pojawienie się „Pingwina”, czyli zmiany w algorytmie Google, które mocno wpłynęły na postać wyników wyszukiwania. Aktualizacje algorytmu wymusiły w wielu przypadkach zmiany w strategiach SEO. Cieszy nas fakt, że w oczach Google wartościowy kontent wciąż zyskuje na wartości i w jeszcze większej mierze będzie on decydował o pozycjach serwisów w rankingach.

Dużym zaskoczeniem i znaczącym wydarzeniem było zniknięcie porównywarek cen oraz innych popularnych serwisów z pierwszych stron wyników wyszukiwania Google. Pracownicy Google Search Quality Team dali pozycjonerom wyraźny sygnał, że pozyskiwanie linków ze stron o niskiej wartości oraz spamowanie to nie są strategie, które długofalowo będą opłacalne. Branża raczej jednoznacznie wyraziła o tej sytuacji swoją opinię. W Bluerank przygotowaliśmy raport „Jak wrócić na pierwszą stronę w Google” na temat porównywarek cen. Dokument wykazał, że serwisy te wyciągnęły wnioski z lekcji jakiej udzieliło im Google i obecnie starają się pozyskiwać odnośniki wysokiej jakości. Mamy nadzieję, że inne witryny czynią podobnie. Użytkownicy tylko na takim rozwiązaniu skorzystają, ponieważ walka o pozycje  to walka o jakość.

Kto wywarł na branżę SEO największy wpływ w 2012 roku?

Ben Silbermann, czyli człowiek, który z grupą kilku osób i przedsiębiorców stworzył serwis społecznościowy Pinterest.com. Platforma w ciągu kilkunastu miesięcy od startu pojawiła się w top 50 najpopularniejszych stron w USA, licząc ponad 25 mln unikalnych użytkowników miesięcznie. O wykorzystaniu tego serwisu do działań SEO pisaliśmy na naszym blogu. Nasze uznanie zdobył również Matt Cutts z Google, w związku z rozpoczęciem szerszej komunikacji z branżą i informowaniu  jej o nowościach w Google. W Polsce tę rolę wziął na siebie Kaspar Szymański, który również chętnie informował o poczynaniach wyszukiwarki. Głośnym transferem na rynku zagranicznym było przejście Marissy Mayer z Google do Yahoo. Jesteśmy ciekawi jak zmiana ta wpłynie na rozwój Yahoo i jego udziały w rynku.

Jaki będzie 2013 rok? Prognozy.

Opinie ekspertów Bluerank są raczej zgodne. Prawdopodobnie utrzyma się tendencja social, mobile, local… z naciskiem na media społecznościowe. Spodziewamy się kolejnego wzrostu koncentracji uwagi na użytkownikach i ich potrzebach. Rola sygnałów płynących z social media będzie rosnąć i mieć jeszcze większy wpływ na branżę SEO.  Będzie też rosnąć znaczenie kontent marketingu i inbound marketingu.

Tymczasem nie przecenialibyśmy znaczenia mobilnych serwisów i kampanii. Rynek ten na pewno będzie się rozwijać, ale podejrzewamy, że trochę woniej niż popularność samych smartfonów i tabletów. Jest za wcześnie, by mówić o prawdziwym boomie na mobile SEO. Poza tym dużo stron całkiem nieźle prezentuje się obecnie na urządzeniach mobilnych. Niektóre pewnie wykorzystają szansę i stworzą wersje lajt dostosowane do potrzeb i oczekiwań użytkowników korzystających ze smartfonów. Sukces prawdopodobnie czeka te, które dostosują swoją ofertę i kampanie marketingowe do lokalnych wyszukiwań na urządzeniach mobilnych. Jak rozwija się rynek mobile w Europie zaprezentowaliśmy w raporcie - Wyszukiwanie ogłoszeń w mobilnej Europie 2012.

W 2013 roku na znaczeniu zyska prawdopodobnie kwestia wyszukiwania obrazków. Pokazują to chociażby trendy w rozwoju serwisów typu Pinterest. Na samym polskim rynku powstało ich w tym roku ponad 10. Ta tendencja powinna zostać dostrzeżona przez Google, a co za tym idzie, pewnie w tym kierunku będą rozwijane  funkcjonalności wyszukiwarki oraz sam algorytm wyszukiwania obrazków. Być może Google zdecyduje się też jeszcze bardziej promować image search - wskazują na to np. nowe formy wyników wyszukiwania dla zapytań turystycznych. O potencjale tkwiącym w wyszukiwaniu obrazków pisaliśmy już na naszym blogu.

Wydarzeniem, które ma szansę mocno wpłynąć na branżę e-commerce może być pojawienie się Google Shopping na Polskim rynku. Tę usługę również  już opisaliśmy.

Opinie o mijającym roku pochodzą od SEO Specjalistów Bluerank.

--
Jacek Tkaczuk
Roman Bębenista
Matesz Kicki
Mateusz Rzetecki

18 grudnia 2012

AdWords - jedna czy kilka korzyści w reklamie

Teksty reklamowe AdWords stanowią odpowiedź na zapytania wpisywane przez Internatów w okno wyszukiwarki Google. Są elementem systemu komunikacji przedsiębiorstwa z rynkiem. Z założenia powinny pełnić funkcje właściwe dla tego systemu:

•    tworzyć potrzeby,
•    przedstawiać i/lub przypominać walory użytkowe produktu,
•    kreować preferencje i przysparzać argumentów przemawiających za zakupem produktów i usług danej marki,
•    kształtować pożądany przez firmę wizerunek.

Realizacja powyższych funkcji w przypadku reklam AdWords jest dodatkowo utrudniona przez specyfikę programu - ograniczenia ilości znaków, dostosowanie treści do zapytania i zawartości strony docelowej, sposób prezentacji (do 10 reklam konkurentów na stronie wyników wyszukiwania). Dobór skutecznych tekstów jest zatem wyzwaniem dla osób prowadzących działania PPC. Proste założenie – reklamy powinny być pisane „językiem korzyści”, zatem im więcej zalet umieścimy w 95 znakach tym lepiej, nie zawsze się sprawdza. Dlatego zawsze najbardziej optymalnym rozwiązaniem jest testowanie reklam i podejmowanie decyzji na podstawie uzyskanych wyników.

Skąd pomysł na testowanie ilość korzyści w komunikacie reklamowym?

Odpowiedzią są strategie neuromarketingowe. W uproszczeniu neuromarketing to wykorzystanie narzędzi pomiarowych stosowanych w naukowych badaniach psychofizjologicznych, w procesie optymalizacji bodźców marketingowych. Odwołując się do jego założeń przyjęliśmy, że mózg ma silną tendencję do oszczędzania energii. Im więcej otrzymuje bodźców (w tym przypadku są to korzyści w tekście) tym mniejszy staje się potencjał decyzyjny odbiorcy. Mózg musi wydatkować więcej energii na odbiór bodźców, ich analizę oraz dokonanie wyboru. Postanowiliśmy zweryfikować tę tezę i sprawdzić, czy ilość korzyści zaprezentowanych w tekście linku sponsorowanego, będzie się przekładać na jego skuteczność.

Szczegóły przeprowadzonego testu

Wykonaliśmy eksperyment, był to test typu A/ B oparty na dwóch rodzajach przekazu:
•    tekst reklamy A z jedną korzyścią w przekazie, 
•    tekst reklamy B z kilkoma korzyściami w przekazie.

By test był obiektywny kreacje były jedynymi w danej grupie reklamowej. Należy też pamiętać o ustawieniu równomiernego wyświetlenia reklam oraz o dostosowaniu czasu eksperymentu do liczby ekspozycji reklam.

W okresie od 23.10 do 12.11 przetestowaliśmy dla Was skuteczność dwóch rodzajów kreacji:

Komunikaty stosowane w 4 reklamach powtarzały się, np. kreacja „1-kilka korzyści” zawierała zalety uwzględnione w reklamach „2 – jedna korzyść”, „2A – jedna korzyść”.

Wyniki w liczbach, czyli wnioski dla PPC managerów

Tabela: jedna korzyść vs. kilka korzyści – wyświetlenia i kliknięcia
Cztery reklamy były wyświetlane rotacyjnie. Liczba ekspozycji pojedynczego tekstu wahała się od 26 371 do 27 736. System częściej prezentował kreacje z kilkoma zaletami. Wyższa widoczność reklam (częstotliwość wyświetlania) znalazła odzwierciedlenie w klikalności kreacji (więcej wyświetleń = więcej kliknięć). Najczęściej klikana kreacja zawierała kilka korzyści („1A – kilka korzyści”). Suma kliknięć reklam z wieloma zaletami była wyższa niż z jedną.

Najczęściej wyświetlana kreacja („1A - kilka korzyści”) odnotowała najwyższy CTR. Trzy pozostałe reklamy odnotowały taki sam wskaźnik CTR (niższy od najlepszego o 0,06%).

Oceniając reklamy pod kątem wskaźnika CTR, widoczności i liczby kliknięć zdecydowanie skuteczniejsze były kreacje przedstawiające kilka korzyści wynikających z zakupu oferowanych przez reklamodawcę produktów lub usług.

Klikalność versus konwersja – a jednak!

Analizując efektywność kreacji należy przede wszystkim wziąć pod uwagę cel  prowadzonej kampanii AdWords. W przypadku kampanii naszego Klienta jest nim sprzedaż. Cel ten lepiej realizowały reklamy z jedną zaletą w tekście reklamowym. Kreacje z jedną korzyścią wygenerowały około 30% więcej konwersji niż kilkoma zaletami. Najczęściej wyświetlany i klikany tekst („1A – kilka korzyści”) uzyskał najmniejszą liczbę konwersji.

Reklamy z jedną korzyścią miały niższy koszt konwersji niż  kreacje przedstawiające kilka zalet. Reklama z najniższym kosztem konwersji odnotowała jednocześnie największą liczbę konwersji. Kreacje nie wykazały zależności pomiędzy CPC, a opłatą za konwersję - niskie stawki za kliknięcie nie były powiązane z niskim kosztem konwersji.

Wnioski z badania dla marketerów

Nasz test jednoznacznie potwierdził tezę, że za duży wybór może być dla mózgu odbiorcy komunikatu zbyt dużym obciążeniem energetycznym. Choć częściej wyświetlane i klikane były reklamy przedstawiające wiele korzyści, to teksty prezentujące jedną korzyść okazały się, aż o 30% skuteczniejsze w generowaniu konwersji. Wyniki wyszukiwania Google to dość trudne środowisko, ponieważ na dane zapytanie użytkownik otrzymuje cały szereg odpowiedzi zarówno w postaci wyników naturalnych, jak i reklam. Ilość bodźców, która dociera do mózgu wywołuje duże obciążenie energetyczne, można więc domniemywać, że tekst nasycony kilkoma dodatkowymi komunikatami zmusi mózg do jeszcze cięższej pracy. Zgodnie z założeniami neuromarketingu decyzje zakupowe podejmujemy pod wpływem emocji. Jedna korzyść w tekście reklamowym to teoretycznie mniejsze rozproszenie potencjału decyzyjnego użytkownika w środowisku, w którym narażony jest on na wiele bodźców marketingowych. Oczywiście nie jesteśmy specjalistami w dziedzinie neuromarketingu i postanowiliśmy przetestować tylko jedno z jego praw w oparciu o system AdWords. A jednak wyniki potwierdziły nasze przypuszczenia. By uzyskać pewność potrzebne będą kolejne testy dla innych kategorii produktów i usług. Obecne wyniki traktować więc należy jedynie w kontekście eksperymentu.

W przypadku reklam AdWords więcej nie zawsze znaczy lepiej – jedna przewaga konkurencyjna może mieć „większą siłę” niż nagromadzenie zalet. Kreacje powinny być analizowane pod wieloma aspektami (np. CPC, CTR, CR), ale kluczowe znaczenie należy przypisywać temu wskaźnikowi, który wyraża cel prowadzenia działań reklamowych. Zachęcamy do przeprowadzania podobnych testów i umieszczania wyników badań w komentarzach na naszym blogu.

--
Dominika Walczak
Szymon Pietkiewicz

14 grudnia 2012

Google Webmaster Tools – kolejne przydatne funkcjonalności

Ten artykuł jest kolejnym z serii, opisującym przydatne funkcje narzędzia Google Webmaster Tools. Dla osób, które nie miały okazji zapoznać się z poprzednimi tekstami, polecamy artykuł prezentujący podstawowe możliwości Narzędzi Google dla webmasterów oraz wpis traktujący o funkcjach umożliwiających techniczną analizę serwisu. Warto zauważyć, że GWT może być nie tylko źródłem informacji o kondycji serwisu, ale również narzędziem, dzięki któremu możemy wpływać na to, jak nasza strona jest postrzegana przez Google lub jak często Googlebot odwiedza naszą witrynę.

1.    Ustawienia strony z WWW lub bez WWW

Opcja ta znajduje się w sekcji Konfiguracja/Ustawienia


Dzięki tej funkcji możemy ustawić, jak domyślnie strona powinna się pojawiać w wynikach wyszukiwania. Za sprawą wybrania jednej z opcji (z WWW lub bez) unikniemy duplikacji treści. Aktualnie Google dość dobrze radzi sobie z rozróżnianiem tego typu stron, jednak oprócz rozwiązania z Google Webmaster Tools zalecamy, by problem duplikacji adresów rozwiązać już na poziomie serwera i pliku .htaccess, w którym należy ustawić przekierowania stałe (301) z adresów bez WWW na te z WWW lub odwrotnie.

2.    Szybkość indeksowania serwisu

Opcja ta również znajduje się w sekcji Konfiguracja/Ustawienia


Domyślnie ta opcja pozwala Google wybrać prędkość indeksacji. Gdy wybierzemy manualne ustawienia zobaczymy, że domyślnie Google wysyła jedno żądanie na 5 sekund, co daje 17 280 żądań na dobę. Jest to liczba w zupełności wystarczająca dla większości serwisów. Jeśli posiadamy jednak stronę, która generuje mnóstwo wartościowej, unikalnej treści w ciągu doby (artykuły, produkty, treści wygenerowane przez użytkowników) warto rozważyć zwiększenie liczby żądań. Maksymalna wartość to 2 na sekundę, a najmniejsza to ok. 1 na minutę. Mniejszą ilość żądań należy ustawić w przypadku, gdy nasz serwer jest zbyt obciążony.

Warto też pamiętać, że niepozorny Googlebot może pobrać w ciągu doby od kilkudziesięciu megabajtów (w przypadku stron o średniej dobowej ilości odwiedzin) do nawet kilku gigabajtów danych (w przypadku bardziej popularnych serwisów).

3.    Przenoszenie serwisu na nową domenę

Wiele osób zadaje sobie pytanie - jak prawidłowo przenieść serwis na nową domenę? W GWT znajdziemy dokładne instrukcje, jak to zrobić (Sekcja Konfiguracja/Zmiana adresu).


Po przeniesieniu serwisu i zrobieniu przekierowań 301 warto pamiętać, że aby dodać do GWT nową domenę (na którą przenieśliśmy serwis) trzeba ją najpierw zweryfikować używając tego samego konta Google, a następnie wybrać z rozwijanej listy.

4.    Indeksacja grafik

W artykule opowiadającym o potencjale tkwiącym w wyszukiwaniu grafik udało nam się dowieść, że pliki graficzne mogą być bardzo cennym źródłem ruchu w serwisie. Należy monitorować stopień indeksacji zdjęć i w porę reagować, jeśli wartość tego parametru jest niska, mimo że posiadamy wiele wartościowych i unikalnych grafik. Aby mieć wgląd do statystyk należy najpierw stworzyć prawidłową mapę grafik, umieścić ją na serwerze oraz zgłosić do GWT.

Parametr ten znajdziemy w sekcji Optymalizacja/Mapy witryn


W tym akurat przypadku została umieszczona zła mapa grafik, stąd narzędzie GWT pokazuje tutaj błędnie niski stopień indeksacji.

Dane informujące o przybliżonej ilości zaindeksowanych grafik możemy uzyskać za pomocą komendy:
Site: nazwadomeny.pl w wyszukiwarce grafik Google


5.    Linki wewnętrzne i moc serwisu

Jak wiemy podstrona, która ma dużo linków wewnętrznych i jest dostępna z głównej strony, jest dla Google ważniejsza niż podstrona, która ma tylko kilka linków i jest dostępna w siódmym kliknięciu od strony głównej (sytuacja hipotetyczna). Idąc tym tropem na stronie głównej zazwyczaj umieszcza się najwyższe kategorie funkcjonujące w strukturze serwisu, podkategorie itd. Czasami umieszcza się też podstrony, które są pozycjonowane na bardzo trudne hasła i w ten sposób nadaje się im dodatkową „moc” – tzw. link juice.

Choć znamy te zasady, to mimo wszystko warto sprawdzić czy struktura naszego serwisu na pewno odpowiada wyszukiwarce. 

Z pomocą przychodzi nam narzędzie dostępne w sekcji Ruch/Linki wewnętrzne


W tej zakładce znajdziemy wykaz adresów URL serwisu, posortowanych według ilości linków wewnętrznych, które do nich kierują. W tabeli widać czy strony, na których nam najbardziej zależy, są właściwie wyeksponowane w serwisie.

Listę można też wyeksportować do progamu excel, przypisać podstronom ręcznie dodatkowe znaczniki np. kategoria, podkategoria, tag, ogłoszenie itd. (lub wykorzystać  te schematy w linkach) i poddać dalszej analizie. Podczas analizy może się okazać, że np. ważne kategorie mają mniej linków niż podstrony ogłoszeń. Mając uzasadnienie w postaci danych łatwiej można przekonać klienta do konieczności wprowadzenia zmian.

--
Mateusz  Kicki - SEO Specialist w Bluerank

11 grudnia 2012

Google Mobile Day – wnioski i ciekawostki

Tydzień temu miała miejsce konferencja Mobile Day poświęcona mobilnym rozwiązaniom Google. Postanowiliśmy podzielić się naszymi wrażeniami  i najważniejszymi wnioskami z tego wydarzenia.

  • Jak promować aplikację mobilną? Które formy reklamy są najbardziej skuteczne? 
Mariusz Gąsiewski - Industry Manager, Google Polska

Mariusz Gąsiewski przeprowadził analizę szeregu kampanii mobilnych reklamodawców z Polski i innych  państw CEE. Ich celem była konwersja, w tym przypadku ściągnięcie aplikacji. Średni współczynnik konwersji wyniósł 4%. Formaty reklam, które były najbardziej efektywne pod kątem konwersji to (od najlepszego):

1. Reklama w wyszukiwarce z adresem docelowym prowadzącym do Play Store Google albo App Store (bezpośrednia możliwość pobrania aplikacji).
2. Reklama w wyszukiwarce rozszerzona o aplikację umożliwiającą pobranie.
3. Reklama tekstowa w mGDN (moblina sieć reklamowa) - są to tzw. reklamy 1.5 kliknięcia. Użytkownik nie jest przenoszony bezpośrednio na stronę z aplikacją, wcześniej musi potwierdzić, że chce tam przejść.
4. Reklamy graficzne w mGDN .

Kluczowe wnioski z przeprowadzonego  badania:
- poniżej top 3 diametralnie spadają współczynniki CTR i CR,
- im aplikacja jest mniejsza, tym jest częściej ściągana,
- długość kampanii ma znaczenie - lepiej  jest działać dłużej w oparciu o mniejsze budżety, niż krótko i intensywnie,
- blast (forma kampanii, nazewnictwo od Google) może być efektywny, gdy zależy nam, by wartościowa aplikacja szybko zajęła miejsca w polecanych aplikacjach (w to miejsce można dostać się ze względu na dużą liczbę pobrań i wysokie oceny przyznane aplikacji),
- ”zainteresowania” najlepiej dzielić na osobne  grupy reklamowe,
- rodzaj urządzenia i system nie wpływają istotnie na liczbę konwersji .

  • Jak optymalizować konwersje w kampaniach mobilnych?
Piotr Rudnicki - Account Strategist, Google Polska

W przypadku kampanii skierowanych na telefony komórkowe można wyróżnić następujące rodzaje konwersji:
1. Wykonanie telefonu.
2. Aktywność offline po kontakcie z reklamą.
3. Dokonanie zakupu (mCommerce).

Poniżej podajemy sposoby na optymalizację tych 3 rodzajów konwersji:

1. Dodanie rozszerzeń z numerami telefonów do reklam mobilnych.

2. Rozszerzenia reklam o numery telefonów i lokalizację produktu lub usługi.  Teksty reklam lub charakter kampanii powinien odnosić się do działań offline, np.  przyjdź do sklepu, powiedz "rabat" i rób zakupy ze zniżką. Warto wykorzystać odległość dzielącą użytkownika od sklepu - wyższe stawki dla bliższych lokalizacji.

3. Wykorzystanie linków głębokich w reklamach, czyli odnośników prowadzących do konkretnych stron z prezentacją towaru lub usługi.

Podczas optymalizacji kampanii warto korzystać z następujących statystyk:
- segmentację na urządzania w panelu,
- raporty niestandardowe,
- segmentację na typ kliknięcia.

Nie zawsze warto posiadać stronę mobilną. Dla kampanii kierowanych na tablety często lepszą stroną docelową jest wersja typu "desktop". W  pozostałych przypadkach też nie ma konieczności, by tworzyć wersje mobilne. Istotne jest aby:
- informacje na stronie były łatwo dostępne,
- strona szybko się ładowała,
- przestrzeń była dostosowana do "obsługi palcem",
- proces konwersji był prosty i krótki.

  • Wykorzystanie Google Analytics w mierzeniu efektywności kampanii mobilnych.
Mariusz Gąsiewski - Industry Manager, Google Polska

Przed rozpoczęciem kampanii mobilnych należy prześledzić w Google Analytics poziom ruchu pochodzącego z tabletów i smartfonów. Warto zwrócić uwagę na następujące informacje:
- jaka jest obecnie skala ruchu z urządzeń mobilnych (statystyki odwiedzin),
- jak zmieniała się liczba odwiedzin z urządzeń mobilnych w czasie,
- ile średnio czasu na stronie spędzają użytkownicy urządzeń mobilnych,
- czy generują oni konwersje,
- jaka jest dla nich wartość odwiedzin.

Poprzez panel AdWords można śledzić konwersje w postaci ściągnięć aplikacji:
- dla Androida - wystarczy wygenerować nowy rodzaj konwersji,
- dla iOS - trzeba "zaszyć" kod konwersji w aplikacji.

Wkrótce w GA dostępna będzie modyfikacja Google Universal Analytics. Dzięki niej pojawi się moliwość śledzenia użytkownika niezależnie od tego, z jakiego urządzania korzysta. Pozwoli to na skierowanie większej uwagi na użytkownika, a nie na ilość i charakter odwiedzin.

--
Dominika Walczak, PPC Manager w Bluerank

6 grudnia 2012

Jak wrócić na pierwszą stronę w Google?

Prawie rok temu polskie porównywarki cen zniknęły niespodziewanie z wyników wyszukiwania Google. Nasi specjaliści SEO postanowili sprawdzić, jak serwisy te radzą sobie w Google ponad pół roku po tym przykrym incydencie. Ponadto, zweryfikowaliśmy strategie link building`owe stosowane przez najpopularniejsze porównywarki cen.

Pierwsze miejsce, jeśli chodzi o obecność odnośników do stron serwisu na pierwszej stronie naturalnych wyników wyszukiwania Google, zajmuje Ceneo.pl. Serwis pojawił się w Top 10 dla 85,12% spośród 1600 zapytań. Drugie miejsce należy do Nokaut.pl (53,44%). Tuż za nim jest Skapiec.pl, pojawiający się na pierwszej stronie w przypadku 51,06% zapytań. Ostatnie miejsce, z wynikiem 31,31%, zajmuje porównywarka Okazje.info.pl.

Jeśli chcecie dowiedzieć się: 

•    jak pozycjonują się najpopularniejsze polskie porównywarki cen,
•    która z nich dominuje w wynikach wyszukiwania,
•    jakie działania naprawcze podjęły, by wrócić do Google.

Zapraszamy do zapoznania się z pełną wersją raportu:
Raport Bluepaper - Jak wrócić na pierwszą stronę w Google?


--
Redakcja

30 listopada 2012

Universal Analytics – (r)ewolucja w Google Analytics w roku 2013

Niespełna miesiąc temu w kalifornijskim Mountain View miało miejsce jedno z najważniejszych wydarzeń dla użytkowników Google Analytics – Google Analytics Summit 2012. Internetowy gigant przedstawił jakich nowości można spodziewać się w przyszłym roku i wszystko wskazuje na to, że jest na co czekać.

Najważniejszą z zaprezentowanych nowości był Universal Analytics. Dzięki zastosowaniu nowego kodu, skrypt GA będzie o 80% lżejszy, łatwiejszy w instalacji, a dodatkowo będzie opierał się na tylko jednym pliku cookie. Oznacza to, że standardowe ciasteczka utm odejdą w zapomnienie. Ponadto, poza samym przyspieszeniem wczytywania strony i  procesu instalacji, ułatwi to np. integrację systemów CRM.

Nie jest to jednak wszystko. Największą i najbardziej rewolucyjną zaletą UA będzie to, że pozwoli on na przypisanie użytkownikowi unikalnego ID, przy zachowaniu prywatności użytkowników. Umożliwi to:

•    śledzenie tego samego użytkownika niezależnie od urządzenia, z którego korzysta (czy to komputer, smartfon, czy tablet),  a więc bardziej szczegółowe ustalenie Customer Lifetime Value.
•    śledzenie użytkowników, konwersji, itp. także offline!

W jaki sposób?

Google zaprezentowało tę funkcję wykorzystując czytniki RFID identyfikatorów osób wchodzących na ich kampus. Dzięki specjalnej konfiguracji GA, każde wejście traktowane było jako wizyta. Prawdę mówiąc, jedynym ograniczeniem tej funkcji pozostaje nasza wyobraźnia. Niezależnie od tego czy odnotowywane będą zeskanowania kodu QR w kawiarni, czy zamówienia telefoniczne w sklepie wysyłkowym - wszystkie dane będą mogły zostać wykorzystywane w Google Analytics. Dane dotyczące sesji użytkownika będą bowiem zapisywane po stronie serwera, nie zaś w plikach ciasteczek. Dzięki temu, marketerzy uzyskają większe możliwości optymalizacji ROI, koncentrując się np. na wybranym kanale.

Analityka w/g Google obecnie:


 Universal Analytics:

Modelowanie odniesień w Google Analytics

Kolejnym nowym narzędziem, które bezpośrednio umożliwi optymalizację ROI będzie modelowanie odniesień (ang. attribution modeling). Do tej pory było ono dostępne tylko dla korporacyjnych użytkowników GA Premium, ale już niedługo z narzędzia korzystać będzie mógł każdy. Funkcjonalność jest rozszerzeniem raportów ścieżek wielokanałowych, o elastyczność przypisania konwersji. Wyeliminuje to m.in. rozbieżność między danymi konwersji AdWords i GA oraz pozwoli na bardziej obiektywne spojrzenie na atrybucję konwersji. Nowością będzie tutaj również wydłużenie okresu podglądowego do 90 dni.


Jako Partnerzy Google Analytics, obecnie testujemy narzędzie na kontach niektórych z naszych klientów.

Jeszcze lepsza optymalizacja ROI

Wszystkie zaprezentowane podczas wydarzenia funkcje zdają się oscylować wokół optymalizacji ROI. Następnym tego przykładem może być możliwość ułatwionego importu danych o kosztach z innych niż AdWords źródeł, np. z reklam wyświetlanych w wyszukiwarce Bing lub na Facebooku.

Ponadto, zakładka źródła odwiedzin (ang. traffic sources) zmieni się na pozyskania (ang. acquisitions). Oczywiście źródła będą ciągle dostępne, przedstawione jednak zostaną w bardziej przejrzysty sposób, koncentrując się na konwersjach.

Podsumowując, przyszły rok będzie pełen nowości także w kontekście Google Analytics. Przyniesie zarówno więcej możliwości śledzenia ROI i optymalizacji działań marketingowych, jak i szereg nowych funkcji związanych z Universal Analytics. Więcej informacji o nowych funkcjach pojawi się na naszym blogu tak szybko, jak tylko będzie to możliwe!

--
Maciek Stanasiuk, Junior Consultant w Bluerank

23 listopada 2012

Śledzenie ruchu pochodzącego z wyszukiwania grafik w Google Analytics

Witamy, rozpoczynacie lekturę trzeciego artykułu poświęconego wyszukiwaniu grafik w Google. W poprzednich dwóch tekstach pisaliśmy o istotności Google Image Search w generowaniu ruchu oraz o sposobach rozpoznawania potencjału wyszukiwań. W tym artykule zaprezentujemy, jak mierzyć faktyczną liczbę wizyt pochodzących z wyszukiwania obrazków, przy pomocy narzędzia Google Analytics.

Domyślne raporty w Google Analytics

Wspominaliśmy wcześniej, że domyślnie w Google Analytics nie mamy możliwości weryfikacji poziomu ruchu z obrazków. Wizyty te niegdyś były raportowane głównie jako google.pl / referral ze ścieżką odwołania zawierającą „imgres”. Obecnie ruch ten w większości zawiera się w ramach google / organic, ale po części również we wcześniejszym google.pl / referral (około 25%). Bez wprowadzania zmian w kodzie czy ustawieniach Google Analytics nie możemy zweryfikować faktycznej liczby wejść z Google Image Search.


Sposobów na modyfikację kodu śledzącego może być kilka. Poniżej przedstawimy jeden, który według nas jest najprostszy do wdrożenia i obarczony najmniejszym błędem.

Rozpoznanie wyświetlania strony w ramce

Przede wszystkim, warto zauważyć, że po kliknięciu na zdjęcie w wynikach wyszukiwania grafik użytkownik odwiedza stronę, która wyświetlona jest w ramce na domenie Google.pl (ewentualnie google.com lub innej domenie regionalnej).



Biorąc pod uwagę ten fakt, wystarczy wprowadzić funkcję JavaScript, która rozpozna, czy serwis wyświetlony jest w ramce, czy nie i jeżeli jest – wykona odpowiednią akcję.


if (top.location!= self.document.location)
    {
        var url = String(document.referrer);
        if (url.indexOf ("google") !=-1)
            {
                ...
            }
    }


Akcją, która zostanie wykonana może być wywołanie analyticsowej funkcji trackPageview z odpowiednio zmodyfikowanym adresem URL (w takim przypadku należy tylko pamiętać o tym, by nie została też wywołana domyślna funkcja trackPageview, w przeciwnym wypadku Analytics naliczy dwie wizyty).

Drugim sposobem może być przekierowanie użytkownika na domyślny adres podstrony, już bez ramki i dodanie do adresu zmiennych określających parametry kampanii w Google Analytics. Dzięki temu zamiast rejestrowania wizyty w ramce, Analytics zliczy wizytę na stronie docelowej i określi źródło wizyty na podstawie parametrów kampanii:

if (top.location!= self.document.location)
    {
        var url = String(document.referrer);
        if (url.indexOf ("google") !=-1)
            {
                var adres=self.document.location+'?utm_source=google&utm_medium=image';
                top.location=adres;
            }
    }


W powyższym przykładzie źródło wizyty zostało oznaczone jako „google”, a medium kampanii jako „image”. Wartości te są oczywiście dowolne, podobnie jak wybór zmiennych (mamy 5 do wyboru: utm_source, utm_medium, utm_term, utm_content i utm_campaign). Więcej na temat zmiennych kampanii: http://support.google.com/analytics/bin/answer.py?hl=pl&hlrm=en&answer=1033867 .

Raporty w Google Analytics po modyfikacji

Po wprowadzeniu wspomnianej funkcji w serwisie, Google Analytics będzie raportował przyszły ruch z grafik jako źródło: google i medium: image.

Prezentujemy porównanie wizyt wygenerowanych przez google / organic i google / referal (powyżej) oraz wizyt z google / image (poniżej) po modyfikacji, która miała miejsce pod koniec września w serwisie www.inspireme.pl:



Dodatkowe zmienne

Dzięki zastosowaniu funkcji JavaScript możemy oprócz rozpoznania adresu z ramką jako Google.pl, wyciągnąć dodatkowe zmienne. URL strony ze zdjęciem (ramka) wygląda tak:

http://www.google.pl/imgres?start=100&num=10&hl=pl&biw=1525&bih=685&tbm=isch&tbnid=R0FFOBCRVHhHkM:&imgrefurl=http://www.koty.org.pl/ogloszenia/5373,Kocieta-Rosyjskie-Niebieskie.htm&docid=AOYMTjr6LIgb2M&imgurl=http://www.koty.org.pl/zdjecia/dodane/5373_Kot-Rosyjski-niebieski.jpg&w=498&h=434&ei=-
F6rUJWEEIjmtQabtIGQBg&zoom=1&iact=hc&vpx=714&vpy=339&dur=329&hovh=210&hovw=241&tx=134&ty=102&sig=103833619232994679928&page=1&tbnh=138&tbnw=155&start=0&ndsp=23&ved=1t:429,r:12,s:0,i:144


Jak widać, w adresie ramki widzimy orientacyjną pozycję zdjęcia na stronie wyników wyszukiwania (start) oraz adres URL grafiki. Obie te zmienne można określić przy pomocy funkcji i dodać do adresu URL dla przekierowanej strony:

var urlVars = {};
var parts = url.replace(/[?&]+([^=&]+)=([^&]*)/gi, function(m,key,value)
{
    urlVars[key] = value;
});
if (urlVars["imgurl"]!=undefined && urlVars["imgurl"]!="") {
    if (urlVars["start"]!=undefined && urlVars["start"]!="") {
        var numerzdjecia=urlVars["start"];
    }
    else {
        var numerzdjecia=0;
    }
    var adres=self.document.location+'?utm_source=google&utm_medium=image&utm_campaign=' + urlVars["imgurl"] + '--poz--' + numerzdjecia;
}
else {
    var adres=self.document.location+'?utm_source=google&utm_medium=image&utm_campaign=' + url;
}


W powyższym przykładzie obie zmienne zostały dodane do parametru utm_campaign, więc będą widoczne w Google Analytics, jako nazwa kampanii. Przykładowe dane dla serwisu www.zamiasto.com.pl:


Dzięki takiej modyfikacji kodu mamy dostęp do wielu ciekawych informacji. Przede wszystkim wiemy, jakie wartości ruchu są w serwisie generowane z wyszukiwania grafik, możemy porównać ruch według stron docelowych, określić najbardziej popularne zdjęcia generujące wizyty oraz zweryfikować jakość ruchu dla poszczególnych stron docelowych i grafik (ten temat opiszemy w kolejnym artykule).

--
Jacek Tkaczuk, SEO Director w Bluerank 

15 listopada 2012

Google Webmaster Tools, jako źródło informacji o technicznej kondycji serwisu

Ustalając rankingi stron Google bierze pod uwagę wiele czynników. Jednym z nich jest kondycja techniczna serwisu, poprzez którą rozumie się wiele kwestii związanych z budową serwisu oraz jego działaniem. Google Webmaster Tools jest narzędziem, które pozwala zidentyfikować istotne problemy techniczne w obrębie witryny. W jednym z wcześniejszych artykułów zaprezentowaliśmy wstęp i podstawowe funkcje tego narzędzia. Dziś omawiamy te elementy GWT, które przydadzą się do technicznej analizy kondycji serwisu.

Posiadanie w serwisie duplikatów stron wpływa negatywnie na jego pozycje w rankingach wyszukiwarki. Aby zidentyfikować prawdopodobną duplikację, można posłużyć się danymi z narzędzi dla webmasterów i porównać liczbę stron ze zgłoszonej sitemapy, z ilością stron zaindeksowanych przez Google.


Aby test był miarodajny mapa strony musi zawierać komplet adresów serwisu.
Ilość zaindeksowanych stron w Google, możemy sprawdzić na dwa sposoby. Pierwszy sposób to wykorzystanie komendy „site:” w wyszukiwarce:


Inny sposób to sprawdzenie liczby zaindeksowanych stron w Google Webmaster Tools w zakładce „Stan indeksowania”.


W ten sposób możemy otrzymać orientacyjną informację na temat tego, czy mamy problem z duplikacją stron w serwisie, jak dużo duplikatów stron zostało już zaindeksowanych przez wyszukiwarkę i do jakiej ilości stron powinno się zamknąć dostęp robotom Google.

Ważnym elementem podczas oceny technicznej kondycji witryny jest sprawdzenie występowania błędów indeksacji. Zapewnienie robotom bezproblemowego dostępu do podstron serwisu jest konieczne, jeśli chcemy by dane treści pojawiły się w wynikach wyszukiwania. Identyfikacja stron, które mają problemy z indeksacją,  jest możliwa dzięki funkcji  „Błędy indeksowania” znajdującej się w dziale „Kondycja”.


Bardzo cenne informacje podczas analizy błędów znajdują się również w szczegółach adresu powodującego błąd. Znaleźć tam można dokładne informacje o błędzie oraz linki do danego adresu (z map witryn oraz ze stron). Analiza tych informacji pozwoli określić istotność poszczególnych błędów oraz sposoby na ich naprawę.

Udoskonalenia HTML

Inną pożyteczną funkcją są „Udoskonalenia HTML”. Zakładka ta pozwala na identyfikację stron, które mogą powodować spadek użyteczności serwisu, jak również pogorszenie rankingów stron. W dziale tym możemy zapoznać się z problemami związanymi z wielokrotnym wykorzystywaniem tego samego meta opisu oraz tytułu strony lub ze zbyt krótkimi lub długimi formami tych elementów. Google poinformuje nas również jeśli uzna, że niektóre tytuły nie mają charakteru informacyjnego lub jeśli niektóre podstrony nie posiadają tytułów w ogóle.

Narzędzie to nie tylko informuje o problemie, lecz również podaje adresy - gdzie problem występuje. Po wybraniu pierwszego meta opisu, otrzymujemy listę adresów, gdzie jest duplikowany.

Narzędzie pozwala na prostszą identyfikację schematów błędów, co pozwoli na łatwiejsze określanie sposobów naprawy.

Dane strukturalne

Jest to nowa funkcja GWT, która pozwala na testowanie działania danych strukturalnych w serwisie. Informacje w tym dziale znajdziesz tylko w przypadku, gdy serwis wykorzystuje schema.org lub microdata. Po kliknięciu na dany typ ustrukturyzowanych danych, zaprezentowana zostanie lista stron, gdzie został on wykorzystany.

W celu sprawdzenia działania tych elementów i identyfikacji ewentualnych problemów, należy wykorzystać Narzędzie do testowania danych strukturalnych. Dzięki niemu można sprawdzić jak dane strukturalne będą prezentować się w wynikach wyszukiwania.

Złośliwe oprogramowanie

W przypadku wykrycia złośliwego oprogramowania w serwisie, Google poinformuje webmastera poprzez wiadomość. W zakładce „Złośliwe oprogramowanie” (w dziale „Kondycja”) można znaleźć listę przykładów adresów URL, które zostały ocenione jako zawierające złośliwy kod. Zdarza się to niezwykle rzadko, lecz o kwestię bezpieczeństwa naprawdę warto zadbać.

Sprawdzając nasz serwis powinniśmy zobaczyć komunikat:

Jeśli jednak zdarzy się, że złośliwe oprogramowanie zostało wykryte na naszej stronie, należy na początku sprawdzić, co mogło wzbudzić podejrzenia wyszukiwarki. Aby zobaczyć kod, jaki Googlebot widzi odwiedzając witrynę, można skorzystać z narzędzia „Pobierz jako Google” (dział „Kondycja”).


Podsumowując, Google Webmaster Tools to potężne narzędzie, za sprawą którego można uzyskać wiele informacji przydatnych podczas analizy technicznej kondycji witryny. Regularne korzystanie z  narzędzi dla webmasterów to dobry sposób na zapobieganie potencjalnym problemom. Zalecane jest również skorzystanie z opcji otrzymywania wiadomości na adres e-mail, co pozwoli na szybkie wychwycenie zaistniałego problemu z witryną.

--
Roman Bębenista, SEO Specialistw Bluerank

8 listopada 2012

Jak zmierzyć ruch i potencjał płynący z wyszukiwania grafik

W poprzednim artykule pisaliśmy o ogromnym, a jednocześnie niedocenionym potencjale wyszukiwania grafik, który warto wykorzystać w przypadku niektórych serwisów. Teraz czas na drugi tekst, w którym pokażemy jak przy pomocy podstawowych narzędzi mierzyć potencjał wyszukiwania grafik oraz poziom ruchu uzyskiwany dzięki wykorzystaniu obrazków i zdjęć.

Grafiki - rozpoznanie potencjału

Niestety informacji na temat potencjału wyszukiwania grafik nie ma w podstawowym narzędziu do analizy słów kluczowych, czyli narzędziu AdWords. Mamy tu dosyć dużo możliwości filtrowania fraz, chociażby poprzez kraje, języki, a także rodzaje urządzeń – komputery stacjonarne, smartfony i telefony komórkowe. Brakuje jednak możliwości odseparowania potencjału dla wyszukiwania grafik.

Natomiast ciekawym narzędziem, które można wykorzystać do tego celu, jest Google Trends. We wrześniu narzędzie to połączyło się z Google Insights for Search i od tego czasu mamy możliwość filtrowania potencjału zapytań pod kątem rodzaju wyszukiwań – sieć, grafiki, wiadomości i produkty.


Zaletą Google Trends jest oczywiście możliwość porównania potencjału nie tylko dla poszczególnych fraz, ale też dla różnych przedziałów czasowych. Wadą jest to, że Google Trends podaje wyniki w wartościach względnych w porównaniu z najpopularniejszą frazą. Uniemożliwia to określenie faktycznej liczby zapytań w Google (w odróżnieniu do narzędzia do analizy słów kluczowych). Jednak opierając się na samym porównaniu fraz, również możemy wiele dowiedzieć się na temat popularności danego zagadnienia.

Na przykład poniżej widzimy, że fraza „owczarek niemiecki” jest dziesięć razy mniej popularna od frazy „battlefield 3” (gdy gra wchodziła na rynek).


Natomiast gdy wybierzemy wyszukiwanie wśród grafik okazuje się, że wartości te są podobne. Innymi słowy, psów szuka wśród grafik relatywnie więcej osób niż gier.


Ponadto, znając potencjalne zainteresowanie użytkowników dla danej frazy (przy wyszukiwaniu grafik) możemy oszacować, jak będzie wyglądać to zainteresowanie dla innych fraz – poprzez porównanie wartości względnych.

Grafiki - mierzenie liczby wizyt

Najbardziej skutecznym i dokładnym sposobem na mierzenia poziomu ruchu pochodzącego z grafik, jest wykorzystanie narzędzia Google Analytics. Niestety, domyślnie ruch ten przedstawiany jest w raportach jako ruch organiczny i nie ma możliwości oddzielenia go od faktycznego organica. Dopiero modyfikacja kodu i wykorzystanie funkcji JavaScript do rozpoznania ramki, umożliwia odseparowanie ruchu z grafik od ruchu organicznego (o tym napiszemy w kolejnym artykule).

Ciekawym narzędziem, które umożliwia szybką weryfikację zarówno samego poziomu ruchu, jak i potencjału dla wyszukiwania grafik, jest raport dostępny w Google Webmaster Tools.

Po wejściu w zakładkę Ruch i dalej Wyszukiwane hasła - uzyskujemy raport pokazujący liczbę wyświetleń serwisu w Google i liczbę kliknięć dla poszczególnych fraz kluczowych.



Na górze raportu mamy ponadto dostęp do wielu filtrów, z których obecnie interesuje nas ten oznaczony jako Szukaj.


Dzięki ustawieniu wartości Grafika możemy zobaczyć dla jakich fraz nasz serwis pojawia się w wynikach wyszukiwania grafik, jaka jest jego średnia zajmowana pozycja oraz ile kliknięć osiągnął dla wybranych fraz.


Należy tu zauważyć, że liczba wyświetleń i liczba kliknięć to sumy dla całego serwisu - dla danej frazy. W przypadku wyszukiwania grafik bardzo prawdopodobne jest, że nasz serwis dla jednej frazy pojawia się na kilku różnych pozycjach.

By wyjaśnić to zjawisko posłużę się przykładem. Serwis www.inspireme.pl pojawia się 18 000 razy dla frazy „nowoczesny salon”. Jednak po kliknięciu na frazę widzimy, że liczba stron, które dla tej frazy się pojawiają, jest dosyć duża.


Na powyższym ekranie zaznaczyliśmy też aktualne pozycje poszczególnych podstron dla wybranej frazy. Jak widać, wszystkie strony są poza pierwszą dwusetką wyników wyszukiwania, a mimo to i tak są oglądane i klikane przez użytkowników.
Dane odnośnie pozycji dotyczą jednego dnia, a raport opisuje ostatnie 30 dni, stąd w niektórych przypadkach widać rozbieżności w korelacji między pozycjami, a liczbą odsłon.

Warto też zaznaczyć, że mimo dużych zaokrągleń stosowanych przez Google, wartości pokazywane w narzędziach Google dla webmasterów są bardzo zbliżone do tego, co widać w Google Analytics. Poniżej zamieszczam porównanie najpopularniejszych stron docelowych dla ruchu z grafik według Analytics i Google Webmaster Tools.


Powyższe dane ilustrują, że wbrew pozorom raport słów kluczowych w Google Webmaster Tools może być bardzo potężnym narzędziem dla każdego specjalisty SEO lub właściciela serwisu.

W kolejnym artykule opiszemy jak uzyskać raport pokazany na powyższym obrazku (pierwszym) i co z niego wynika.


--
Jacek Tkaczuk, SEO Director w Bluerank


6 listopada 2012

Reklama TrueView na portalu YouTube

TrueView to pakiet formatów reklamowych wprowadzonych pod koniec 2010 r. przez portal YouTube. W szybkim czasie stały się one popularne wśród reklamodawców, którzy docenili zarówno łatwość ich obsługi, jak i dostępność tych narzędzi. Wszystkie 4 formaty z rodziny TrueView możemy bowiem konfigurować bezpośrednio z panelu AdWords. Dzięki temu w łatwy sposób jesteśmy w stanie wzbogacać kampanie prowadzone w wyszukiwarce czy w sieci reklamowej o dodatkowy, atrakcyjny kanał promocji. W rezultacie, zyskujemy dodatkowe źródło odwiedzin naszej strony lub firmowego kanału na YT.

Dlaczego warto pojawić się ze swoją reklamą akurat na YouTube?

•    Jest to trzecia najpopularniejsza strona internetowa na świecie.
•    Druga najchętniej wykorzystywana wyszukiwarka (po Google).
•    Z portalu korzysta miesięcznie 13 mln unikalnych użytkowników w Polsce.

Reklamy video typu TrueView wyróżnia fakt, iż prezentowane są tylko tym użytkownikom, którzy zdecydują się je obejrzeć. Podnosi to zaangażowanie oglądającego – wg Google zwiększoną uwagę notuje się nawet w ciągu 85% czasu jej trwania, zamiast 48% w przypadku reklam niepomijalnych. Co więcej, niepominiętą reklamę pamięta nawet 81% oglądających, co również jest wynikiem znacznie lepszym w stosunku do reklam, które „trzeba” obejrzeć.

Jak funkcjonuje reklama TrueView?

Jak wspomniano, całą konfigurację kampanii reklam skierowanych na YT możemy przeprowadzić z poziomu panelu AdWords. Aby rozpocząć korzystanie z reklam TrueView musimy posiadać konto AdWords oraz kanał na portalu YouTube, gdzie umieszczone będą filmy reklamowe, które chcemy promować. Nasz kanał na YT warto połączyć z kontem AdWords – dzięki temu konfigurując kampanię, będziemy mogli korzystać nie tylko z list remarketingowych, które posiadamy w panelu, ale również z tych, które są dostępne w ramach konta YT (np. użytkownicy, którzy polubili film w naszym kanale).

Formaty proponowane przez Google to nie tylko różnorodny sposób prezentacji naszego materiału reklamowego. Każdy z nich spełnia nieco inną funkcję i może być wykorzystywany w zależności od celu, jaki stawiamy przed całą kampanią bądź pojedynczą reklamą. Biorąc pod uwagę lokalizację i metody wyświetlania danych formatów, można dopasować je do „zadań”, które mają spełnić podczas kampanii.

Podczas konfiguracji do wyboru mamy  4 formaty TrueView

TrueView In-Stream (pre-roll) – są to reklamy wyświetlane najczęściej przed (opcjonalnie także w trakcie lub na koniec) filmów znajdujących się na YT. Reklamę tego typu można pominąć po 5 sekundach jej trwania, co przynosi korzyści zarówno oglądającemu (nie musi oglądać reklamy, która go nie interesuje), jak i reklamodawcy (przez 5 sekund można skutecznie zachęcić do obejrzenia całej reklamy, a jeżeli się to nie uda - nic nie zapłacimy). In-Stream jest formatem typowo zasięgowym, przydatnym kiedy chcemy trafić z reklamą do jak najszerszej publiczności. Warto zainteresować się nim np. wtedy, gdy reklamujemy produkt dopiero wprowadzany na rynek i wiemy, że niewiele osób może go poszukiwać z własnej woli. Format ten daje szansę na niedrogą i skuteczną kampanię wizerunkową o dużym zasięgu. Co istotne, jako jedyny po „kliknięciu” w reklamę przekierowuje na stronę WWW reklamodawcy, a nie na jego kanał YT. Reklama In-Stream jest również pokazywana przed filmami wklejonymi na Facebook’u i Google+.


TrueView In-Search (w wynikach wyszukiwania) – reklama pokazywana jest jako wynik wyszukiwania w YouTube, na pozycji premiowanej, na wskazane słowa kluczowe. Kliknięcie w nią powoduje przeniesienie użytkownika na kanał reklamodawcy i wyświetlenie filmu. Płacimy tylko za obejrzaną  reklamę, wyświetlenie wyniku wyszukiwania jest bezpłatne. In-Search pozwala promować film wśród użytkowników naprawdę zainteresowanych danym tematem i zaprezentować wideo po przekserowaniu ich na dany kanał. Istnieje szansa, że zaczną oni subskrybować nasz kanał i następne reklamy będziemy mogli wyświetlać im już za darmo. Jest to dobra propozycja dla reklamodawców posiadających dłuższe materiały filmowe typu „How to…”, które łatwo promować na konkretne słowa kluczowe.



TrueView In-Slate  (w opcjach) – jest to reklama towarzysząca filmom długometrażowym na YT (powyżej 10 minut). Oglądający ma do wyboru: obejrzeć przed rozpoczęciem filmu jedną z 3 proponowanych reklam lub zgodzić się na przerwy reklamowe - co 7 minut w trakcie wyświetlania filmu. Również w tym przypadku płacimy dopiero, gdy użytkownik zdecyduje się obejrzeć reklamę. In-Slate nie jest na razie formatem, który możemy szeroko wykorzystać w Polsce (ze względu na małą liczbę dłuższych filmów dostarczanych przez partnerów Google). W USA, YouTube pozyskuje materiały video od swoich certyfikowanych dostawców, są to np. Newsweek, NBA, Discovery Channel, Universal Music, czy Metro Goldwin Meyer.

TrueView In-Display (na stronie) – są to reklamy prezentowane na YT na prawym pasku jako podobne / sugerowane filmy. Występują także na stronach należących do sieci reklamowej Google, co daje szansę na „wyjście” z reklamą wideo poza YouTube. Warto wykorzystać ten format, aby poszerzyć zasięg kampanii wideo i prezentować filmy na stronach sieci GDN. Przykładowo, film prezentujący przyrządzanie nowego dania możemy pokazać na stronach o tematyce kulinarnej i tym samym zwiększyć szansę, że zostanie on zauważony i obejrzany. In-Display pozwala jednocześnie na wybór konkretnych witryn, na których będzie prezentowana nasza reklama.


Wszystkie formaty reklam oferują różnorodne opcje kierowania, które w celu uporządkowania, zebrano w poniższej tabeli.



Dodatkowe funkcjonalności TrueView

•    Mając na uwadze fakt, że przekierowanie na witrynę reklamodawcy powoduje jedynie kliknięcie w reklamę In-Stream należy pamiętać, by w przypadku pozostałych formatów stosować  nakładkę in-video. To specjalna, klikalna reklama tekstowa wyświetlana na dole okienka z filmem, której kliknięcie spowoduje przeniesienie użytkownika na zdefiniowaną stronę docelową (np. na podstronę reklamowanego produktu w naszym sklepie).



•    Nową, ciekawą funkcjonalnością w przypadku TrueView jest banner towarzyszący 300x250, który podczas wyświetlania reklamy w formacie In-Stream umożliwia prezentację innych filmów z kanału reklamodawcy (max 5). Filmy są dobierane automatycznie. Kliknięcie w miniaturkę danego filmu powoduje jego odtworzenie, natomiast kliknięcie w belkę na dole bannera kieruje na stronę główną kanału. Dzięki temu rozwiązaniu łatwiej zaprezentujemy pozostałe filmy dostępne na naszym kanale i być może internauta po obejrzeniu pre-rolla zdecyduje się zobaczyć coś jeszcze.



•    Inną interesującą (a nawet kuszącą) możliwością jest opcja promocji filmu reklamowego na stronie głównej YouTube. Jak to w rodzinie TrueView, także i taką reklamę jesteśmy w stanie skonfigurować samodzielnie. Podczas tworzenia osobnej kampanii, należy wybrać opcję samodzielnego wyboru formatów i zdecydować się na format In-Display. Na karcie sieci wybieramy natomiast Filmy w YouTube. Po zapisaniu kampanii, system przeniesie nas na następną stronę, gdzie na karcie Kieruj reklamy na oglądających w opcjach zaawansowanych musimy dodać manualnie miejsce docelowe: ‘youtube.com::pyv-top-right-homepage’. To, czy nasze video znajdzie się na stronie głównej zależeć będzie od dwóch czynników: czy na stronie głównej jest już wykupiona stała reklama oraz od stawki CPV, jaką zaproponujemy za obejrzenie filmu. Eksponowane miejsce jakim jest homepage YouTube zdobywamy bowiem na zasadzie aukcji.


Na koniec garść statystyk

Projekt, w ramach którego przez 7 miesięcy prowadziliśmy kampanie video dla jednego z naszych klientów, dostarczył nam sporo ciekawych statystyk. Dają one podstawy do tego, aby móc oceniać efektywność zarówno całości reklam typu TrueView, jak i poszczególnych formatów.

Działania prowadzone były z wykorzystaniem wszystkich 4 formatów, jednakże najintensywniej wykorzystywanym był pre-roll In-Stream. Filmy, którymi dysponowaliśmy podczas prowadzenia kampanii, były spotami nakręconymi na potrzeby reklam TV, ale ze względu na swój lekki charakter znakomicie nadawały się do prezentacji w środowisku YouTube.

W czasie trwania kampanii formaty osiągnęły zdecydowanie różne wyniki. Pod względem odsetka użytkowników, którzy obejrzeli całą reklamę, najlepszy okazał się format In-Slate generując około 90% obejrzanych w całości reklam. In-Stream jest najlepszy jeżeli chodzi o cenę – obejrzenie całego filmu kosztuje reklamodawcę średnio 0,15 zł (In-Display – 0,43 zł). Ten format ma również najlepszy współczynnik obejrzeń – zwykle znacznie powyżej 20% (drugi jest In-Slate – 11,5 %).

Trzeba pamiętać, że statystyki te wynikają po części ze specyfiki formatów – np. In-Slate osiąga 90% obejrzeń całej reklamy, bo jest to warunek obejrzenia wybranego video. Znając więc specyfikę formatów możemy łatwiej dopasować je do celów, które stawiamy przed reklamą lub kampanią.

Podsumowując, warto śledzić i testować nowe formaty reklamowe, które Google wprowadza w ramach kanału YouTube. Warto szczególnie mieć na uwadze rozwijane w ostatnich miesiącach formaty TrueView, które są proste w obsłudze oraz w weryfikacji osiąganych wyników. Inną zaletą tych form reklam są niskie koszty uruchomienia kampanii – dysponując gotowymi spotami, np. tymi przygotowanymi na potrzeby telewizji, jesteśmy w stanie wykorzystać je również do promocji w jednym z najpopularniejszych serwisów w Polsce.

--
Rafał Trąbski, Junior PPC Manager

31 października 2012

Google Tag Manager - wstęp do narzędzia

Na początku października Google wypuścił kolejnynowy produkt: Google Tag Manager (GTM), darmowe narzędzie ułatwiające zarządzanie tagami i śledzenie zachowań użytkowników na stronach internetowych. Tradycyjnie, jak w przypadku podobnych ruchów Google, powstało przy tym trochę zamieszania. Chciałbym więc na początku pokrótce wyjaśnić, na czym polega tag management i dlaczego może być skutecznym narzędziem w rękach marketerów i analityków.

Czym są systemy tag management?

Systemy tag management umożliwiają dokonywanie zmian tagów obecnych w kodzie strony bez konieczności bezpośredniego edytowania tego kodu. W praktyce oznacza to oszczędność czasu i zasobów - marketerzy mogą bowiem kontrolować interesujące ich elementy kodu bez konieczności kontaktowania się z webmasterem. W ten sposób można zaimplementować nowy kod konwersji AdWords lub zmianę kodu Analytics w przeciągu kilku minut. Chirurgia nieinwazyjna. Życie staje się prostsze, prawda?


W badaniu przeprowadzonym przez  Forrestera w sierpniu 2012, aż 80% użytkowników potwierdziło, że wdrażanie i uaktualnianie tagów marketingowych za pomocą systemów tag management zajmuje im nie dłużej niż dzień, zaś niemal 50% wymieniło niezależność od programistów/webmasterów, jako jedną z najważniejszych zalet.

Google Tag Manager, czyli demokratyzacja zarządzania tagami

Na rynku produktów tag management dotychczas funkcjonowało kilku graczy, oferujących odpłatne narzędzia do zarządzania tagami. Już na pierwszy rzut oka widzimy sprawdzony zabieg Google: udostępnienie za darmo tego, za co inni żądają pieniędzy. We wspomnianym badaniu Forrestera prawie 40% użytkowników wymienia cenę, jako kluczowy czynnik przy wyborze systemu tag management. Wydaje się więc, że Google dobrze wpasował się w klimat rynku.

“Demokratyzacji” zarządzania tagami sprzyja też względna prostota w obsłudze oraz elastyczność GTM. W czym więc może nam pomóc nowe narzędzie od Google?


Poza standardowymi szablonami tagów Google (Analytics, Adwords, Doubleclick), GTM obsługuje także niestandardowe tagi HTML. Daje to możliwość modyfikacji kodów Google, oraz zastosowania innych tagów.

Jako jedną z zalet Google wymienia szybkość ładowania tagów: wszystkie bowiem ładowane są w sposób asynchroniczny. Nasze testy potwierdzają te dane: testowany tag GTM był w pełni załadowany ok 30 ms szybciej niż tag GA na tej samej stronie:


Praktyczną funkcją jest też narzędzie testujące implementację GTM w środowisku sandbox. W ten sposób można uniknąć błędów przed publikacją nowych tagów. W tym samym kontekście, GTM automatycznie wykrywa błędy w składni tagów niestandardowych.

Jak już wspomnieliśmy, GTM nie jest skomplikowanym narzędziem. Pomimo to, zastosowanie niestandardowych rozwiązań wymaga znajomości produktu i niekiedy - przy niezbyt kompletnej dokumentacji - doświadczenia. O standardowej i niestandardowej implementacji napiszemy w kolejnych postach.

Czy Google Tag Manager to narzędzie dla Twojej organizacji?

Jeśli:
  • często uaktualniasz lub wprowadzasz nowe tagi na strony swojej organizacji lub klientów,
  • proces implementacji tagów przez I.T./web development wydłuża się w czasie,
  • chciałbyś mieć możliwość edycji tagów podczas walidacji nowych implementacji,
  • nie posiadasz budżetu na inwestycje w kolejne narzędzia,

wówczas Google Tag Manager jest dla Twojej organizacji dobrym rozwiązaniem. Wkrótce napiszemy o szczegółach implementacji oraz naszych eksperymentach z GTM. W międzyczasie zapraszamy do obejrzenia wideo przedstawiającego narzędzie.

--
Florian Pertyński, Web Analyst w Bluerank

26 października 2012

Niedoceniony potencjał w wyszukiwaniu grafik

Od samego początku wśród podstawowych wytycznych SEO dotyczących optymalizacji serwisu pojawiały się kwestie związane z optymalizacją grafik. W checklistach audytów SEO kwestie takie jak teksty alternatywne dla obrazków lub właściwie skonstruowane nazwy plików zdjęć pojawiają się obok rekomendacji odnośnie zmian w meta tagach, opisach, nagłówkach oraz podstawowych technicznych zagadnień SEO.

Mam jednak wrażenie, że grafiki były i są często traktowane raczej jako uzupełnienie bardziej istotnych zagadnień technicznych, a ich optymalizacja nie jest związana z żadnym konkretnym celem czy strategią działań. Taką sytuację pogłębia fakt, że Google rzadko kiedy nawiązuje do wyszukiwania grafik w informacjach prasowych czy na blogu dla webmasterów, a w Google Analytics nie ma domyślnego raportu śledzenia ruchu z grafik. Ponadto, temat ten rzadko kiedy pojawia się na konferencjach branżowych i w artykułach eksperckich. Postanowiliśmy więc to zmienić.

Tekst, który czytasz, jest pierwszym z cyklu artykułów poświęconych wyszukiwaniu grafik. W tym materiale oraz w kolejnych artykułach pokażemy, jak mierzyć potencjał wyszukiwania grafik, jaka jest jakość ruchu pochodzącego z obrazków i co zrobić, aby uzyskać jak najwięcej użytkowników korzystając Google Image Search.

Podstawy wyszukiwania obrazów

Wyszukiwarka grafik dostępna jest z poziomego menu na górze strony wyników wyszukiwania Google. Po wejściu w wyszukiwarkę i wpisaniu frazy otrzymujemy listę kilkuset grafik odpowiadających danemu zapytaniu.


W przypadku niektórych tematów, do wyszukiwarki grafik można też dojść poprzez wyniki grafik wyświetlane w ramach wyników organicznych. Są tam pokazywane pierwsze cztery lub pierwsze pięć zdjęć, które odpowiadają zapytaniu (w zależności od proporcji obrazków).


Oprócz przeglądania otrzymanych wyników, użytkownik ma też możliwość skorzystania z dodatkowych opcji filtrowania grafik – według świeżości, rozmiarów, kolorów i typów. Warto jednak zauważyć, że Google prawdopodobnie będzie w przyszłości zmniejszał wagę tych filtrów, na co wskazuje wygląd wyników wyszukiwania w amerykańskiej wersji Google (brak filtrów po lewej stronie):


Potencjał wyszukiwania grafik

Niestety brakuje oficjalnych danych na temat wykorzystywania potencjału wyszukiwarki grafik. Sporo można jednak wywnioskować poprzez dane pochodzące z narzędzi Google dla webmasterów.

Są frazy, które domyślnie kojarzą się z grafikami, takie jak np. inspiracje i pomysły na wnętrza, dekoracje, ogrody, rasy psów, kotów, itp. W przypadku takich fraz udział odsłon pierwszych stron wyników wyszukiwania grafik osiąga aż 40 - 60% wartości liczby odsłon pierwszych stron wyników organicznych. Może to oznaczać, że liczba użytkowników korzystających z wyszukiwania grafik jest tylko o połowę mniejsza niż liczba użytkowników korzystających ze standardowej wyszukiwarki.

Przykład dla frazy „dog niemiecki”. Serwis www.psy.elk.pl osiąga według narzędzia Google dla webmasterów 10 000 odsłon miesięcznie, dla pierwszej strony organicznych wyników wyszukiwania. Dla wyszukiwania grafik liczba odsłon osiąga 75 000, jednak w pierwszej setce wyników wyszukiwania dostępnych jest aż 15 zdjęć. Można więc przypuszczać, że pierwsza część wyników wyszukiwania grafik jest oglądana: 75 000 / 15 = 5 000 razy (50% wartości dla organica).

Wartości te potwierdzają statystyki ruchu raportowanego w narzędziach Google dla webmasterów lub dane wynikającego ze śledzenia ruchu w Google Analytics (oba zagadnienia zostaną opisane w kolejnych artykułach). Według tych danych, w przypadku serwisów dobrze zoptymalizowanych pod kątem grafik i zagadnień związanych ze zdjęciami, liczba wizyt wynikająca z wyszukiwania grafik może stanowić od 20 do nawet 60% liczby wszystkich wizyt z wyszukiwarki Google.

Śledzenie ilości wizyt z wyszukiwania grafik

Poniżej prezentujemy przykład zmodyfikowanego śledzenia ilości wizyt z wyszukiwania grafik dla serwisu z aranżacjami wnętrz (www.inspireme.pl) – liczba wizyt z grafik przewyższa liczbę wizyt organicznych:


Statystyki kliknięć dla InspireMe.pl według narzędzi Google dla webmasterów dla wyszukiwania grafik (po lewej) i wyników organicznych (po prawej).


   
O tym czy wyszukiwanie grafik jest popularne w danej tematyce może świadczyć fakt obecności zdjęć w organicznych wynikach wyszukiwania. Możemy również przypuszczać, że im wyżej są te zdjęcia na stronie wyników wyszukiwania, tym bardziej jest w tym przypadku popularne wyszukiwanie grafik. Z drugiej strony im wyżej zdjęcia pojawiają się w wynikach wyszukiwania organicznego, tym więcej użytkowników może chcieć z nich skorzystać i przejrzeć więcej wyników dla grafik.

Tak czy inaczej, grafiki mogą być bardzo popularnym sposobem wyszukiwania zasobów przez użytkowników zainteresowanych konkretną tematyką, a ruch wygenerowany dzięki Google Image Search może mieć wysoki udział w odniesieniu do całego poziomu ruchu w serwisie. Warto więc zwrócić więcej uwagi na kwestie optymalizacji obrazków, a także monitorować widoczność serwisu w wynikach wyszukiwania grafik.

W kolejnym artykule przedstawimy podstawowe sposoby mierzenia popularności Google Image Search – przy pomocy narzędzi Google dla webmasterów oraz Google Trends.

--
Jacek Tkaczuk, SEO Director w Bluerank

19 października 2012

Narzędzia Google dla webmasterów – dlaczego warto ich używać?

Google cały czas udoskonala swoje narzędzia, które posiadają coraz więcej naprawdę przydatnych funkcji. Tak też dzieje się z Narzędziami Google dla webmasterów (Google Webmaster Tools - w skrócie GWT), które bardzo często bywają przez nich niedoceniane.

GWT dla każdego webmastera powinno być głównym źródłem informacji o stanie jego serwisów. Ostatnie zmiany w algorytmie wyszukiwarki Google zmuszają nas do ciągłego monitorowania wszelkich aspektów związanych z naszymi serwisami, w tym: błędów technicznych, nienaturalnych linków czy też duplikacji treści w obrębie serwisu.

Jak skutecznie wykorzystać Narzędzia Google dla webmasterów do analizy swojego serwisu?

Po pierwsze, jeśli jeszcze nie dodaliście swoich domen do tego narzędzia sugeruję zrobić to teraz - link!

Żeby rozpocząć pracę z GWT musicie najpierw zweryfikować siebie, jako właściciela domeny. Można to zrobić na różne sposoby, poprzez swoje konto Google Analytics (jeśli podpięta jest do niego wasza domena), wgranie odpowiedniego pliku na serwer FTP lub dodanie linii kodu do strony.

Jeśli wykonaliście wszystkie kroki poprawnie, możemy zacząć!

1.    Wiadomości

Jest to obecnie jedyna metoda komunikowania przez Google ewentualnych problemów na jakie natrafiają roboty wyszukiwarki analizując nasze serwisy. W dobie ostatnich zmian algorytmu, Google rozsyła do webmasterów coraz bardziej szczegółowe wiadomości. Informuje nas np. o nienaturalnych linkach prowadzących do naszego serwisu, problemach z indeksowaniem, dużych zmianach w poziomie ruchu, które mogą być wynikiem problemów z naszym serwisem.


2.    Linki witryny

W przypadku linków witryny częściej spotkacie się określeniem Sitelinks. Opcja ta umożliwia nam dodanie w niektórych wynikach wyszukiwania Google linków do podstron naszego serwisu. Rozwiązanie to ma pomóc internautom, czyli oszczędzając ich czas umożliwić im szybkie znalezienie poszukiwanych informacji. Więcej szczegółów o linkach witryny znajdziecie tutaj.




Ciekawostka: Od jakiegoś czasu dla zapytań prezentujących linki witryny, na pierwszej stronie wyników wyszukiwania znajduje się tylko 7 stron Google SERP Dumps 5.5% of Organic First Page Listings.

3.    Błędy indeksowania

W tej części znajdziecie informacje o stronach, które z różnych przyczyn nie mogły zostać odwiedzone przez roboty wyszukiwarki. Znajdziecie tu podział na kilka rodzajów błędów, jednak z punktu widzenia SEO najistotniejszymi będą te oznaczone jako: Nie znaleziono.

Błędy te oznaczają, iż robot Google odwiedzając daną podstronę w Waszym serwisie otrzymał błąd 404. Powodem tego może być błędny link lub nieistniejąca strona.



Poniżej wykresu znajdziecie dokładny spis wszystkich błędów, będziecie mogli również pobrać je wszystkie na dysk i zapisać w Excelu, żeby dokonać dokładniejszej analizy. Dodatkowo w GWT klikając na dowolny link z listy otrzymacie pop-up, który zawiera szczegółowe informacje na temat każdego odnośnika.

 

Czemu warto poprawić błędy 404 w swojej witrynie?

Bardzo często nieistniejące strony (takie jak np. ogłoszenia, które wygasły) posiadają już linki pozycjonujące mogące mieć wpływ na ranking naszego serwisu. Dobrze więc, jeśli w takich przypadkach dokonamy przekierowania 301 takich stron na inne, powiązane tematycznie strony lub kategorie.

4.    Duplikacja treści

Google nieustannie dąży do zwiększenia jakości wyników wyszukiwania. Dlatego też bardzo istotne jest dzisiaj zadbanie o to, aby w naszym serwisie nie występowała duplikacja treści oraz by nie pojawiały się w nim podstrony niskiej jakości, które nie mają żadnej wartości dla internautów. Indeksacja zduplikowanych podstron oraz tych niskiej jakości może mieć negatywny wpływ na rankingi pozostałych. Wszystko to za sprawą aktualizacji algorytmu wyszukiwania o nazwie Panda.

Jak znaleźć strony ze zduplikowaną treścią?

Najlepszym miejscem aby rozpocząć pracę nad duplikacją treści jest kategoria „Optymalizacja” „Udoskonalenia HTML”. Znajdziecie tu informacje o wystąpieniach podwójnych meta tytułów oraz meta opisów. Zapoznajcie się ze szczegółami, żeby wyszukać potencjalne adresy ze zduplikowaną treścią. Oprócz duplikacji meta danych, znajdziecie tu również informacje o zbyt długich opisach i tytułach lub o ich braku.



5.    Wyszukiwane hasła

Kolejnym miejscem, które ze względu na wartość SEO powinno być często przez Was odwiedzane, jest zakładka ”Wyszukiwane hasła” w kategorii „Ruch”.

Prezentowane są tutaj statystyki słów kluczowych, które przekierowały internautów do Waszego serwisu. Średnia pozycja fraz, ich CTR, liczba wyświetleń oraz kliknięć.

Sortując słowa kluczowe wedle średniej pozycji możecie zobaczyć, które z fraz znajdują się na pierwszej stronie wyników wyszukiwania, a które nie. Niekiedy dla haseł znajdujących się blisko top 10 wystarczą małe zmiany na stronie (on-page optimization) lub kilka linków, aby zdecydowanie poprawić ranking w SERP i przyciągnąć tym samym więcej kliknięć.


Osobiście polecam Wam również zapoznać się ze statystykami po uwzględnieniu zmian (zakładka: Ze zmianami). Jest do niedoceniana przez wielu webmasterów funkcja, która pozwala na odnalezienie naprawdę wartościowych słów kluczowych. Dzięki analizie zmian będziecie w stanie określić, które ze słów kluczowych w przeciągu ostatnich 30 dni cieszyły się największym wzrostem zainteresowania. Poprzez zmianę treści na konkretnych podstronach, jak np. zmiana meta tytułów i opisów aby były one bardziej atrakcyjne dla internautów, możecie znacząco zwiększyć CTR.

6.    Usuń adresy URL

Jest to bardzo przydatna funkcja, która umożliwia ręczne usunięcie konkretnego adresu URL naszego serwisu z wyników wyszukiwania. Często może zajść sytuacja, w której Google zaindeksuje niechcianą przez nas podstronę, wtedy w kilka chwil korzystając właśnie tej opcji możemy ją usunąć. Jeśli nie chcemy, żeby usunięty adres ponownie pojawił się w Google, należy zablokować robotom do niego dostęp poprzez plik robots.txt lub poprzez dodanie odpowiedniego kodu na stronie.

 

7.    Site Speed

Google przywiązuje również sporą wagę do szybkości ładowania się naszych serwisów.  Jest to kwestia, na którą powinien zwrócić uwagę każdy webmaster. Aby uzyskać informacje o szybkości ładowania się serwisu należy w „Laboratorium” wybrać opcję „Wydajność witryny”. Analiza uzyskanych informacji pozwoli Wam określić, czy dany serwis potrzebuje optymalizacji, która będzie prowadzić do skrócenia czasu ładowania.

Dla wszystkich zainteresowanych tematem poprawiania szybkości ładowania się witryny, sugeruję zapoznanie się z dodatkiem Page Speed, który podsunie Wam propozycję zmian oraz z modułem Apache (mode_pagespeed), który automatycznie optymalizuje stronę i jej źródła.


8.    Profil linków

Dochodzimy tym samym do jednego z najbardziej popularnych ostatnimi czasy tematów, a mianowicie do linków zewnętrznych. Po wprowadzeniu aktualizacji algorytmu wyszukiwania o nazwie Pingwin, która ma za zadanie karać serwisy, do których prowadzą nienaturalne odnośniki, wielu webmasterów zabrało się za analizę profili linków. Również w tym wypadku Google Webmaster Tools wydaje się bardzo pomocny.

W kategorii „Ruch”, a dalej „Linki do Twojej witryny” znajdziecie kilka wartościowych danych. Między innymi: listę anchor tekstów linków zewnętrznych, listę linkujących domen oraz podstrony w Waszych serwisach najczęściej wskazywane przez odnośniki zewnętrzne.

Do krótkiej analizy wykorzystam dane serwisu z ogłoszeniami http://www.morusek.pl.


W celu bardziej szczegółowej analizy pobierzcie listę linkujących domen. W kilka sekund otrzymacie przejrzyste zestawienie w Excelu.


Do dalszej analizy polecam Wam dwa dodatki do Excela, których używam na co dzień w Bluerank, a mianowicie: SEO Tools for Excel oraz SEOmoz Mozscape Add-In For Excel. Są to doskonałe narzędzia, które pozwolą Wam zaoszczędzić wiele godzin pracy.

W poniższym przykładzie wykorzystałem drugi dodatek, który możecie pobrać tutaj. Po szybkiej instalacji wystarczy otworzyć plik z pobraną wcześniej listą linków. Następnie zaznaczyć adresy, które chcemy poddać analizie, kliknąć prawym przyciskiem myszy i wybrać opcję Run Mozscape on Selection.


W przypadku wyboru dużej liczby adresów będziecie musieli troszkę poczekać. Mozscape API ma limit 1 zapytania na 10 sekund. Robiąc szybką kalkulację w przypadku 500 adresów będziecie musieli czekać około 1,5 godziny.

Po rozpoczęciu analizy w pliku utworzy się nowa zakładka o nazwie Mozscape, w której będzie dostępne całościowe zestawienie.



W moim przypadku dalszej analizie poddałem Domain Authority linkujących domen. Porównując jakość źródeł odnośników prowadzących do serwisu morusek.pl z  serwisem linkowanym z SWL’i.
 


Z przeprowadzonej analizy można wywnioskować, iż jakość źródeł linków prowadzących do serwisu morusek.pl jest zdecydowanie lepsza niż przykładowego serwisu linkowanego z SWL’i. Profil naszego serwisu ma mniejszą ilość odnośników prowadzących ze stron o niskiej jakości (Domain Authority 0-30) oraz większą ilość odnośników ze stron o wyższej jakości (Domain Authority >30). Jeśli w przypadku Waszych serwisów zdecydowana większość odnośników pochodzi ze stron z Domain Authority 0-30 oznacza to, iż musicie popracować nad pozyskaniem linków z lepszych źródeł.

Jak widać Narzędzia Google dla webmasterów to naprawdę świetne rozwiązanie. Posiadają wiele funkcji, które mogą pomóc Wam w analizowaniu serwisów oraz w poprawie ich jakości. Mam nadzieję, że chociaż trochę przekonałem tych, którzy nie używają GWT, aby zmienili swoje podejście do tego narzędzia.

--
Mateusz Rzetecki, Junior SEO Specialist w Bluerank