31 października 2012

Google Tag Manager - wstęp do narzędzia

Na początku października Google wypuścił kolejnynowy produkt: Google Tag Manager (GTM), darmowe narzędzie ułatwiające zarządzanie tagami i śledzenie zachowań użytkowników na stronach internetowych. Tradycyjnie, jak w przypadku podobnych ruchów Google, powstało przy tym trochę zamieszania. Chciałbym więc na początku pokrótce wyjaśnić, na czym polega tag management i dlaczego może być skutecznym narzędziem w rękach marketerów i analityków.

Czym są systemy tag management?

Systemy tag management umożliwiają dokonywanie zmian tagów obecnych w kodzie strony bez konieczności bezpośredniego edytowania tego kodu. W praktyce oznacza to oszczędność czasu i zasobów - marketerzy mogą bowiem kontrolować interesujące ich elementy kodu bez konieczności kontaktowania się z webmasterem. W ten sposób można zaimplementować nowy kod konwersji AdWords lub zmianę kodu Analytics w przeciągu kilku minut. Chirurgia nieinwazyjna. Życie staje się prostsze, prawda?


W badaniu przeprowadzonym przez  Forrestera w sierpniu 2012, aż 80% użytkowników potwierdziło, że wdrażanie i uaktualnianie tagów marketingowych za pomocą systemów tag management zajmuje im nie dłużej niż dzień, zaś niemal 50% wymieniło niezależność od programistów/webmasterów, jako jedną z najważniejszych zalet.

Google Tag Manager, czyli demokratyzacja zarządzania tagami

Na rynku produktów tag management dotychczas funkcjonowało kilku graczy, oferujących odpłatne narzędzia do zarządzania tagami. Już na pierwszy rzut oka widzimy sprawdzony zabieg Google: udostępnienie za darmo tego, za co inni żądają pieniędzy. We wspomnianym badaniu Forrestera prawie 40% użytkowników wymienia cenę, jako kluczowy czynnik przy wyborze systemu tag management. Wydaje się więc, że Google dobrze wpasował się w klimat rynku.

“Demokratyzacji” zarządzania tagami sprzyja też względna prostota w obsłudze oraz elastyczność GTM. W czym więc może nam pomóc nowe narzędzie od Google?


Poza standardowymi szablonami tagów Google (Analytics, Adwords, Doubleclick), GTM obsługuje także niestandardowe tagi HTML. Daje to możliwość modyfikacji kodów Google, oraz zastosowania innych tagów.

Jako jedną z zalet Google wymienia szybkość ładowania tagów: wszystkie bowiem ładowane są w sposób asynchroniczny. Nasze testy potwierdzają te dane: testowany tag GTM był w pełni załadowany ok 30 ms szybciej niż tag GA na tej samej stronie:


Praktyczną funkcją jest też narzędzie testujące implementację GTM w środowisku sandbox. W ten sposób można uniknąć błędów przed publikacją nowych tagów. W tym samym kontekście, GTM automatycznie wykrywa błędy w składni tagów niestandardowych.

Jak już wspomnieliśmy, GTM nie jest skomplikowanym narzędziem. Pomimo to, zastosowanie niestandardowych rozwiązań wymaga znajomości produktu i niekiedy - przy niezbyt kompletnej dokumentacji - doświadczenia. O standardowej i niestandardowej implementacji napiszemy w kolejnych postach.

Czy Google Tag Manager to narzędzie dla Twojej organizacji?

Jeśli:
  • często uaktualniasz lub wprowadzasz nowe tagi na strony swojej organizacji lub klientów,
  • proces implementacji tagów przez I.T./web development wydłuża się w czasie,
  • chciałbyś mieć możliwość edycji tagów podczas walidacji nowych implementacji,
  • nie posiadasz budżetu na inwestycje w kolejne narzędzia,

wówczas Google Tag Manager jest dla Twojej organizacji dobrym rozwiązaniem. Wkrótce napiszemy o szczegółach implementacji oraz naszych eksperymentach z GTM. W międzyczasie zapraszamy do obejrzenia wideo przedstawiającego narzędzie.

--
Florian Pertyński, Web Analyst w Bluerank

26 października 2012

Niedoceniony potencjał w wyszukiwaniu grafik

Od samego początku wśród podstawowych wytycznych SEO dotyczących optymalizacji serwisu pojawiały się kwestie związane z optymalizacją grafik. W checklistach audytów SEO kwestie takie jak teksty alternatywne dla obrazków lub właściwie skonstruowane nazwy plików zdjęć pojawiają się obok rekomendacji odnośnie zmian w meta tagach, opisach, nagłówkach oraz podstawowych technicznych zagadnień SEO.

Mam jednak wrażenie, że grafiki były i są często traktowane raczej jako uzupełnienie bardziej istotnych zagadnień technicznych, a ich optymalizacja nie jest związana z żadnym konkretnym celem czy strategią działań. Taką sytuację pogłębia fakt, że Google rzadko kiedy nawiązuje do wyszukiwania grafik w informacjach prasowych czy na blogu dla webmasterów, a w Google Analytics nie ma domyślnego raportu śledzenia ruchu z grafik. Ponadto, temat ten rzadko kiedy pojawia się na konferencjach branżowych i w artykułach eksperckich. Postanowiliśmy więc to zmienić.

Tekst, który czytasz, jest pierwszym z cyklu artykułów poświęconych wyszukiwaniu grafik. W tym materiale oraz w kolejnych artykułach pokażemy, jak mierzyć potencjał wyszukiwania grafik, jaka jest jakość ruchu pochodzącego z obrazków i co zrobić, aby uzyskać jak najwięcej użytkowników korzystając Google Image Search.

Podstawy wyszukiwania obrazów

Wyszukiwarka grafik dostępna jest z poziomego menu na górze strony wyników wyszukiwania Google. Po wejściu w wyszukiwarkę i wpisaniu frazy otrzymujemy listę kilkuset grafik odpowiadających danemu zapytaniu.


W przypadku niektórych tematów, do wyszukiwarki grafik można też dojść poprzez wyniki grafik wyświetlane w ramach wyników organicznych. Są tam pokazywane pierwsze cztery lub pierwsze pięć zdjęć, które odpowiadają zapytaniu (w zależności od proporcji obrazków).


Oprócz przeglądania otrzymanych wyników, użytkownik ma też możliwość skorzystania z dodatkowych opcji filtrowania grafik – według świeżości, rozmiarów, kolorów i typów. Warto jednak zauważyć, że Google prawdopodobnie będzie w przyszłości zmniejszał wagę tych filtrów, na co wskazuje wygląd wyników wyszukiwania w amerykańskiej wersji Google (brak filtrów po lewej stronie):


Potencjał wyszukiwania grafik

Niestety brakuje oficjalnych danych na temat wykorzystywania potencjału wyszukiwarki grafik. Sporo można jednak wywnioskować poprzez dane pochodzące z narzędzi Google dla webmasterów.

Są frazy, które domyślnie kojarzą się z grafikami, takie jak np. inspiracje i pomysły na wnętrza, dekoracje, ogrody, rasy psów, kotów, itp. W przypadku takich fraz udział odsłon pierwszych stron wyników wyszukiwania grafik osiąga aż 40 - 60% wartości liczby odsłon pierwszych stron wyników organicznych. Może to oznaczać, że liczba użytkowników korzystających z wyszukiwania grafik jest tylko o połowę mniejsza niż liczba użytkowników korzystających ze standardowej wyszukiwarki.

Przykład dla frazy „dog niemiecki”. Serwis www.psy.elk.pl osiąga według narzędzia Google dla webmasterów 10 000 odsłon miesięcznie, dla pierwszej strony organicznych wyników wyszukiwania. Dla wyszukiwania grafik liczba odsłon osiąga 75 000, jednak w pierwszej setce wyników wyszukiwania dostępnych jest aż 15 zdjęć. Można więc przypuszczać, że pierwsza część wyników wyszukiwania grafik jest oglądana: 75 000 / 15 = 5 000 razy (50% wartości dla organica).

Wartości te potwierdzają statystyki ruchu raportowanego w narzędziach Google dla webmasterów lub dane wynikającego ze śledzenia ruchu w Google Analytics (oba zagadnienia zostaną opisane w kolejnych artykułach). Według tych danych, w przypadku serwisów dobrze zoptymalizowanych pod kątem grafik i zagadnień związanych ze zdjęciami, liczba wizyt wynikająca z wyszukiwania grafik może stanowić od 20 do nawet 60% liczby wszystkich wizyt z wyszukiwarki Google.

Śledzenie ilości wizyt z wyszukiwania grafik

Poniżej prezentujemy przykład zmodyfikowanego śledzenia ilości wizyt z wyszukiwania grafik dla serwisu z aranżacjami wnętrz (www.inspireme.pl) – liczba wizyt z grafik przewyższa liczbę wizyt organicznych:


Statystyki kliknięć dla InspireMe.pl według narzędzi Google dla webmasterów dla wyszukiwania grafik (po lewej) i wyników organicznych (po prawej).


   
O tym czy wyszukiwanie grafik jest popularne w danej tematyce może świadczyć fakt obecności zdjęć w organicznych wynikach wyszukiwania. Możemy również przypuszczać, że im wyżej są te zdjęcia na stronie wyników wyszukiwania, tym bardziej jest w tym przypadku popularne wyszukiwanie grafik. Z drugiej strony im wyżej zdjęcia pojawiają się w wynikach wyszukiwania organicznego, tym więcej użytkowników może chcieć z nich skorzystać i przejrzeć więcej wyników dla grafik.

Tak czy inaczej, grafiki mogą być bardzo popularnym sposobem wyszukiwania zasobów przez użytkowników zainteresowanych konkretną tematyką, a ruch wygenerowany dzięki Google Image Search może mieć wysoki udział w odniesieniu do całego poziomu ruchu w serwisie. Warto więc zwrócić więcej uwagi na kwestie optymalizacji obrazków, a także monitorować widoczność serwisu w wynikach wyszukiwania grafik.

W kolejnym artykule przedstawimy podstawowe sposoby mierzenia popularności Google Image Search – przy pomocy narzędzi Google dla webmasterów oraz Google Trends.

--
Jacek Tkaczuk, SEO Director w Bluerank

19 października 2012

Narzędzia Google dla webmasterów – dlaczego warto ich używać?

Google cały czas udoskonala swoje narzędzia, które posiadają coraz więcej naprawdę przydatnych funkcji. Tak też dzieje się z Narzędziami Google dla webmasterów (Google Webmaster Tools - w skrócie GWT), które bardzo często bywają przez nich niedoceniane.

GWT dla każdego webmastera powinno być głównym źródłem informacji o stanie jego serwisów. Ostatnie zmiany w algorytmie wyszukiwarki Google zmuszają nas do ciągłego monitorowania wszelkich aspektów związanych z naszymi serwisami, w tym: błędów technicznych, nienaturalnych linków czy też duplikacji treści w obrębie serwisu.

Jak skutecznie wykorzystać Narzędzia Google dla webmasterów do analizy swojego serwisu?

Po pierwsze, jeśli jeszcze nie dodaliście swoich domen do tego narzędzia sugeruję zrobić to teraz - link!

Żeby rozpocząć pracę z GWT musicie najpierw zweryfikować siebie, jako właściciela domeny. Można to zrobić na różne sposoby, poprzez swoje konto Google Analytics (jeśli podpięta jest do niego wasza domena), wgranie odpowiedniego pliku na serwer FTP lub dodanie linii kodu do strony.

Jeśli wykonaliście wszystkie kroki poprawnie, możemy zacząć!

1.    Wiadomości

Jest to obecnie jedyna metoda komunikowania przez Google ewentualnych problemów na jakie natrafiają roboty wyszukiwarki analizując nasze serwisy. W dobie ostatnich zmian algorytmu, Google rozsyła do webmasterów coraz bardziej szczegółowe wiadomości. Informuje nas np. o nienaturalnych linkach prowadzących do naszego serwisu, problemach z indeksowaniem, dużych zmianach w poziomie ruchu, które mogą być wynikiem problemów z naszym serwisem.


2.    Linki witryny

W przypadku linków witryny częściej spotkacie się określeniem Sitelinks. Opcja ta umożliwia nam dodanie w niektórych wynikach wyszukiwania Google linków do podstron naszego serwisu. Rozwiązanie to ma pomóc internautom, czyli oszczędzając ich czas umożliwić im szybkie znalezienie poszukiwanych informacji. Więcej szczegółów o linkach witryny znajdziecie tutaj.




Ciekawostka: Od jakiegoś czasu dla zapytań prezentujących linki witryny, na pierwszej stronie wyników wyszukiwania znajduje się tylko 7 stron Google SERP Dumps 5.5% of Organic First Page Listings.

3.    Błędy indeksowania

W tej części znajdziecie informacje o stronach, które z różnych przyczyn nie mogły zostać odwiedzone przez roboty wyszukiwarki. Znajdziecie tu podział na kilka rodzajów błędów, jednak z punktu widzenia SEO najistotniejszymi będą te oznaczone jako: Nie znaleziono.

Błędy te oznaczają, iż robot Google odwiedzając daną podstronę w Waszym serwisie otrzymał błąd 404. Powodem tego może być błędny link lub nieistniejąca strona.



Poniżej wykresu znajdziecie dokładny spis wszystkich błędów, będziecie mogli również pobrać je wszystkie na dysk i zapisać w Excelu, żeby dokonać dokładniejszej analizy. Dodatkowo w GWT klikając na dowolny link z listy otrzymacie pop-up, który zawiera szczegółowe informacje na temat każdego odnośnika.

 

Czemu warto poprawić błędy 404 w swojej witrynie?

Bardzo często nieistniejące strony (takie jak np. ogłoszenia, które wygasły) posiadają już linki pozycjonujące mogące mieć wpływ na ranking naszego serwisu. Dobrze więc, jeśli w takich przypadkach dokonamy przekierowania 301 takich stron na inne, powiązane tematycznie strony lub kategorie.

4.    Duplikacja treści

Google nieustannie dąży do zwiększenia jakości wyników wyszukiwania. Dlatego też bardzo istotne jest dzisiaj zadbanie o to, aby w naszym serwisie nie występowała duplikacja treści oraz by nie pojawiały się w nim podstrony niskiej jakości, które nie mają żadnej wartości dla internautów. Indeksacja zduplikowanych podstron oraz tych niskiej jakości może mieć negatywny wpływ na rankingi pozostałych. Wszystko to za sprawą aktualizacji algorytmu wyszukiwania o nazwie Panda.

Jak znaleźć strony ze zduplikowaną treścią?

Najlepszym miejscem aby rozpocząć pracę nad duplikacją treści jest kategoria „Optymalizacja” „Udoskonalenia HTML”. Znajdziecie tu informacje o wystąpieniach podwójnych meta tytułów oraz meta opisów. Zapoznajcie się ze szczegółami, żeby wyszukać potencjalne adresy ze zduplikowaną treścią. Oprócz duplikacji meta danych, znajdziecie tu również informacje o zbyt długich opisach i tytułach lub o ich braku.



5.    Wyszukiwane hasła

Kolejnym miejscem, które ze względu na wartość SEO powinno być często przez Was odwiedzane, jest zakładka ”Wyszukiwane hasła” w kategorii „Ruch”.

Prezentowane są tutaj statystyki słów kluczowych, które przekierowały internautów do Waszego serwisu. Średnia pozycja fraz, ich CTR, liczba wyświetleń oraz kliknięć.

Sortując słowa kluczowe wedle średniej pozycji możecie zobaczyć, które z fraz znajdują się na pierwszej stronie wyników wyszukiwania, a które nie. Niekiedy dla haseł znajdujących się blisko top 10 wystarczą małe zmiany na stronie (on-page optimization) lub kilka linków, aby zdecydowanie poprawić ranking w SERP i przyciągnąć tym samym więcej kliknięć.


Osobiście polecam Wam również zapoznać się ze statystykami po uwzględnieniu zmian (zakładka: Ze zmianami). Jest do niedoceniana przez wielu webmasterów funkcja, która pozwala na odnalezienie naprawdę wartościowych słów kluczowych. Dzięki analizie zmian będziecie w stanie określić, które ze słów kluczowych w przeciągu ostatnich 30 dni cieszyły się największym wzrostem zainteresowania. Poprzez zmianę treści na konkretnych podstronach, jak np. zmiana meta tytułów i opisów aby były one bardziej atrakcyjne dla internautów, możecie znacząco zwiększyć CTR.

6.    Usuń adresy URL

Jest to bardzo przydatna funkcja, która umożliwia ręczne usunięcie konkretnego adresu URL naszego serwisu z wyników wyszukiwania. Często może zajść sytuacja, w której Google zaindeksuje niechcianą przez nas podstronę, wtedy w kilka chwil korzystając właśnie tej opcji możemy ją usunąć. Jeśli nie chcemy, żeby usunięty adres ponownie pojawił się w Google, należy zablokować robotom do niego dostęp poprzez plik robots.txt lub poprzez dodanie odpowiedniego kodu na stronie.

 

7.    Site Speed

Google przywiązuje również sporą wagę do szybkości ładowania się naszych serwisów.  Jest to kwestia, na którą powinien zwrócić uwagę każdy webmaster. Aby uzyskać informacje o szybkości ładowania się serwisu należy w „Laboratorium” wybrać opcję „Wydajność witryny”. Analiza uzyskanych informacji pozwoli Wam określić, czy dany serwis potrzebuje optymalizacji, która będzie prowadzić do skrócenia czasu ładowania.

Dla wszystkich zainteresowanych tematem poprawiania szybkości ładowania się witryny, sugeruję zapoznanie się z dodatkiem Page Speed, który podsunie Wam propozycję zmian oraz z modułem Apache (mode_pagespeed), który automatycznie optymalizuje stronę i jej źródła.


8.    Profil linków

Dochodzimy tym samym do jednego z najbardziej popularnych ostatnimi czasy tematów, a mianowicie do linków zewnętrznych. Po wprowadzeniu aktualizacji algorytmu wyszukiwania o nazwie Pingwin, która ma za zadanie karać serwisy, do których prowadzą nienaturalne odnośniki, wielu webmasterów zabrało się za analizę profili linków. Również w tym wypadku Google Webmaster Tools wydaje się bardzo pomocny.

W kategorii „Ruch”, a dalej „Linki do Twojej witryny” znajdziecie kilka wartościowych danych. Między innymi: listę anchor tekstów linków zewnętrznych, listę linkujących domen oraz podstrony w Waszych serwisach najczęściej wskazywane przez odnośniki zewnętrzne.

Do krótkiej analizy wykorzystam dane serwisu z ogłoszeniami http://www.morusek.pl.


W celu bardziej szczegółowej analizy pobierzcie listę linkujących domen. W kilka sekund otrzymacie przejrzyste zestawienie w Excelu.


Do dalszej analizy polecam Wam dwa dodatki do Excela, których używam na co dzień w Bluerank, a mianowicie: SEO Tools for Excel oraz SEOmoz Mozscape Add-In For Excel. Są to doskonałe narzędzia, które pozwolą Wam zaoszczędzić wiele godzin pracy.

W poniższym przykładzie wykorzystałem drugi dodatek, który możecie pobrać tutaj. Po szybkiej instalacji wystarczy otworzyć plik z pobraną wcześniej listą linków. Następnie zaznaczyć adresy, które chcemy poddać analizie, kliknąć prawym przyciskiem myszy i wybrać opcję Run Mozscape on Selection.


W przypadku wyboru dużej liczby adresów będziecie musieli troszkę poczekać. Mozscape API ma limit 1 zapytania na 10 sekund. Robiąc szybką kalkulację w przypadku 500 adresów będziecie musieli czekać około 1,5 godziny.

Po rozpoczęciu analizy w pliku utworzy się nowa zakładka o nazwie Mozscape, w której będzie dostępne całościowe zestawienie.



W moim przypadku dalszej analizie poddałem Domain Authority linkujących domen. Porównując jakość źródeł odnośników prowadzących do serwisu morusek.pl z  serwisem linkowanym z SWL’i.
 


Z przeprowadzonej analizy można wywnioskować, iż jakość źródeł linków prowadzących do serwisu morusek.pl jest zdecydowanie lepsza niż przykładowego serwisu linkowanego z SWL’i. Profil naszego serwisu ma mniejszą ilość odnośników prowadzących ze stron o niskiej jakości (Domain Authority 0-30) oraz większą ilość odnośników ze stron o wyższej jakości (Domain Authority >30). Jeśli w przypadku Waszych serwisów zdecydowana większość odnośników pochodzi ze stron z Domain Authority 0-30 oznacza to, iż musicie popracować nad pozyskaniem linków z lepszych źródeł.

Jak widać Narzędzia Google dla webmasterów to naprawdę świetne rozwiązanie. Posiadają wiele funkcji, które mogą pomóc Wam w analizowaniu serwisów oraz w poprawie ich jakości. Mam nadzieję, że chociaż trochę przekonałem tych, którzy nie używają GWT, aby zmienili swoje podejście do tego narzędzia.

--
Mateusz Rzetecki, Junior SEO Specialist w Bluerank

18 października 2012

Google Tag Assistant dla Chrome

Dotychczas sprawdzanie istniejących tagów Google na stronach internetowych oznaczało przeszukiwanie kodu źródłowego. Nie jest to zadanie wdzięczne: tagi mogą być rozmieszczone w różnych częściach strony, niekiedy w zmodyfikowanej postaci. Aby ułatwić weryfikację istniejących tagów Google udostępnił rozszerzenie dla Chrome: Google Tag Assistant

Nowe rozszerzenie wyświetla listę tagów (wraz ze szczegółami) oraz weryfikuje poprawność implementacji.


Jeśli tagi zawierają błędy lub zaimplementowane są w sposób niestandardowy, Google Tag Assistant wyświetli problem oraz zasugeruje rozwiązanie.

Tag Assistant potrafi rozpoznać: tagi Google Analytics, Adwords Conversion Tracking, Google Tag Manager, Display Network Remarketing, DoubleClick Floodlight.

Tag Assistant nie umie rozpoznać: zmiennych niestandardowych GA, zdarzeń GA, szczegółów implementacji (takich jak metodyGA) i innych elementów nie będących tagami.

Podsumowując, choć narzędzie nie oferuje wglądu w szczegóły implementacji, pozwala na szybką lokalizację tagów oraz prostą weryfikację implementacji. Poza tym, na liście sugestii Google zawsze znajduje się niejako reklama ich nowego produktu: Google Tag Manager, który od jakiegoś czasu testujemy. Ale o tym w kolejnych wpisach.



--
Florian Pertyński, Web Analyst

3 października 2012

Zwiększ sprzedaż w oparciu o SEO - eCommerce Standard 2012


Podczas konferencji eCommerce Standard 2012 Rafał Wosztyl (DOZ.pl) i Tomasz Sąsiadek (Bluerank) zaprezentowali temat "Budowanie wizerunku i wzrostu sprzedaży w oparciu o potencjał wyszukiwania na przykładzie kampanii SEO dla doz.pl".

Pełną prezentację z tego wystąpienia możecie zobaczyć poniżej:





Wnioski: 

Działania SEO prowadzone są często dla ograniczonej liczby najbardziej popularnych i oczywistych fraz. Tymczasem wyjście poza utarty schemat i wykorzystanie całego potencjału wyszukiwania oparte o wnikliwą analizę danych, potrafi dać bardzo dobre wyniki. Świadczy o tym kampania zrealizowana przez Bluerank dla portalu Dbam o Zdrowie - DOZ.pl. Skuteczność przygotowanej strategii działań i osiągnięty efekt biznesowy zostały docenione nominacją do European Search Awards w kategorii “Best SEO campaign”.

--
Redakcja