14 grudnia 2011

Copywriting dla stron sprzedażowych

Zbliża się Boże Narodzenie. Prawdopodobnie znów duża część prezentów gwiazdkowych jest nabywana drogą elektroniczną. Jedne produkty sprzedają się lepiej, inne trochę słabiej. Wpływ na ten fakt może mieć wiele czynników - prezentacja produktu, konstrukcja kampanii reklamowej, cena, jak również tekst zamieszczony na stronie prezentującej produkt. Dziś przypomnimy najważniejsze zasady skutecznego copywritingu, które warto zastosować podczas tworzenia stron produktowych.

1. Zadbaj o unikalny opis produktu

Łatwo jest ulec pokusie przeklejenia opisu przygotowanego przez producenta. Wystarczy kilka kliknięć myszką i mamy gotowy tekst na stronę. Jeszcze łatwiej zaciągnąć wszystkie dane hurtem poprzez np. pliki xml. Choć rozwiązanie jest szybkie, nie jest niestety pozbawione wad. Ten sam tekst znajdziemy na setkach innych stron, w związku z tym dla Google jest to klasyczna duplikacja treści. Tekst tego typu nie ma wartości SEO.

Ponadto, tekst poprawnie przygotowywany pod kątem technicznym i stylistycznym, może reprezentować niską wartość sprzedażową. Innymi słowy, nie przekona użytkownika, że jest to produkt właśnie dla niego.

2. Pamiętaj o słowach kluczowych

Stworzenie unikalnego opisu pozwoli lepiej zoptymalizować jego treść pod wyszukiwarki, co może pomóc w pozycjonowaniu strony poprzez tzw. długi ogon (np. pełna nazwa produktu lub jego specyfikacja). Nowy opis można również nasycić słowami kluczowymi, które dostarczą wyszukiwarce więcej istotnych informacji o produkcie lub będą istotne dla całej kategorii tego typu produktów. W tym miejscu nie zapominajmy o meta tagach – pełna nazwa produktu powinna obowiązkowo pojawić się w tytule strony.

3. Wykorzystaj szablony treści

Gdy mamy wiele podobnych produktów i brak możliwości ich indywidualnego opisania, warto pokusić się o stworzenie zoptymalizowanych pod słowa kluczowe szablonów treści, w których podmieniać się będą cechy charakterystyczne dla danego modelu (np. kolor, cena, specyfikacja, akcesoria). Szablony można stosować zarówno do tekstu na WWW, jak i meta tagów. Tym sposobem chociaż trochę zróżnicujemy opisy produktów.

Jeszcze korzystniejszym rozwiązaniem będzie zmiksowanie naszego szablonu z opisami dostarczonymi przez producenta. W ten sposób zyskamy unikalny tekst ogólny oraz opis zduplikowany, lecz lepiej merytorycznie dostosowany do specyfiki produktu.

4. Pamiętaj dla kogo piszesz

Czytelnik powinien mieć wrażenie, że dobrze znasz produkt, używasz go i właśnie dlatego polecasz go innym. Suche techniczne opisy zadziałają, ale tylko na pewną specyficzną grupę klientów. Dostosuj język i przekaz do odbiorcy, jeśli nie jest to konieczne nie zalewaj go branżowym żargonem.

5. Jedno proste przesłanie dla strony

Zastosuj język korzyści, skupiając się na najważniejszej z nich. Korzyść to efekt działania produktu i jednocześnie powód, dla którego klient zdecyduje się na dokonanie zakupu. Choć możesz dostarczyć mu multum informacji, w pierwszej kolejności skup się na tym, co z jego perspektywy będzie najistotniejsze.

6. Poprzyj korzyść dowodem

Nie możesz pozwolić sobie na składanie pustych obietnic. Choć w Internecie często trzeba uwierzyć komuś na słowo, w sprzedaży online ciągle wygrywają Ci, którzy potrafią udowodnić swoje obietnice. Pokaż w akcji swój produkt, zaprezentuj jak działa, udowodnij jego skuteczność. Możesz opublikować listę i opinie zadowolonych klientów. Ważne, by produkt stał się dla odbiorcy komunikatu rzeczywisty i potrzebny.

7. Pamiętaj o CTA

Call To Action, czyli wezwij odbiorcę do konkretnego, pożądanego działania. Nie utrudniaj mu sprawy, tylko przedstaw czego realnie od niego oczekujesz. Zadbaj o to, by przycisk zamówienia był widoczny, by się nie pojawiał się niepotrzebnie w wielu miejscach. Jeśli korzyść została wyeksponowana, a produkt dobrze zaprezentowany, użytkownik sam będzie szukał możliwości dokonania zamówienia.

8. Zadbaj o właściwą wizualną prezentację produktu

Choć tekst poświęcony jest głównie copywritingowi, nie można zapomnieć o właściwej prezentacji produktu oraz o odpowiednim formatowaniu treści. Tekst powinien być przyjazny dla oczu, złożony z kilku akapitów, dobrze gdy można skanować go wzrokiem. Powinien zawierać śródtytuły, pogrubienia oraz wypunktowania dla najważniejszych informacji. W prezentacji produktu na pewno pomogą grafiki i zdjęcia. Wizualna wartość strony ma bardzo duży wpływ na sprzedaż. Specyfikację techniczną można umieścić w ramce.

9. Im wyższa cena, tym lepsze copy

Im droższy produkt chce się sprzedać, tym bardziej trzeba napracować się nad dobrym tekstem, który go zareklamuje. Pamiętajmy też, by mimo wszystko unikać nadmiaru treści. Przekaz powinien być czytelny i zawierać najważniejsze korzyści i… słowa kluczowe :)

10. “If it doesn't sell, it isn't creative.” David Ogilvy

Kreatywność oraz pomysłowość są ważne. Dzięki nim zwrócimy uwagę klienta, zainteresujemy go i zatrzymamy dłużej na stronie, jednak to sprzedażowe oraz perswazyjne aspekty treści sprawią, że kupi on produkt. Warto o tym pamiętać i wciąż udoskonalać swoje teksty pod tym kątem.

Oczywiście zdajemy sobie sprawę, że prowadząc sklep internetowy przygotowanie optymalnych tekstów dla wszystkich produktów, które posiadamy w asortymencie jest trudne do zrealizowania. Może na początku warto przygotować więc nowe teksty dla najpopularniejszych lub najdroższych produktów, by jeszcze mocniej podnieść sprzedaż. Poprzez  dobre copy można też selektywnie promować te produkty, na których sprzedaży zależy nam w danym momencie najbardziej lub które mają największy potencjał. Gdy produktów nie jest dużo, nic nas nie usprawiedliwia teksty, które będą skutecznie sprzedawać muszą być zredagowane ;)

--
Szymon Pietkiewicz
Aneta Mitko

6 grudnia 2011

Praktyki w dziale IT Bluerank

Po raz kolejny zapraszamy studentów kierunków informatycznych na staż w dziale IT Bluerank.

Osoby, które uzyskają najlepsze oceny opiekuna praktyk, mają szansę na stałą współpracę z naszą agencją.

Więcej informacji znajdziecie pod adresem:
http://www.bluerank.pl/praca/praktyki-w-dziale-it

Na zgłoszenia czekamy do końca roku.

--
Aneta Mitko

25 listopada 2011

Konkursy, jako metoda na pozyskanie wartościowych linków

W naszym ostatnim wpisie „Białe zaplecze? Cały Internet!” mogliście przeczytać o dość ciekawej metodzie na pozyskanie odnośników do Waszych stron. Dzisiaj chcielibyśmy przedstawić kolejny sposób na zdobycie wartościowych linków. Metoda, oprócz dużych możliwości w link buildingu, ma również inne zalety, jakimi są np. promocja i zwiększenie świadomości marki wśród internautów.

Konkursy, bo o nich tu mowa, to doskonały sposób na pozyskanie odnośników z wielu tematycznych stron internetowych, a także na zgromadzenie pokaźnej bazy maili, którą będziecie mogli wykorzystać w przyszłości przy promocji Waszej oferty lub kolejnych konkursów. 

O czym trzeba pamiętać?

Nagrody to główny element, który skłania internautów do wzięcia udziału w zabawie. Jeżeli Wasz budżet nie pozwala na zafundowanie drogiej nagrody, dobrym sposobem będzie nawiązanie współpracy np. z serwisami, blogerami, czy firmami powiązanymi z Waszą branżą. Dajcie im znać o swoim konkursie i zaoferujcie im np. umieszczenie ich linka lub banera wśród sponsorów konkursu, w zamian za pokrycie części lub całości kosztów nagrody. Często dzięki takim działaniom nawiążecie kontakty, które będą owocowały w późniejszej współpracy.

Poinformuj innych o swoim konkursie

Każdy chyba zdaje sobie sprawę, że to uczestnicy konkursu w głównej mierze decydują o jego powodzeniu, dlatego nie możecie zapomnieć o wcześniejszej promocji przedsięwzięcia wśród internautów. Jeśli forma Waszej działalności na to pozwala, postarajcie się nawiązać współpracę z innymi stronami, serwisami, blogami z branży. Kolejną, a zarazem bardzo dobrą metodą promocji konkursów w Sieci, są serwisy grupujące wszelkiego rodzaju promocje i zabawy. Niestety, w rodzimym Internecie serwisy te nie osiągnęły zbyt dużej popularności, dlatego warto poświęcić trochę czasu i postarać się wyszukać ich jak najwięcej. Poniżej zamieszczamy przykłady portali tego typu:

•    http://www.huntersi.pl
•    http://www.sledzimykonkursy.pl
•    http://darmowe-konkursy.pl

Idealnymi uczestnikami zabawy będą również Wasi dotychczasowi użytkownicy, dlatego nie zapomnijcie o poinformowaniu ich o konkursie za pomocą odpowiednio skonstruowanego maila lub w przypadku forów np. prywatnej wiadomości. Kolejne miejsca, o których nie można zapomnieć podczas promocji swojego konkursu to mikroblogi np. Twitter, Blip, Flaker, itp. oraz portale społecznościowe np. NK, Facebook, Google+. Serwisy te mają ogromne możliwości jeśli chodzi o szybkie rozpowszechnianie się informacji w Internecie oraz pozyskiwanie odnośników do waszej strony, ale tego na pewno nie musimy tłumaczyć ;)

Jeżeli macie taką możliwość stwórzcie kilkudziesięciosekundowy filmik informujący o Waszym konkursie, jego zasadach i nagrodach. Jeśli jeszcze nie posiadacie konta w serwisie YouTube oraz w innych portalach pozwalających na prezentację krótkich filmów wideo, koniecznie je załóżcie. Serwisy te, to idealne miejsce na rozpowszechnienie waszego materiału. Dzięki łatwości w kopiowaniu filmów z takich portali, w bardzo szybkim czasie o waszym konkursie może usłyszeć duża liczba internautów. Dodatkowo, każde umieszczenie wideo na zewnętrznych stronach, to dodatkowy link do Waszego profilu, który powinien zawierać odnośniki do Waszej strony. Im atrakcyjniejszy materiał wideo, tym większa szansa na jego popularyzację online.

E-mail zgłoszeniowy

Aby pozyskać jeszcze więcej linków, spróbujcie namówić do ich zdobywania samych uczestników, poprzez krótki mail zgłoszeniowy np.:


Gwarancja pozyskania odnośnika

Możecie również zorganizować konkurs, w którym poprzez odpowiednio skonstruowany regulamin, od każdego uczestnika będziecie wymagać umieszczenia linków do Waszej strony. Niestety, nie we wszystkich przypadkach można sobie na to pozwolić. Jeżeli zadaniem konkursowym będzie np. dodanie wpisu na blogu lub stworzenie nowego topicu na forum na zadany temat, możecie pokusić się o zamieszczenie takiej informacji w regulaminie:

Mamy nadzieję, że informacje zawarte w naszym wpisie pomogą wam w organizacji własnego konkursu, który przyczyni się do zdobycia wielu wartościowych linków dla Waszej strony. Więcej na temat link buildingu poprzez wykorzystanie konkursów znaleźć można na blogu SEOmoz.

--
Mateusz Rzetecki - Junior SEO Specialist w Bluerank

15 listopada 2011

Białe zaplecze? Cały Internet!

Bardzo często w "naszym" Internecie, w polskim pozycjonowaniu, w wypowiedziach użytkowników forów i w działaniach niektórych firm SEO pojawia się idea budowania własnego „zaplecza pozycjonerskiego” celem zdobywania linków kierujących do stron klientów. Niekiedy są to jednak niestety spamowe strony, robione masowo, ze skopiowanymi tekstami lub, co gorsza, z tekstami wypluwanymi przez nic nie warte „generatory treści”. Próżno doszukiwać się w tego typu materiałach czy stronach jakiejkolwiek wartości. A przecież można wykorzystać zupełnie inny typ zaplecza – jest nim (prawie cały) Internet.

Tak jest – nie ma lepszego zaplecza niż Internet. Mnóstwo wartościowych stron zapełnionych ciekawą, interesującą treścią. Mnóstwo odbiorców i czytelników, którzy te strony odwiedzają (w przeciwieństwie do śmieciowych zapleczy) i szansa dla nas na zdobycie solidnych linków, lepszych pozycji i większej liczby odbiorców.

Wyciągnij dłoń do blogerów!

SWL'e, zapleczówki, linki w stopce, ewentualnie fora (link oczywiście w sygnaturze)... Dużo tego. I nie wiadomo właściwie skąd się bierze ta niechęć do stworzenia czegoś wartościowego? Przecież można inaczej! Guest Post (również PAD – Professional Article Distribution) to świetna metoda na zdobycie linków i rozgłosu. Warto poświęcić trochę czasu, żeby link building przy wykorzystaniu tej metody był efektywny.

  • Zacznij od identyfikacji witryn i blogów, które mogą być zainteresowane artykułem, stwórz ich listę. Lista ta nie musi być bezpośrednio powiązana z tematyką twojej strony. Przykładem niech będzie serwis ubezpieczyciela zdrowotnego. Warto znaleźć strony poświęcone również zdrowiu ogólnemu, bezpieczeństwu a nawet napisać artykuł „7 najczęstszych wypadków przy malowaniu sufitu – i jak ich uniknąć!”, aby umieścić go na stronie poświęconej remontom.
  • Napisz wartościowy tekst. Możesz znaleźć wiodące forum w danej branży, zidentyfikować najczęściej wypowiadających się użytkowników, którzy znają się na danym temacie i zaproponować im współpracę. W ten sposób można zdobyć naprawdę fachowy i konkretny artykuł na dany temat za niewielką cenę. Lepiej też unikać kupowania tekstów od tzw. „SEO copywriterów”, których pełno na Allegro i ZleceniachPrzezNet. Niech tekst będzie napisany przez zwykłego człowieka dla zwykłego człowieka. Linki umieść w tekście lub w stopce.
  • Dobry artykuł: jest dobrze napisany, przyciąga już samym tytułem, jest na temat, jest wartościowy i użyteczny (np. zawiera porady, które mogę zastosować od zaraz).
  • Skontaktuj się z wybraną witryną / blogiem. Jedno podejście, które wykorzystujemy polega na tym, że najpierw kontaktujemy się z właścicielem / redaktorem / blogerem i proponujemy napisanie artykułu na dany temat, jeśli zostanie wyrażona chęć umieszczenia takiego artykułu wtedy przystępujemy do pisania. Drugie podejście – artykuł przygotowujemy wcześniej, a przy kontakcie przesyłamy jego próbkę: „Hej, bardzo podoba mi się twoja strona, napisałem artykuł, który odpowiada tematowi tej witryny, przesyłam go w załączniku. Jeśli byłbyś zainteresowany umieszczeniem go w całości, daj mi znać!”. To podejście jest trochę szybsze, na dodatek bloger / redaktor od razu otrzymuje tekst i może go ocenić. Najlepiej samemu sprawdzić, z którym sposobem kontaktu czujemy się lepiej, i który dla nas lepiej działa.

Najważniejsze, co należy wziąć pod uwagę, to…

  1. Poświęć czas na napisanie / zdobycie naprawdę dobrego artykułu. Czasem warto będzie za niego zapłacić.
  2. Nie rozsyłaj tego samego tekstu do wielu witryn. Każdy artykuł ma być unikalny – gdyby ktoś chciał umieścić skopiowany tekst to by to zrobił bez twojej pomocy.
  3. Przy kontakcie z właścicielem strony stale podkreślaj, co w tej wymianie jest dla niego. Ty dostajesz link, a on świetny artykuł okraszony zdjęciami, nową treść dla czytelników, umocnienie pozycji strony jako znającej się na danym temacie i inne tego typu wartości.

Dziwne, że Guest Posty nie są metodą szerzej wykorzystywaną. W końcu nie zdobywają tylko linków – budują też świadomość marki, przy ich wkorzystaniu nawiązuje się relacje, które mogą przerodzić się w długoterminową współpracę owocującą przy kolejnych kampaniach. Niestety, łatwiej jest chyba włączyć mieszarkę tekstów, postawić kolejne kilkadziesiąt autoblogów, a linki klienta w razie czego zdjąć z zapleczówek. Smutna polska rzeczywistość...

--
Sebastian Baliński

9 listopada 2011

Dlaczego ta reklama? Zmiany w AdWords

Kilka dni temu Google wprowadził możliwość kontroli wyświetlanych linków sponsorowanych przez samych internautów. Na stronach wyników wyszukiwania oraz w poczcie Gmail pojawił się komunikat "dlaczego ta reklama?". Klikając dowiemy się, z jakiego powodu Google wyświetla nam tę konkretną reklamę oraz uzyskamy możliwość zablokowania wybranych reklamodawców lub rezygnacji z reklam personalizowanych.

Uruchomienie nowej funkcjonalności budzi jednak pewne wątpliwości. Po pierwsze, żeby móc skorzystać z powyższych opcji, użytkownik musi być zalogowany. Jeżeli korzystamy z kilku kont googlowych sprawa się komplikuje. Zarządzanie listami zablokowanych reklam na rożnych kontach może być pracochłonne. Z kolei jako niezalogowani użytkownicy, nadal jesteśmy narażeni na widok niechcianych reklam.

Manager preferencji reklamowych Google daje nam możliwość sprawienia, by reklamy wyświetlane w sieci reklamowej były dla nas bardziej interesujące. Mamy dostęp do kategorii naszych zainteresowań, które Google stworzyło na podstawie naszej aktywności w Sieci. Możemy je edytować lub zupełnie zrezygnować z reklam dopasowanych do naszych zainteresowań - tym samym zablokować Google możliwość przechowywania pliku cookie w naszej przeglądarce.

Jak te zmiany mogą wpływać na sytuację reklamodawców?

Wydawać by się mogło, że nowy wygląd linków sponsorowanych z dopiskiem "dlaczego” jest nieszkodliwy z punktu widzenia reklamodawcy. Udało nam się jednak trafić w Sieci na zupełnie inny przykład zwiększonej kontroli emisji reklam...

Google poszło o krok dalej i daje nam bezpośrednią możliwość zablokowania reklamodawcy, bez konieczności przejścia na stronę managera preferencji. Załączony przykład jest wyjątkowo mało szczęśliwy, gdyż zostawia duże pole do pomyłek. Komunikat został podzielony na dwie linie. Druga linia może się internautom wydawać atrakcyjnym przekazem reklamowym, a tymczasem powoduje blokadę emisji reklam. Zapewne po kliknięciu internauta zobaczy prośbę o potwierdzenie decyzji, jednak naszym zdaniem taki wygląd reklam nie jest korzystny ani dla użytkowników ani dla Google ani tym bardziej dla samych reklamodawców. Mamy nadzieję, że są to tylko testy tego typu rozwiązania oraz że nie okaże się ono wprowadzone na stałe.

--
Aneta Mitko

27 października 2011

Pozycjonowanie – działania, na których warto skupić się w 2012 r.

Prezentacja z wystąpienia Macieja Gałeckiego, podczas II Kongresu Online Marketing 2011.

25 października 2011

Przydatne narzędzia SEO – część 2

W poprzednim wpisie opublikowanym na naszym blogu, omówiliśmy cztery narzędzia przydatne w SEO (Open Site Explorer, Narzędzie Propozycji Słów Kluczowych, Quirk SearchStatus oraz FireBug). Pierwsze dwa narzędzia dostarczają informacji dla projektów SEO, natomiast kolejne dwa znacznie przyspieszają pracę. Dziś omówimy narzędzia generujące ciekawe informacje, niezbędne dla SEO specjalistów.

Google Webmasters Tools

Pierwsza aplikacja to Google Webmasters Tools, skrótowo nazywana GWT.  To kopalnia wiedzy dla webmasterów, administratorów i specjalistów SEO, którzy często współpracują z administratorami stron internetowych. GWT daje możliwość nadawania wielu użytkownikom dostępu do danych na temat strony internetowej, co znacznie ułatwia współpracę. Dzięki dostarczaniu dużej liczby użytecznych informacji, GWT daje możliwość diagnostyki i optymalizacji strony WWW. Narzędzia zawarte w GWT zostały podzielone na 5 grup, z których każda dzieli się dalej na podkategorie. Opiszemy tylko te, które niosą ze sobą wartość dla działań SEO.

Pierwsza grupa, czyli „Konfiguracja witryny”, pozwala na zgłoszenie mapy witryn, które poprawiają indeksację w przypadku dużych, dynamicznych serwisów. W dziale tym możemy również podejrzeć, czy nasza witryna posiada plik robots.txt i czy działa on poprawnie. W podkategorii „Zmiana adresu” można poinformować wyszukiwarkę Google o zmianie URL naszej witryny, co może usprawnić proces indeksowania strony internetowej pod nowym adresem oraz ułatwić użytkownikom jej odnalezienie. W podkategorii „Ustawienia” mamy możliwość określenia sposobu wyświetlania w wynikach wyszukiwania adresu strony (z przedrostkiem „www.” lub bez niego), jak również określenia szybkości indeksowania podstron naszego serwisu. Ostatnia podkategoria w tym dziale to „Parametry w adresie URL”. Jest to niedawno wprowadzona funkcjonalność, która pozwala twórcom stron internetowych, poinformować wyszukiwarkę o tym, jakie jest znaczenie parametrów w adresie URL serwisu.

Kolejna grupa narzędzi w Google Webmaster Tools, czyli „Twoja witryna w sieci”, jest bardzo wartościowa dla specjalistów SEO. W kategorii „Wyszukiwane hasła” mamy dostęp do statystyk odwiedzin strony i słów kluczowych, które sprowadziły użytkowników do serwisu. Dodatkowo, dla każdego słowa kluczowego prezentowane są statystyki, takie jak średnia pozycja czy ilość wejść na stronę po danej frazie. W  kategorii „Linki do Twojej witryny” możemy znaleźć źródła największej liczby linków i najczęstsze teksty zakotwiczenia. Bardzo przydatna jest również możliwość wyeksportowania tych danych do arkusza kalkulacyjnego, co ułatwia analizę danych.

Nowość w Google Webmaster Tools to zakładka „Statystyki +1”, która prezentuje informacje dotyczące przycisku +1 i jego wpływu na wyszukiwanie. Kolejną ważną funkcją jest możliwość podglądu błędów indeksacji, która znajduje się w dziale „Diagnostyka”. W tym miejscu mamy dostępną listę adresów URL, które zwracają błędne kody odpowiedzi HTTP. Daje to możliwość rozwiązania tego typu problemów, poprzez naprawienia błędnych adresów URL lub odnośników.

Dobrze skonstruowane tytuły i opisy, stworzone na podstawie właściwie przeprowadzonej analizy fraz, mają duży wpływ na decyzje użytkownika o odwiedzeniu danej strony z wyników wyszukiwania. Niezwykle pomocnym narzędziem są tu „sugestie HTML”, w których możemy znaleźć informacje na temat zbyt krótkich, bądź zbyt długich opisów i tytułów, jak również na temat duplikacji wśród tych elementów stron. Dzięki tej funkcji znajdziemy również informacje o problemach z indeksacją treści w naszym serwisie. Takie dane mogą się wyświetlić, jeśli na naszej stronie duża ilość treści będzie zawarta w postaci np. animacji Flash.

O narzędziu Google Webmaster Tools można pisać naprawdę bardzo długo. W kilku powyższych zdaniach pokazaliśmy jednak, ile można zyskać korzystając z tej aplikacji. Zachęcamy więc do bliższego się z nią zapoznania.

Google - Statystyki wyszukiwarki

Przy okazji prezentowania aplikacji Google Webmaster Tools powinniśmy opisać również Google Analytics. Ze względu na fakt, że temu narzędziu poświęciliśmy już wiele miejsca na naszym blogu, postanowiliśmy przybliżyć statystyki wyszukiwarki, które mogą być uzupełnieniem narzędzia propozycji słów kluczowych.

Jest to bardzo ciekawa aplikacja, która ma zastosowanie zarówno w search engine optimization, jak i w kampaniach linków sponsorowanych. Przydaje się podczas analizy fraz, określania trendów wyszukiwania, jak również lokalizacji potencjalnych klientów, dzięki analizie wyszukiwań w zależności od miejsca.

Dane prezentowane na wykresach można filtrować za pomocą typu wyszukiwarki (wyszukiwarka Google, wyszukiwarka grafik, wyszukiwarka wiadomości oraz wyszukiwarka produktów). Użytkownicy mogą posłużyć się również filtrem ograniczającym wyniki do określonych lokalizacji geograficznych (zarówno świat jak i Polska). Dostępny jest także filtr wykorzystujący ograniczenia czasowe oraz filtr odnoszący się do różnych kategorii tematycznych. Poniżej prezentujemy zastosowanie tego narzędzia na przykładzie statystyk wyszukiwania dla zapytania „seo”, w Polsce, w przeciągu ostatnich 12 miesięcy.

Wykres prezentuje zmiany, jakie zachodziły w ilościach wyszukiwań tej frazy w przeciągu ostatnich 12 miesięcy, jak również popularności tego zapytania w Polsce, w podziale na województwa. Bardzo ciekawą funkcjonalnością  narzędzia są także „Najpopularniejsze wyszukiwania” oraz „Wyszukiwania o rosnącej popularności”, dzięki którym możemy określić inne popularne frazy kluczowe. Za sprawą porównania słów kluczowych, jesteśmy w stanie sprawdzić, które frazy są popularne oraz w jakich okresach roku i w jakich lokalizacjach. Dzięki temu zabiegowi można optymalnie zaplanować strategię marketingową w wyszukiwarce.  Wykres statystyk po wybraniu opcji „Nagłówki wiadomości” może zostać oznaczony wydarzeniami powiązanymi z daną frazą.

Dodatkowe możliwości aplikacji to np. opcja generowania prognozy wyszukiwania. Na stronie pomocy statystyk wyszukiwania znajdziemy informację, że prognozowanie przyszłych wartości, opiera się na ekstrapolacji wartości przeszłych. Google informuje również, że kontekst wyszukiwanej frazy, kategoria i cykle biznesowe nie są brane pod uwagę przy obliczaniu prognozy. Z wymienionych względów do prognoz należy więc podchodzić ostrożnie.

Korzystając z Google Webmaster Tools, Google Analytics oraz narzędzia propozycji słów kluczowych, dopełnionego danymi ze statystyk wyszukiwarki, jesteśmy zaopatrzeni w wiele użytecznych danych na temat naszej witryny, jak również w informacje dotyczące możliwości optymalizacji strony, pod kątem popularnych fraz. Nie pozostaje więc nic innego, jak wykorzystanie tej wiedzy w praktyce.

--
Redakcja

4 października 2011

Przydatne narzędzia SEO - część 1

Wszyscy specjaliści zajmujący się search engine optimization korzystają z narzędzi usprawniających ich pracę. Narzędzia te można podzielić na dwie grupy. Pierwsza z nich dostarcza informacji, dzięki którym można podejmować kluczowe decyzje dotyczące działań SEO. Druga grupa usprawnia pracę, dzięki czemu więcej czasu można poświęcić na kluczowe zadania mające wpływ na powodzenie projektu, a mniej na rutynowe zabiegi. W tym artykule postaramy się przybliżyć Wam dwa narzędzia, których używa się do zdobywania informacji oraz dwa usprawniające pracę.

Grupa 1  - Open Site Explorer

Pierwszym narzędziem, które chcemy przedstawić, jest Open Site Explorer. Jest to narzędzie stworzone przez SEOmoz, czyli firmę opracowującą najlepsze - naszym zdaniem - narzędzia na potrzeby search engine optimization. Korzystając z Open Site Explorer możemy poznać wskaźniki, takie jak...


Domain Authority – służy do przewidywania jak domena będzie radzić sobie w rankingach wyszukiwarek. Domain Authority to współczynnik najbardziej zbliżony do PageRank. Przybiera on wartość od 0 do 100 i jest aktualizowany raz na miesiąc. Współczynnik ten jest obliczany poprzez łączenie wielu innych SEOmoz’owych parametrów, takich jak liczba odnośników z domen, sumy wszystkich odnośników, mozRank, mozTrust, itd.

Page Authority – służy do przewidywania jak dana podstrona serwisu będzie sobie radzić w wyszukiwarkach.

• Kolejnym współczynnikiem prezentowanym w darmowym raporcie jest liczba domen linkujących do badanego adresu URL oraz ogólna liczba linków. Użytkownicy posiadający dostęp do płatnych raportów, mają również do dyspozycji dane z serwisów społecznościowych, takich jak Facebook (ilość udostępnionych materiałów związanych z daną domeną oraz ilość Like’ów dotyczących danej domeny), Twitter oraz Google+.


Dodatkowym atutem tego narzędzia jest możliwość wykonywania porównań kilku stron. W ten sposób otrzymamy gotowe dane do porównania i zaplanowania dalszych działań SEO, które pozwolą nam benchmarkować nasze wyniki z konkurencyjnymi witrynami. Ogromną zaletą Open Site Eplorera jest możliwość otrzymywania listy backlinków do danej strony. Daje nam to prawdziwą kopalnię wiedzy na temat tego, czy i w jaki sposób pozycjonowany jest dany serwis. Narzędzie jest więc idealne do porównywania naszych wyników z innymi serwisami, podglądania ich backlinków, jak również do oceniania serwisów pod kątem ich jakości.


Narzędzie Propozycji Słów Kluczowych

Kolejnym narzędziem, które przedstawimy jest Narzędzie Propozycji Słów Kluczowych. Narzędzie to zostało dostarczone przez Google i oferuje bardzo ciekawą funkcjonalność, dzięki której możemy zidentyfikować popularne słowa kluczowe, na które warto pozycjonować stronę internetową. W narzędziu możemy ograniczać propozycje ze względu na lokalizacje geograficzne, jak również na rodzaje platform, na których dochodzi do wyszukiwań . Zastosowano podział na: komputery stacjonarne i laptopy oraz na urządzenia przenośne (WAP lub urządzenia przenośne z przeglądarkami stron internetowych z pełną funkcjonalnością). Korzystając z narzędzia mamy również możliwość wyboru trybu dopasowania: przybliżone, ścisłe oraz dokładne. W ten sposób możemy określić ilości wyszukań danej frazy w różnych konfiguracjach.

Grupa 2 - Quirk SearchStatus

Kolejnym typem narzędzia, które chcemy przedstawić w tym wpisie, jest Quirk SearchStatus. Jest to dodatek do przeglądarek FireFox oraz SeaMonkey, który w dużym stopniu usprawnia pracę SEO specjalisty. Znacznie przyspiesza czynności, które wykonuje się często i rutynowo.

  
Jak widać na powyższym zrzucie, Quirk pozwala nam na zbadanie strony pod kątem współczynników, takich jak: PageRank, Alexa Rank i mozRank. Narzędzie to dostarcza kilku innych przydatnych funkcji - jak np. Link Report, dzięki któremu możemy szybko ocenić ile linków wychodzi z danej strony oraz jaką mają wartość. Istnieje również możliwość podejrzenia zawartości pliku robots.txt oraz sitemap.xml.

Jest to oczywiście jeden z wielu dodatków tego typu. Zastosowana wtyczka często zależy od przeglądarki oraz konkretnych potrzeb danej osoby.

FireBug – w stronę źródła

Ostatnim usprawniającym pracę narzędziem, jakie zamierzamy przedstawić, jest FireBug. To dodatek do przeglądarki, który został stworzony dla twórców stron internetowych, jednak przydaje się on również w SEO.


Dzięki temu dodatkowi możemy podglądać kod źródłowy strony, jak również „badać” konkretne elementy serwisu. Z punktu widzenia SEO jest to ogromnie przydatne narzędzie, gdy podczas analizy witryny, często musimy zaglądać w jej kod źródłowy. Ogromnym atutem FireBug’a jest możliwość ustawiania skrótów klawiszowych według własnych preferencji, w ten sposób praca staje się znacznie szybsza.

--
Redakcja

28 września 2011

SEO, a nowa treść (fresh site bonus)

Dla specjalistów SEO nie jest żadną tajemnicą, jak istotne jest pojawianie się nowej i unikalnej treści dla potrzeb pozycjonowania witryny. Wyszukiwarki promują serwisy, które są codziennie zasilane świeżym kontentem. Lepiej oceniają też te, na których regularnie pojawiają się nowe treści i podstrony (tzw. fresh site bonus). Choć wszyscy w branży zdają się to wiedzieć, postanowiliśmy sprawdzić , w jakim stopniu jest to prawda.  Jeszcze ciekawsze zdaje się być zagadnienie – co dzieje się ze starszymi treściami, wciąż obecnymi w serwisie? W jaki sposób są one postrzegane przez wyszukiwarkę?

Poniżej prezentujemy dane, które otrzymaliśmy poprzez analizę źródeł ruchu oraz stron docelowych zaprzyjaźnionego serwisu – www.morusek.pl Jest to portal ogłoszeniowy (tematyka - zwierzęta), na którym codziennie przybywa co najmniej 100 nowych ogłoszeń. Tego typu serwis jest więc, z powodu bardzo dużej rotacji  danych, idealnym miejscem do badania zachowań Google. Starsze ogłoszenia nie są usuwane, a jedynie archiwizowane i cały czas dostępne dla robotów wyszukiwarki.

Cykl życia landing page

Pierwszym fenomenem, jaki zaskoczył nas podczas obserwacji witryn zawierających oferty i ogłoszenia w perspektywie dłuższego czasu, jest zjawisko, które możemy nazwać cyklem życia strony docelowej. Każde umieszczone w serwisie ogłoszenie jest na początku wsparte znacznym zastrzykiem zainteresowania internautów. Świeżo opublikowana strona szybko osiąga wysokie pozycje w wyszukiwarce Google, co przekłada się na ilość ruchu z organicznych wyników wyszukiwania oraz popularność danego ogłoszenia. Jednak po okresie około 1 – 2 tygodni, popularność ogłoszenia drastycznie spada, jego landing page generuje mniej więcej 10 – 15% początkowego ruchu.

Przykład można zobaczyć poniżej

Wykres pokazuje sumę ruchu pochodzącego z wyszukiwarki dla 333 podstron powstałych pod koniec maja 2011.


Jak widać, w maju, gdy ogłoszenia były najświeższe, poziom ruchu z Google osiąga swoje maksimum, ale szybko, praktycznie już po jednym / dwóch tygodniach spada do kilkunastu procent maksymalnej wartości.

Istotny jest fakt, że wspomniane zjawisko w niezwykle zbliżonym zakresie, można zauważyć w obrębie całego serwisu, niezależnie od tego, jakie wybierzemy daty i strony docelowe. W każdym przypadku poziom ruchu najpierw jest wysoki, a później spada do 10 – 15 % swojej maksymalnej wartości.

Na tym przykładzie można więc zaobserwować, że świeża treść jest faktycznie promowana przez wyszukiwarkę.  Nowe podstrony szybko pojawiały się w SERP`ach generując wysoki poziom ruchu. Kiedy ogłoszenia traciły na świeżości, ruch zaczynał spadać. 

Wiek treści w kontekście ruchu organicznego

Niezależnie jakie strony docelowe wybierzemy do analizy, niektóre z nich generują ruch nawet po kilku miesiącach od publikacji ogłoszenia. Zakres tego ruchu nie jest oczywiście zbyt duży, bo to zaledwie jedna dziesiąta początkowej mocy, jednak jeśli serwis zawiera tysiące tego typu podstron, suma wygenerowanego w ten sposób ruchu ma już sporą wartość w kontekście odwiedzin z wyszukiwarki.
 
Poniżej prezentujemy przeciętną liczbę wizyt z organicznych wyników wyszukiwania dla podstron konkretnego ogłoszenia, w odniesieniu do wieku podstrony. Wykres prezentuje dane dla 2000 ogłoszeń.

Na wykresie po raz kolejny możemy zaobserwować, że największą skuteczność mają najświeższe ogłoszenia. Dla ogłoszeń starszych niż 70 dni poziom ruchu jest dużo gorszy. Jednak, co ciekawe, strony docelowe młodsze niż 2 miesiące, generują tylko 1/3 całego ruchu w serwisie. Pozostała część to wynik witryn starszych niż 8 tygodni. Co jeszcze ciekawsze, za ruch w serwisie odpowiedzialne są także strony docelowe funkcjonujące w nim ponad 12 miesięcy.

Podobne wnioski można wysnuć patrząc na poniższą grafikę. Pokazuje ona procent stron ogłoszeń, które przynoszą przynajmniej jedną wizytę w miesiącu, w odniesieniu do ich wieku.

Spośród najnowszych stron około 40 – 50% przynosi przynajmniej jedną wizytę z Google. Tak więc na każde 2 opublikowane ogłoszenia jedno wybija się w Google na tyle, żeby przynieść ruch. Im starsza jest strona, tym mniejsza jest jej skuteczność. Jednak nawet wśród ogłoszeń umieszczonych w serwisie ponad rok temu, prawie 20% z nich wciąż pojawia się w SERP`ach, przynosząc serwisowi nowych użytkowników.

Dzięki powyższej analizie możemy stwierdzić, że świeża treść faktycznie jest bardzo istotna z punktu widzenia SEO, więc zjawisko nazwane ‘fresh site bonus’ występuje. Google chętnie promuje nowe podstrony w serwisie, pozwalając im na przyciągnięcie dużej liczby użytkowników. Z drugiej strony, przyznawany na początku bonus nie zawsze znika. Dla części stron możliwe jest utrzymanie wysokich pozycji, nawet jeżeli ich treści nie są wystarczająco nowe. Jak widać, ruch mogą przynosić strony (bądź co bądź tymczasowe) stworzone kilkanaście miesięcy temu.

--
Redakcja

23 września 2011

SEO KPIs & User Generated Content

Prezentacje Jacka Tkaczuka i Zbyszka Nowickiego z konferencji Search Marketing Expo, która odbywała się w dniach 19 - 20 września 2011, w Sztokholmie.


20 września 2011

Mobile SEO, a treść serwisu

Mobile SEO nie polega jedynie na dostosowaniu strony WWW do rozmiarów wyświetlaczy urządzeń przenośnych. Warto też zastanowić się nad treściami, jakie pojawią się w witrynie. Internauci często mają zupełnie inne oczekiwania wobec serwisów przeglądanych za pomocą chociażby smartfonów.

Bryson Meunier prezentuje na łamach serwisu Search Engine Land, jakich treści oczekują internauci od serwisów w wersji lajt. Przytaczając przykład firmy sprzedającej ubezpieczenia komunikacyjne, przedstawia różnice w zapytaniach generowanych przez użytkowników korzystających z urządzeń mobilnych oraz komputerów stacjonarnych i laptopów.

Do wykonania badania wykorzystane zostało narzędzie do analizy słów kluczowych Google AdWords. Poprzez odpowiednie posegregowanie wyników, już na pierwszy rzut oka widać szanse, jakie niesie ze sobą dostosowanie treści serwisów mobilnych do zainteresowań Internautów korzystających z urządzeń przenośnych.


Słowa kluczowe zaprezentowane w tabeli zostały podzielone na generowane z urządzeń mobilnych i desktopowych. Dla potrzeb analizy najważniejsza jest jednak czwarta kolumna, pokazująca procentową liczbę wyszukań mobilnych, prezentując które słowa i frazy są bardziej użyteczne dla tego typu serwisów. Kolorem ciemnozielonym zostały oznaczone te frazy, których popularność w urządzeniach mobilnych wyniosła ponad 30%, względem całkowitej liczby tych fraz.

Za sprawą tabeli możemy zaobserwować, że użytkowników mobilnych znacząco interesują usługi związane z pomocą drogową. Widać to dzięki popularności takich haseł jak: towing, tow truck, towing service, roadside assistance, towing company, tow service. Zapytania te nawiązują do holowania, czyli usługi której użytkownik może bezpośrednio potrzebować będąc w trasie. Z punktu widzenia wyszukiwania mobilnego są to więc frazy, na które warto postawić duży nacisk planując mobile SEO, gdyż odpowiadają na zachowanie użytkowników urządzeń przenośnych. Niekoniecznie należy konstruować cały serwis właśnie pod kątem tych zapytań, lecz wyróżnienie ich w wersji lajt może dostarczyć nam więcej ruchu z kanałów mobilnych. Poprawie ma szansę ulec także użyteczność tego typu witryn. Odpowiednio modyfikując strukturę treści w wersjach mobilnych serwisu, zwiększamy jego szansę na pojawienie się wysoko w wynikach wyszukiwania.

Podobne analizy warto przeprowadzić przygotowując strukturę wersji lajt swojego serwisu. Przecież nic nie stoi na przeszkodzie, by użytkownikom mobilnym dostarczyć treści lepiej powiązane z ich potencjalnymi zainteresowaniami. Poprzez odpowiednią identyfikację potrzeb (odzwierciedloną między innymi za sprawą analizy słów kluczowych) oraz optymalizację treści, poprawiamy mobile SEO serwisu.

--
Redakcja

15 września 2011

Nowy Onet - recenzja SEO

Nowa odsłona portalu Onet wzbudziła duże zainteresowanie. Choć eksperci z branży interaktywnej raczej pochlebnie wypowiadają się o kolejnej wersji serwisu, mają też swoje zastrzeżenia.

Na łamach interaktywnie.com nowy Onet został oceniony pod kątem architektury, designu, użyteczności oraz SEO. Recenzję na temat optymalizacji portalu względem wyszukiwarek internetowych przygotowała Patrycja Tomczak z agencji Bluerank.

Poniżej fragment artykułu:

W przypadku tak dużego serwisu, kluczowymi elementami SEO, które decydują o jego widoczności w wyszukiwarkach, są często aktualizowane i unikalne treści, zoptymalizowana struktura stron, oraz wewnętrzne linkowanie pomiędzy powiązanymi stronami. I te właśnie elementy Onet ma opracowane w świetny sposób...

Czytaj dalej >>

--
Aneta Mitko

5 września 2011

Ścieżki konwersji oraz kampanie remarketingowe w E-commerce

Nasze prezentacje z IV edycji konferencji E-commerce MoneyCon, która odbyła się 30 sierpnia w Warszawie. Bluerank był patronem merytorycznym tego wydarzenia.

31 sierpnia 2011

Edytor AdWords pojawił się w wersji 9.5

O nowych funkcjach oraz aktualizacjach edytora możemy poczytać tutaj. Jedną z nich jest możliwość ustawienia eksperymentu kampanii poprzez następujące zadania:

  • przypisywanie i edytowanie stanu eksperymentu (np. „tylko kontrola”, „tylko eksperyment”, „kontrola i eksperyment”) na poziomie grupy reklam, reklamy oraz słowa kluczowego;
  • przypisywanie i edytowanie domyślnego maks. CPC, maks. CPC w sieci reklamowej lub mnożnika maks. stawki CPM na poziomie grupy reklam;
  • przypisywanie i edytowanie mnożnika maks. stawki CPC na poziomie słowa kluczowego;
  • pobieranie i przesyłanie stanu eksperymentu i mnożników stawek przy użyciu funkcji eksportu / importu CSV i XML.
Druga nowość to obsługa rozszerzeń lokalizacji. W wersji 9.5 do utworzenia rozszerzenia  lokalizacji nie jest już potrzebny istniejący na koncie adres. Jest to szczególne udogodnienie dla podmiotów prowadzących lokalne kampanie AdWords, które aktywnie korzystają z tej funkcji. Dzięki nowym możliwościom edytora, adres wystarczy dodać ręcznie. Jest to rozwiązanie szybkie i proste.

Dużym udogodnieniem dla PPC Managerów jest na pewno usługa pobierania w tle. Możliwość pobierania jednego lub kilku kont, gdy pracuje się jednocześnie na innym otwartym, to przede wszystkim oszczędność czasu. Można też oznaczyć kilka kont w kolejce do pobrania.

Poza nowymi funkcjami, w edytorze pojawił się jeszcze szereg aktualizacji. Pokrótce omówimy te, które wydają się nam najistotniejsze w pracy nad kampanią...

Adresy IP i znaki spoza tabeli znaków ASCII w adresach URL

Dobra wiadomość dla reklamodawców posiadających w nazwie domeny znaki spoza tabeli znaków ASCII (łącznie ze znakami łacińskimi, nie łacińskimi, akcentami i znakami diakrytycznymi) – nowa wersja edytora pozwala na obsługę do tej pory zakazanych znaków w wyświetlanych adresach URL. Na przykład, możliwe jest stosowanie adresów - münster.com lub россия.рф. Znaki spoza tabeli ASCII dopuszczalne są także w ścieżce URL, po nazwie domeny w wyświetlanych adresach URL (np. perfumy.pl/Hermès).

Dodatkowe wymiary reklam graficznych

Poszerzona została lista dopuszczalnych wymiarów reklam graficznych. Dodano następujące wielkości:
•    320 x 50 (dostępne teraz również dla reklam graficznych na telefon komórkowy)
•    300 x 50
•    425 x 600
•    300 x 600

Nowe wymiary mogą być kolejnym krokiem ku rozwojowi reklam wyświetlanych na urządzeniach mobilnych - na przykład tabletach lub smartphone’ach (większość formatów reklam idealnie pasuje do wyświetlaczy tych urządzeń).

Stan elementu i odrzucenia

W poprzedniej wersji edytora odrzucone reklamy można było zdiagnozować klikając na stan reklamy, jednak nie było sposobu, by dowiedzieć się z jakiego powodu reklama została odrzucona. Teraz istnieje możliwość sprawdzenia stanu reklamy i niezwłocznego poprawienia tekstu. Nie ma już konieczności przełączania się na platformę online, czy wertowania maili z przyczynami odrzucenia (które czasem przychodzą z nieznacznym opóźnieniem).

Stan elementu to znaczne ułatwienie dla osób rozpoczynających przygodę z edytorem. Pozwala on na sortowanie nowo dodanych słów kluczowych, grup, kampanii, czy reklam. Umożliwia również sprawdzanie przed czym i z jakiego powodu Google nas ostrzega. Jednak niemal każdy, kto pracuje na edytorze dłużej niż kilka miesięcy zapewne pamięta, że pierwszy kwadracik określał zmiany stanu słowa kluczowego, reklamy etc. Drugi to ewentualne ostrzeżenia dotyczące zmiany. Kto nie wiedział, powinien się wstydzić!

Dodatkowe ustawienia kampanii

Edytor AdWords w wersji 9.5 obsługuje trzy nowe ustawienia na poziomie kampanii.
•    Ulepszone CPC
•    Metoda wyświetlania
•    Rotacja reklam

Do tej pory funkcje te można było włączyć za pomocą platformy online, teraz są dostępne z poziomu edytora. Przy tworzeniu nowej kampanii jest to zdecydowane ułatwienie. Prawdopodobnie mało kto tworzy duże kampanie reklamowe poprzez panel AdWords, specjaliści wolą konstruować je w edytorze. Im więcej ustawień dostępnych jest z jego poziomu, tym łatwiej zarządzać całą kampanią. Obsługa dodatkowych opcji to znaczna wygoda i oszczędność czasu.

Linki z docelowymi adresami URL

Teraz docelowe adresy URL można testować, klikając ikonę znajdującą się obok pola edycji docelowego adresu URL na wszystkich kartach. Docelowy adres URL zostanie otwarty w domyślnej przeglądarce. Z tego typu możliwościami mogliśmy obcować wcześniej, gdy nagłówek tekstu reklamowego był już osadzony w edytorze. Istniała opcja kliknięcia na podgląd reklamy, która prowadziła nas do pożądanego linka. Teraz możemy umieścić link strony docelowej bez konieczności wstawiania przykładowego tekstu reklamowego, by sprawdzić czy na pewno prowadzi tam gdzie sobie tego życzymy.

--
Redakcja

26 sierpnia 2011

Jak ochronić swoją markę w wyszukiwarce?

Podsumowanie wczorajszego SEMPO Webinar - Page One Dominance: How to Protect Your Brand

Prowadzący: Mike Essex oraz Samantha Stratton - Koozai.com

Wizerunek marki w wyszukiwarce jest obecnie niezwykle istotny, zwłaszcza w momencie, gdy firmy muszą się mierzyć z działaniami osób, które chcą i potrafią danej marce bezpośrednio zaszkodzić. Mogą to zrobić na kilka sposobów.

  • Niskie ocenianie usług danej firmy – tu pojawił się przykład niskiego oceniania usług Ryanair.
  • Publikacja artykułów o negatywnym wydźwięku na temat danego tematu lub nawet samej firmy - przykład artykułu o rychłym upadku Groupona.
  • Pozycjonowanie zdjęć o negatywnym charakterze, czyli wyrządzanie szkód markom poprzez Google Images Search - trafionym przykładem okazały się tu grafiki promujące bojkot Coca-Coli lub Nestle.
Prowadzący zaprezentowali konkretne metody, które warto wykorzystać do osiągnięcia dominacji w Top 10 na zapytania związane z marką. Skupili się raczej na ogółach, z których wnikało jedno wiodące przesłanie - należy zbudować dużą grupę silnych, właściwie zoptymalizowanych witryn, by skutecznie wypełnić swoimi materiałami całą pierwszą stronę wyników wyszukiwania.

Oto ogólne porady pomagające chronić markę online
  • Każda firma  powinna założyć firmowe konta na wszelkich możliwych (ale tylko renomowanych) serwisach.  Do tego celu wykorzystać możemy takie miejsca i narzędzia jak: blog firmowy, konto na Facebooku, Twitterze, YouTube, LinkedIn lub innych serwisach eksperckich i społecznościowych.
  • Należy zakupić domeny, których nazwy brzmią podobnie do nazwy naszej firmy, by inni nie byli w stanie wypozycjonować strony opartej na podobnie brzmiącej domenie, zawierającej negatywne opinie na temat marki.
  • Warto publikować dużo i szybko, aby w Google News najświeższe newsy i treści promujące markę, znalazły się wysoko.
  • Należy promować strony zawierające pozytywne opinie na temat naszej marki. Jest to ważne, ze względu na najbardziej kłopotliwe rodzaje fraz wyszukiwania typu: "brand" plus "oceny” lub "brand" plus ”recenzje”. Najłatwiej jest zaatakować markę właśnie poprzez takie frazy, dlatego warto promować strony z recenzjami, nad którymi "mamy władzę".
  • Google coraz chętniej pokazuje w wynikach wyszukiwania multimedia, trzeba więc zadbać także o ten aspekt. Kontent graficzny i filmowy, który pojawia się w wynikach wyszukiwania na zapytania związane z marką, powinien mieć pozytywny charakter.
  • W związku z ostatnimi zmianami w SERP`ach dość istotna stała się budowa stron. Rozszerzone linki witryn powinny jak najlepiej informować użytkowników o zawartości danej strony. 
Po wprowadzeniu zmian nie należy zapominać o monitoringu. Poprzez wpisywanie marki w wyszukiwarkę i obserwację wyników będziemy jasno widzieć, które kontrolowane przez nas miejsca pojawiają się wysoko. Profile w serwisach wolno zwiększających swoje pozycje należy optymalizować oraz zasilać lepszej jakości treścią, aż pierwsza strona wyników wyszukiwania będzie wyglądała zgodnie z naszymi oczekiwaniami.

--
Redakcja

25 sierpnia 2011

Wpływ pogody na poziom ruchu w serwisach

W tym roku lato nas raczej nie rozpieszcza. Ten, kto zdecydował się na urlop w kraju, mógł poczuć lekkie rozczarowanie pogodą. Zdrowy rozsądek podpowiada nam, że im jest słonecznej, tym mniej ma się ochotę surfować po Sieci, a więcej czasu spędzać na świeżym powietrzu. Zamiast polegać na odczuciach i domysłach, postanowiliśmy sprawdzić to przypuszczenie, obserwując ruch w dwóch zaprzyjaźnionych z nami serwisach: Morusek.pl oraz Psy.elk.pl.

Dane związane z pogodą pochodzą z serwisu www.weatheronline.pl i dotyczą Łodzi.

W badanych przez nas serwisach dość duży procent użytkowników to młodzież w wieku szkolnym, która w czasie zbierania danych miała wakacje. Zakładamy więc, że osoby te miały możliwość spędzania czasu na świeżym powietrzu.

Morusek.pl  - temperatura, a liczba wizyt



Psy.elk.pl - temperatura, a liczba wizyt


Na prezentowanych powyżej wykresach widać, że związek między temperaturą, a liczbą odwiedzin jest bardzo silny. Bordowe wykresy pokazują procentową różnicę liczby wizyt w serwisie, w stosunku do średniej wartości z danego dnia tygodnia. Różnica jest odwrócona, czyli jeżeli jest powyżej zera, oznacza to, że danego dnia było średnio mniej wizyt niż zazwyczaj.

Morusek.pl - słońce, a liczba wizyt


Psy.elk.pl - słońce, a liczba wizyt


Podobnie jest jeśli chodzi o ilość godzin słonecznych danego dnia. Wykresy wyraźnie obrazują, że im więcej słońca tym mniej Internetu ;) Naszym zdaniem zależność jak najbardziej poprawna.

--
Jacek Tkaczuk

19 sierpnia 2011

Staż w dziale IT Bluerank

Od września zapraszamy studentów kierunkow informatycznych na staż w dziale IT Bluerank.

Na najlepszych po zakonczeniu praktyk czeka etat!

Szczegółowe informacje znajdziecie na naszej stronie firmowej
www.bluerank.pl/praca/praktyki-w-dziale-it

W pierwszej fazie naboru czekamy na zgłoszenia do końca sierpnia.

--
Redakcja

12 sierpnia 2011

User Generated Content, a procesy SEO

Osoby, które zainteresował cykl artykułów na temat analizy ścieżek konwersji oraz skutecznego wykorzystania analityki internetowej do badania zachowania internautów, zapraszamy 30 sierpnia br. do Hotelu Courtyard w Warszawie. Autor wpisów - Maciej Gałecki przedstawi tam prezentację pod tytułem „Ścieżki konwersji: nowa jakość w mierzeniu skuteczności działań e-marketingowych”. Wystąpienie to otworzy IV edycję konferencji E-commerce MoneyCon, której patronem merytorycznym jest firma Bluerank.

Jednocześnie informujemy, że 20 września Jacek Tkaczuk – Group SEO Manager w Bluerank, wystąpi podczas konferencji SMX w Sztokholmie. Jego prezentacja nosi tytuł „SEO & User Generated Content”. Z tej okazji prezentujemy na blogu kilka porad, w jaki sposób najlepiej wykorzystywać treści tworzone przez użytkowników do pozycjonowania serwisu...

Z punktu widzenia SEO, treść tworzona przez użytkowników ma bardzo dużą wartość, zgodnie z zasadą - content is the king. W przypadku internautów zaangażowanych w funkcjonowanie serwisu możemy liczyć, iż oni sami dostarczą nam dużo wartościowego tekstu, który będzie kontekstowo powiązany z tematyką, jaką się zajmujemy. Ponadto, w momencie osiągnięcia odpowiedniego poziomu ruchu oraz reputacji serwisu, treść zaczyna się tam pojawiać zupełnie bez naszego udziału. Dla przykładu można tu podać portale ogłoszeniowe lub serwisy (czy też ich sekcje) funkcjonujące na bazie pytań i odpowiedzi. Tworzenie treści przez użytkowników może przynieść serwisowi tysiące, a nawet setki tysięcy nowych stron. Z kolei odpowiednie pokierowanie tym procesem ma szansę poszerzyć potencjał SEO serwisu o tysiące czy setki tysięcy fraz kluczowych, szczególnie tych z długiego ogona. Co za tym idzie, dzięki User Generated Content (UGC) stosunkowo łatwo otrzymujemy duże wartości ruchu z Google.

Jak w pełni wykorzystać UGC podczas pozycjonowania?

Poprawna optymalizacja stron zawierających User Generated Content - poza zadbaniem o podstawy takie jak tytuły, opisy, czy nagłówki, należy również wytworzyć u użytkowników odpowiednie nawyki przygotowywania treści. Zależy nam przecież, by teksty  były redagowane zgodnie z naszymi oczekiwaniami i spełniały nie tylko funkcje komunikacyjne, ale również wpływały korzystnie na SEO. Możemy na przykład stworzyć rekomendacje dla użytkowników odnośnie tworzenia odpowiednich tytułów i opisów swoich ogłoszeń lub pytań. Możemy też zastosować automatyczne tworzenie tytułów stron, poprzez wykorzystanie wybranych kategorii i cech (na przykład - połączenie marki, modelu, roku i wersji samochodu oraz słowa "opinie" w serwisie, gdzie użytkownicy dodają wpisy na temat swoich pojazdów).

Właściwa indeksacja stron - jest to kwestia szczególnie istotna w przypadku User Generated Content, gdzie w krótkim czasie może przybywać bardzo wiele nowych treści. Należy stale monitorować poziomy indeksacji serwisu przez Google (poprzez automatyczne aplikacje do monitorowania wizyt Googlebota lub sprawdzając indeksację sajtmap w narzędziach Google dla webmasterów). Jeśli zauważymy błędy, należy wprowadzić odpowiednie zmiany.

Optymalne wykorzystanie dostępnej treści – kategoryzacja jest istotna, ale warto wprowadzać też dodatkowe opcje przeglądania treści według kryteriów innych, niż kategoria. Na przykład dla internautów przeglądających opinie na temat samochodów, może być dostępne standardowe drzewo kategorii typu marka i model, jednak można również wprowadzić dodatkową opcję podziału, w postaci opinii posegregowanych wedle klucza roku produkcji auta lub wersji silnika. W ten sposób jedna treść wykorzystywana jest kilkukrotnie na różne sposoby, a my mamy możliwość tworzenia nowych stron docelowych dla ruchu z Google. Dobrym przykładem będzie tu serwis www.inspireme.pl. Oprócz kategorii typu rodzaje pokoi, mamy też dostępne style i kolory (np. na stronie: http://www.inspireme.pl/projekty/k-wnetrza-kuchnie/1/ po lewej). Dzięki temu tworzymy setki nowych stron będących połączeniem rodzaju pomieszczenia ze stylem lub z kolorem (np. jasna łazienka, nowoczesna łazienka, jasna nowoczesna łazienka itd.). Tak naprawdę wciąż wykorzystujemy tu tę samą zawartość, czyli zdjęcia. Dzięki temu zabiegowi otrzymujemy dodatkowy ruch z Google - w tym przypadku jest to 30% wizyt.

--
Szymon Pietkiewicz

4 sierpnia 2011

Analiza ścieżek konwersji - praktyczne przykłady analiz

W poprzednich wpisach przedstawiliśmy ścieżki konwersji oraz pojawiające się w związku z tym nowe możliwości bardziej wiarygodnej oceny wartości poszczególnych źródeł ruchu.

W ostatniej części naszego cyklu piszemy o praktycznym wykorzystaniu i wyciąganiu wniosków z udostępnionych danych - pokazujemy na czym naprawdę polega analityka internetowa. Poniżej znajdziecie przykłady trzech krótkich analiz, które można przeprowadzić przy pomocy raportów ścieżek konwersji.

1. Charakterystyka wizyt klientów

Informacje o ilości wizyt użytkownika przed złożeniem zamówienia są dostępne w Google Analytics od dawna, gdy jednak chcemy wyciągnąć bardziej precyzyjne dane, przyjdą nam z pomocą nowe raporty. Jako przykład weźmy zamówienia składane bezpośrednio przy pierwszej wizycie. Wiemy, że mają one bardzo różny charakter:

  • mogą być złożone pod wpływem impulsu - gdy internauta po raz pierwszy spotyka się z marką lub produktem i zaintrygowany postanawia jeszcze podczas tej samej wizyty dokonać zakupu;
  • mogą być złożone przez internautę, który już podjął decyzję o zakupie (np. wcześniej odwiedził tradycyjny sklep) - pojedyncza wizyta ma posłużyć wyłącznie do złożenia zamówienia.
Dla uproszczenia pomijamy tutaj zjawisko korzystania z wielu komputerów lub urządzeń mobilnych przez jednego użytkownika oraz wynikający z tego brak możliwości śledzenia użytkownika, który faktycznie wielokrotnie odwiedził witrynę, lecz na wielu różnych urządzeniach.

Patrząc na przedstawione niżej przykładowe dane, możemy nieco dokładniej zinterpretować charakter konwersji po jednej wizycie:


Wnioski są następujące...
  • Klienci szczególnie często składają zamówienie wchodząc bezpośrednio lub za pośrednictwem wyników organicznych. Wejścia bezpośrednie mają zdecydowanie nawigacyjny charakter - internauta zna adres strony i ma świadomość jakie miejsce odwiedza. Wejścia z wyników organicznych wyszukiwarek w tym konkretnym przypadku pochodzą w przeważającej większości z zapytań zawierających nazwę serwisu lub jego adres, co również potwierdza ich nawigacyjny charakter ('chcę odwiedzić sklep X po to, by kupić w nim produkt A').
  • Dużo zamówień pochodzi z kampanii linków sponsorowanych - świadczy to o dobrej konstrukcji kampanii, która emituje reklamy dla właściwych zapytań o charakterze transakcyjnym.
  • Skuteczność działań reklamowych prowadzonych poza serwisem - zarówno sieć afiliacyjna (NetSales) jak i obecność w serwisach zewnętrznych (Snobka.pl, i Woman.pl) pozwalają sprowadzić użytkowników, którzy zachęceni właściwą informacją, dokonują zakupu.
  • Skuteczność działań autopromocyjnych i lojalnościowych - newsletter i komunikacja przez platformę społecznościową Facebook są w stanie sprowadzić ruch, który generuje zamówienia. Jest to o tyle ciekawa informacja, że tego typu źródła ruchu najczęściej sprowadzają lojalnych użytkowników, którzy już wcześniej odwiedzali serwis (na newsletter trzeba się przecież zapisać).
Pogłębiając analizę, skoncentrujmy się teraz dla odmiany na sesjach z przynajmniej dwiema wizytami, które zakończyły się zakupem. Poniższa tabela prezentuje najpopularniejsze ścieżki zachowań w tym segmencie:


Widzimy, że...
  • Proces decyzyjny jest najczęściej stosunkowo prosty - zwykle są to 2 - 4 wizyty do momentu złożenia zamówienia.
  • Co ciekawe, internauci wracają na serwis przez ten sam kanał, przez który rozpoczęli z nim swoją przygodę. Jeżeli użytkownik trafił na serwis przez linki sponsorowane, to kolejną wizytę rozpoczął w ten sam sposób.
  • Pierwsza ścieżka, która pokazuje wykorzystanie więcej niż dwóch różnych źródeł, przyniosła zaledwie 5 zamówień - mała popularność takich zachowań pozwala zmarginalizować na przykład problem conversion overlapping, czyli niekorzystnego, wielokrotnego rozliczania tej samej konwersji z różnymi partnerami (jeżeli stosowany jest w rozliczeniach z nimi model CPA lub CPL).
Interesujące wnioski można również wysnuć z analizy ścieżek zawierających powyżej 10 wizyt. Okazuje się, że w badanym przypadku jest to ponad 25% wszystkich złożonych zamówień! Tutaj również dominują proste, jednakowe wzorce zachowań:


2. Jaki jest wkład poszczególnego źródła w końcowym zamówieniu?

Drugi przykład analizy dotyczy przede wszystkim ostatniego wspomnianego segmentu. Dużo trudniej odpowiedzieć na pytanie postawione wyżej w przypadku bardziej złożonych wzorców zachowań, które składają się z wejść z różnych źródeł ruchu (przykład poniżej). By ustalić faktyczną wartość poszczególnych źródeł, kreacji reklamowych, czy słów kluczowych należy zastosować jeden z modeli atrybucji konwersji.


Zbierając wszystkie dotychczasowe obserwacje i wnioski w tym zakresie możemy powiedzieć, że...
  • Najliczniej reprezentowane zachowania dotyczą przejść (pojedynczych lub wielokrotnych) z tego samego źródła ruchu - cała wartość zamówienia jest efektem tego źródła ruchu.
  • Należy głębiej zastanowić się nad pierwotną przyczyną wizyty w serwisie w przypadku zamówień pochodzących ze źródeł o charakterze nawigacyjnym (wejścia bezpośrednie i z zapytań brandingowych z naturalnych wyników wyszukiwania). Wynikają one z wcześniejszej znajomości marki. Istnieje z pewnością konkretny powód, dla którego internauta postanowił wejść na serwis i złożyć zamówienie.
  • Ścieżki o złożonym charakterze (1/4 całości) wykazują bardzo różnorodne zachowania internautów - we wskazanym wyżej przykładzie internauta odwiedzał serwis przez 5 unikatowych źródeł ruchu. Poszczególne źródła ruchu występują seriami (np. 11 wejść pod rząd z linków sponsorowanych), co wskazuje na wręcz nawigacyjne traktowanie, w tym wypadku, reklam serwisu. Z pokazanego wyżej schematu możemy wywnioskować coś jeszcze - prawdopodobnie mamy do czynienia z internautą, który sprowadzony na serwis zapisał się na newsletter i regularnie wracał poprzez ten kanał (mogą o tym świadczyć  źródła ruchu "poczta.wp.pl / referral" oraz "newsletter / email"). W momencie otrzymania atrakcyjnej oferty (np. promocja) wreszcie zdecydował się na zakup. Dowodzi to skuteczności treści newslettera oraz samego narzędzia. Idąc tym tropem należałoby wykonać analizę skierowaną na obliczenie wartości pozyskania subskrybenta newslettera (który z dużym prawdopodobieństwem złoży w przyszłości zamówienie) i zastosować optymalizację wydatków marketingowych również pod tym kątem.
  • W przypadku ustalania wpływu źródeł ruchu dla długich ścieżek konwersji, zwykle stosuje się dwie zasady. Pierwsza to zmniejszenie istotności wejść pośrednich w ścieżce, gdyż internauta jedynie utrzymuje kontakt z serwisem (np. czeka na atrakcyjną promocję), ale nie mamy do czynienia ze zmianą jego preferencji lub decyzji, co do dokonania zakupu. Druga to ignorowania serii wejść z tego samego źródła, ponieważ powtarzalność (zaobserwowana również na poziomie zapytań czy kreacji reklamowych) ma charakter bardziej nawigacyjny niż decyzyjny. Biorąc pod uwagę te założenia, można w przypadku powyższego schematu zastosować model atrybucji konwersji, który przypisze największe znaczenie linkom sponsorowanym i newsletterowi. Pierwsze źródło odpowiadało za sprowadzenie internauty i doprowadzenie do subskrypcji newslettera, drugie zaś utrzymało jego zainteresowanie i wygenerowało (przez odpowiednią komunikację marketingową) zakup. Wniosek taki płynie również z faktu analizy pierwszego i ostatniego źródła wejścia w ścieżce konwersji - najczęściej bowiem te dwie skrajne wizyty mają największe znaczenie w całym procesie decyzyjnym.
  • Analogiczna analiza wielu pojedynczych ścieżek pozwoliła nam zebrać bardziej ogólne i uniwersalne wnioski, których jednak nie możemy ujawnić publicznie.
3. Optymalizacja działań SEM - jakie słowa wykorzystać w pozycjonowaniu i kampaniach linków sponsorowanych?

Często działania PPC i SEO nie są ze sobą poprawnie koordynowane. Dużo mówi się o efekcie synergii i właściwym podejściu do analizy słów kluczowych, która pozwala identyfikować hasła o potencjale sprzedażowym (zwłaszcza kiedy taki jest główny cel działań marketingowych). Jednak dopiero analizowanie zapytań występujących w tej samej ścieżce konwersji przynosi nową porcję istotnych informacji, które należy dalej wykorzystać. Spójrzcie na przykład analizy przeprowadzonej dla jednego z naszych klientów. Poniższa tabela zawiera w wierszach słowa kluczowe (niestety ukryte, ze względu na ich wartość biznesową) wraz z dokładnym zestawem informacji pokazujących ich pośredni lub bezpośredni wpływ na złożone zamówienie. Bezpośredni wpływ to taki, kiedy słowo stanowiło zapytanie wykonane podczas wizyty, która zakończyła się zakupem. Pośredni wpływ wystąpił wtedy, gdy słowo pojawiło się w formie zapytania w jednej z wcześniejszych wizyt, które doprowadziły do późniejszego złożenia zamówienia. Ciekawe jest wyodrębnienie słów, które jednocześnie przyczyniły się w sposób pośredni i bezpośredni do zamówienia - internauta musiał użyć ich zarówno w trakcie, jak i na końcu ścieżki konwersji.

Słowa sprzedające w kanale organicznym (SEO):


Słowa sprzedające w kanale płatnym (linki sponsorowane):


W wyniku tej analizy:
  • słowa z pierwszej tabeli powinny zostać uwzględnione w prowadzonej kampanii linków sponsorowanych - zwłaszcza hasła z wierszy 9 i 10, które dużo częściej uczestniczyły pośrednio w generowaniu zamówień (bez ścieżek konwersji nie mielibyśmy takiej informacji!),
  • słowa z drugiej tabeli powinny być objęte działaniami pozycjonowania, zwłaszcza słowo z wiersza nr 307, które analogicznie cechuje się bardzo dużym, pośrednim wpływem na zakupy w analizowanym serwisie.
Mamy nadzieję, że powyższymi przykładami zainspirowaliśmy Was do aktywnego interpretowania danych ze ścieżek konwersji Google Analytics. Zrozumienie typowych i najpopularniejszych zachowań internautów, na pewno pozwoli Wam podjąć właściwe decyzje biznesowe i podnieść ogólną efektywność działań marketingowych. Gorąco zachęcamy do prowadzenia dalszych indywidualnych analiz!

--
Maciej Gałecki

25 lipca 2011

Analiza ścieżek konwersji - Conversion Attribution - cz. II

Conversion Attribution to pojęcie, które... trudno (jeszcze) dobrze przełożyć na język polski :-) Jedno jest pewne - jest nierozerwalnie związane z nowymi raportami ścieżek konwersji w Google Analytics, o których pisaliśmy w ostatnim poście (bardzo ciekawe i szczegółowe opisanie tych raportów możecie znaleźć na blogu Conversion.pl).

Conversion Attribution (dosł. 'atrybucja konwersji', choć może bardziej pasowałoby określenie 'przypisanie konwersji') to parametr, który próbuje odpowiedzieć na pytanie - w jaki sposób każda z wizyt pojedynczego użytkownika wpłynęła na jego decyzję o wykonaniu pożądanej akcji (np. złożeniu zamówienia, rejestracji w serwisie, subsykrypcji newslettera, itp.), a także jaką wartość z tego tytułu reprezentuje?

Rozważmy trzy przykładowe ścieżki wizyt, które doprowadziły do teoretycznego zakupu:


Przy zastosowaniu najprostszych narzędzi i bez możliwości analizowania ścieżek konwersji, z raportów Google Analytics w domyślnej implementacji wyczytalibyśmy, że:
  • w scenariuszu A konwersję wygenerowało wejście z wyników organicznych,
  • w scenariuszu B konwersję wygenerowało wejście z wyników organicznych (znowu, ponieważ przy naliczaniu konwersji ignorowane są wejścia bezpośrednie, jeżeli wcześniejsza wizyta pochodziła z oznaczonego źródła ruchu),
  • w scenariuszu C konwersję wygenerowało wejście z banera (kampanii reklamowej).
Wyciąganie wniosków z tych informacji nie jest rozsądne, gdyż błędem byłyby chociażby twierdzenia, że:
  • nie ma sensu prowadzić kampanii PPC, skoro nie wygenerowała żadnych konwersji (przecież w ścieżkach A i C pojawiają się wizyty z tego kanału!),
  • najwłaściwsze jest prowadzenie działań SEO (choć w ścieżce B to nie była wizyta, podczas której użytkownik faktycznie złożył zamówienie!).
Wreszcie, wciąż nic nie wiemy o ścieżkach wizyt!
  • Jak użytkownik trafił na naszą ofertę - od którego źródła ruchu rozpoczął kontakt ze stroną?
  • W jaki sposób powracał na serwis (przez kanały typu pull czy push - czyli przypominaliśmy się z ofertą, czy to raczej internauta był stroną aktywnie poszukującą?)
  • Jeżeli wracał przez wyszukiwarki, to czy szukał konsekwentnie tego samego produktu? A może znalazł nasz serwis przez przypadek, poszukując zupełnie innego produktu i usługi? Kiedy zapamiętał naszą markę lub nazwę produktu zaczynając jej używać w celach nawigacyjnych?
Można postawić bardzo wiele problemów analitycznych tego rodzaju. Wszystko zależy od ich znaczenia i faktycznej wartości biznesowej udzielonych odpowiedzi. Zanim jednak zagłębimy się w tego typu analizy, skoncentrujmy się na próbie oszacowania udziału poszczególnych wizyt w końcowej korzyści, jaką reprezentuje każda mierzona akcja.

Modele przypisywania wartości konwersji do wizyt

Ogólnie rzecz ujmując, modele przypisywania wartości do poszczególnych wizyt wchodzących w ścieżkę prowadzącą do konwersji, można podzielić na:
  • jednowymiarowe - czyli takie, gdzie cała wartość konwersji (np. zysk z zamówienia) jest przypisana do jednej konkretnej wizyty
    • 'first-click' - model bazujący na założeniu, że do decyzji zakupu przyczynia się wyłącznie pierwsza wizyta w serwisie; wszelkie kolejne nie mają żadnego znaczenia - internauta powraca jedynie w celach nawigacyjnych, by złożyć zamówienie;
    • 'last-click' - całkowite przeciwieństwo modelu opisanego powyżej - bazuje na założeniu, że decyzję zakupu internauta podejmuje wyłącznie w ciągu ostatniej wizyty; wszystkie wcześniejsze doświadczenia ze stroną nie są istotne; model ten jest najmocniej zbliżony do wyników prezentowanych w podstawowej implementacji Google Analytics; z naszego doświadczenia wynika, że jest on najbardziej właściwy tylko przy wszelkich decyzjach podejmowanych spontanicznie, gdy wcześniejsze wizyty użytkownika w serwisie lub znajomość marki mają marginalny charakter;
  • wielowymiarowe - wartość konwersji jest rozdzielana pomiędzy dwie lub więcej (a nawet wszystkie) wizyty użytkownika - są to warianty bardziej złożone i w zdecydowanej większości przypadków również bardziej zbliżone w swoich założeniach do przebiegu realnych procesów decyzyjnych; możemy podzielić je na:
    • proporcjonalne - określające równy (proporcjonalny) udział każdej wizyty użytkownika; jeżeli zatem internauta dokonał zakupu produktu po 5 wizytach w serwisie, według założeń tego modelu, każda wizyta odpowiadała w 1/5 (20%) za końcowy efekt;
    • ważone - określające indywidualne znaczenie każdej wizyty ze względu na czynniki takie jak:
      • kolejność wizyt - wizyty wcześniejsze mają większe znaczenie od wizyt ostatnich w ścieżce konwersji (lub na odwrót); wizyty środkowe mają najmniejsze (lub żadne) znaczenie; brane pod uwagę są wyłącznie wizyty skrajne (pierwsze i ostatnie);
      • czas pomiędzy wizytami - wizyty bardziej rozłożone w czasie mają większe znaczenie (internauta zapomina o ofercie lub produkcie);
      • charakter wizyty - np. jej źródło (sekwencja wizyt z tego samego źródła ma mniejsze znaczenie), czas trwania, ilość odsłon (ignorujemy wizyty jednoodsłonowe);
      • inne - dowolne parametry, które wynikają z indywidualnych uwarunkowań firmy i prowadzonych przez nią działań marketingowych.
Jest to najprostszy podział, a każdy zastosowany model należy jeszcze indywidualnie doprecyzować, biorąc pod uwagę np. wpływ prowadzenia działań marketingowych offline oraz kontakt użytkownika z produktem lub usługą w świecie rzeczywistym.

Niezależnie od tego jakie warianty analizy przyjmiemy, pamiętajmy o jednym - każdy model będzie tak dobry i wartościowy, jak trafne będą założenia i wnioski wyciągane z końcowych obliczeń. Z tego punktu widzenia, lepiej zacząć od modeli prostych, a więc obarczonych mniejszą ilością błędnych założeń, które będą stopniowo coraz bardziej złożone, przy jednoczesnym monitorowaniu zmian jakościowych w efektach końcowych.

Pamiętajmy też, że conversion attribution ma nam pomóc w bardziej dokładnym ustaleniu wartości i faktycznej rentowności podejmowanych działań marketingowych. Obliczenia pozwolą podjąć decyzję o lepszym alokowaniu budżetów reklamowych. Nie bójmy się analizować pośredniego wpływu wizyt na konwersje - myślenie w kategoriach wyłącznie ostatniej wizyty i jej wpływie na decyzję zakupową na szczęście powoli odchodzi do lamusa. Świadczą o tym chociażby realne dane z raportów Google Analytics, które pokażemy... w następnym poście :-)

--
Maciej Gałecki

14 lipca 2011

Analiza ścieżek konwersji - nowe możliwości Google Analytics

Analiza ścieżki konwersji, czyli sekwencji wizyt internauty, który ostatecznie wykonał pożądaną akcję w serwisie, to jedna z najważniejszych, nowych funkcji Google Analytics. Przykładowa ścieżka konwersji może wyglądać np. tak:

(przykładowe dane oparte na realnym zachowaniu internautów w serwisie jednego z naszych klientów)

Poza podstawowymi informacjami możemy również uzyskać dużą ilość bardziej szczegółowych danych o zachowaniu potencjalnych klientów. Na przykład, jako agencję SEM, zainteresują nas poszczególne wyrażenia wpisywane przez internautę w wyszukiwarkę. Przykładowa ścieżka konwersji przedstawiająca wejścia z wyszukiwarek może więc wyglądać w następujący sposób:

(przykładowe dane oparte na realnym zachowaniu internautów w serwisie jednego z naszych klientów)

Będąc certyfikowanym konsultantem Google Analytics, mieliśmy możliwość zapoznać się z nowymi raportami jako jedni z pierwszych, korzystając z przywileju uruchomienia tej funkcji na wybranych kontach naszych klientów. Raporty te przynoszą bardzo wiele ciekawych informacji, których uzyskanie za pomocą Google Analytics wymagało do tej pory raczej zaawansowanych prac i konfiguracji - także od strony technicznej. Mamy nadzieję, że nowe funkcje będą niedługo dostępne poprzez API i będzie je można wdrożyć w aplikacje analityczne, takie jak na przykład BlueStat.

Dwie najważniejsze korzyści płynące z nowych raportów GA to:
  • lepsze zrozumienie sekwencji wizyt i udziałów poszczególnych źródeł ruchu w procesie decyzyjnym prowadzącym do konwersji,
  • możliwość obliczenia wartości sprzedaży przypadającej na każde źródło ruchu lub kampanię, wynikającej z uczestnictwa danego kanału w ścieżce konwersji.
Naszym zdaniem przede wszystkim ten drugi punkt powinien zainteresować osoby odpowiedzialne za realizację działań o charakterze sprzedażowym (lub dowolnym innym policzalnym celu biznesowym), gdyż umożliwia bardzo precyzyjne policzenie wskaźnika ROI działań online. Pozwoli to skuteczniej alokować budżety marketingowe.

Wbrew pozorom, wyniki uzyskane za pomocą nowych raportów Google Analytics mogą istotnie różnić się od tego, co można zobaczyć w standardowej konfiguracji narzędzia, która przypisuje wartości konwersji ostatniej wizycie użytkownika (poza małymi wyjątkami), kompletnie ignorując wizyty wcześniejsze. Pomiar wartości źródeł ruchu w ścieżkach konwersji, które nie zakończyły się bezpośrednią konwersją (inaczej mówiąc - wszystkie wizyty poza ostatnią), wymaga przyjęcia założeń i zbudowania modelu przypisania konwersji (ang. 'conversion attribution'). O tym już niebawem - w kolejnym artykule na ten temat :-)

--
Maciej Gałecki

27 czerwca 2011

5 najważniejszych czynników SEO w 2011

Po dwóch latach od ukazania się pierwszego rankingu czynników mających wpływ na SEO w Internecie dostępne jest kolejne ich zestawienie. Jak wiemy, w marketingu w wyszukiwarkach zmiany w algorytmach są dość częste i niespodziewane. Patrząc więc z tej perspektywy, dwa lata wydają się być przepaścią, ale czy rzeczywiście nią są? Jakie są nowe światowe trendy? Które czynniki zyskały, a które straciły na wartości? No i przede wszystkim - jaka jest przyszłość SEO oraz czy media społecznościowe zaczną grać pierwsze skrzypce w orkiestrze algorytmów Google?

Do odpowiedzi na to pytanie amerykański dostawca narzędzi internetowych SEOmoz podszedł dwutorowo - z jednej strony bazując na własnych badaniach nadzorowanych przez dr. Matt’a Peters’a, przeprowadzonych na imponującej liczbie ponad 10 000 słów kluczowych (szczegółowe informacje o badaniu), z drugiej... na opiniach 132 specjalistów SEO z całego świata, którzy odpowiadali na dziesiątki szczegółowych pytań.

Na tej podstawie stworzono grafiki ilustrujące wpływ różnych czynników SEO na pozycje witryn, zajmowane w wyszukiwarce Google. Sami twórcy badania zastrzegają, że dane przez nich opisywane to tylko korelacja między czynnikami SEO oraz wysokimi bądź niskimi pozycjami strony. Nie znaczy to więc, że są one de facto bezpośrednią przyczyną osiąganych rankingów. Nie da się jednak ukryć, że podane poniżej wskaźniki zostały zaobserwowane na stronach wysoko usytuowanych w wynikach wyszukiwania. Jak mówi CEO SEOmoz Rand Fishkin: „Correlation is not a causation”, czyli korelacja to nie przyczyna.

Po przeczytaniu tego obszernego raportu wybraliśmy 5 czynników, które wydały nam się najbardziej interesujące dla specjalistów SEO, marketerów i ludzi dbających o rozwój marki w Internecie.

  1. Zarówno badania jak i opinie ekspertów potwierdziły coraz mocniejszy wpływ social media na SEO. Można zaobserwować korelację między współdzieleniem linków, like`ów, komentarzy na Facebooku i tweet`ów na Twitterze oraz pozycjami strony w rankingach. Na razie nie są to duże wpływy (1% wzrostu znaczenia tego czynnika w porównaniu do 2009 roku), jednak metodologia badania była inna, więc trudno te wartości bezpośrednio porównywać. Spodziewaliśmy się tego zwłaszcza po integracji w październiku 2009 (czyli 2 miesiące po opublikowaniu poprzedniego raportu SEOmoz) silnika Twittera z wynikami wyszukiwania Google w ramach Universal Search oraz dzięki wszędobylskim przyciskom „Like”.

    Należy się spodziewać, że z czasem tego typu sygnały z Social Media będą miały coraz większy wpływ na SERP’y, a na znaczeniu zyska reputacja osób, które współdzielą informacje na FB czy Twitterze. Naszym zdaniem również Google`owy przycisk "+1" zacznie przybierać na wartości, ale pewnie przez pierwsze 3 do 12 miesięcy nie będzie to tak bardzo odczuwalne, bo technologia musi zostać przetestowana. Pięć miesięcy po włączeniu tweet’ów w SERP’ach Google, Bluerank przeprowadził testy, których wyniki opublikowaliśmy na blogu SEOmoz wykazując, że Twitter ma dodatkowo wpływ na szybkość indeksacji nowych treści. Wszystkie powyższe sygnały czynią z social media silne wsparcie dla działań SEO i najprawdopodobniej wciąż będą przybierać na znaczeniu w 2011 / 2012 roku.

    Jak powiedział Julian Grainger z Unique Digital: „Page rank was a voting system for websites by websites. Now we are moving to a popularity system. Power to the people.” Coraz większą rolę w procesie ustalania rankingów będą więc odgrywać ludzie oraz ich subiektywne doznania.

  2. Bardzo ciekawe spostrzeżenie, zwłaszcza dla link builderów. To przecież większa korelacja między rankingami i rozbudowanymi anchor tekstami dla linków (klikalna część odnośnika), niż dokładnymi anchor tekstami. Google dużo chętniej nakłada filtry i kary dla stron z nienaturalnie perfekcyjnymi pod kątem SEO linkami prowadzącymi do serwisu. Stąd bardzo ważny jest umiar i rozwaga, zwłaszcza dla witryn, które nie mają solidnej pozycji i silnej marki w wyszukiwarkach (chodzi o siłę popartą linkami przychodzącymi na hasła związane z marką). Analizując dalej, na wartości mocno zyskała ilość unikalnych domen linkujących do danej strony (najlepiej opartych na różnych adresach IP). W konsekwencji kilka mocnych linków z różnych domen będzie bardziej wartościowych od odnośnika ze wszystkich podstron danej strony. Teza ta wydawała nam się słuszna już od jakiegoś czasu, ale teraz została wsparta badaniami i opiniami ekspertów. Bazując na wiedzy czerpanej z własnych projektów możemy dodać, że dla silnych, ugruntowanych marek, często już niewielka ilość wartościowych linków z odpowiednim anchor tekstem, może znacząco zwiększyć pozycje w rankingach dla wybranych słów kluczowych.

  3. Kolejnym elementem, który zyskał na wartości jest tzw. QDF (query deserves freshness). Dotyczy on głównie stron, na których często zmieniają się informacje i które są często aktualizowane np. gazety internetowe, serwisy informacyjne, czy ogłoszeniowe itp. Google wyraźnie faworyzuje ”świeży content” odzwierciedlając naturalną potrzebę internautów szybkiego pozyskiwania wiedzy na temat tego, co dzieje się ”tu i teraz”. Eksperci SEO podkreślali jednak, że nie każdy serwis z założenia potrzebuje często nowych treści, więc uaktualnianie ”na siłę” stron, które tego nie potrzebują jest pewnego rodzaju nadużyciem. Reasumując, ”świeżość” informacji jest na topie, więc warto dbać o aktualność oferty na stronach firmowych oraz w social media, bo w ostatecznym rozrachunku może mieć to wpływ na pozycjonowanie serwisu.

  4. Kolejnym sygnałem mającym wpływ na SERP’y jest siła marki, objawiająca się zarówno linkami prowadzącymi do domeny poprzez anchor tekst związany z marką, jak i jej ogólna obecność w Internecie np. częste wzmianki w newsach. Każda marka promowana online powinna mieć swój profil na FB, Twitterze, Linkedin. Istotna wydaje się również duża ilość zapytań dla słów kluczowych związanych z marką, wpisywanych w Google. Te wszystkie czynniki mają wpływ na siłę i pozycję marki, a co za tym idzie na większe możliwości zajęcia wysokich miejsc w rankingach przy dobrej optymalizacji i pracy nad pozyskiwaniem wartościowych linków zwrotnych.

  5. Google coraz większą wagę przykłada też do satysfakcji użytkowników. Tutaj po QDF (opisanym w punkcie 3), istotne jest czy treść zaspokaja potrzeby odwiedzających oraz czy jest atrakcyjna wizualnie, merytorycznie i podana w zrozumiały, użyteczny sposób. Google może badać to poprzez różne parametry:
  • Czy użytkownicy powracają do strony (czy chętnie klikają daną stronę w SERP’ach)?
  • Czy chętnie polecają stronę swoim znajomym poprzez serwisy społecznościowe?
  • Czy nie wychodzą ze strony do wyników wyszukiwania tuż po wejściu na nią klikając „wstecz” w przeglądarce (wysoki współczynnik odrzuceń świadczy o niskiej satysfakcji użytkowników)...

Wpływ na satysfakcję oraz rankingi może mieć też stosunek reklam do treści. Jeśli jest zbyt wysoki strona może zostać uznana za mało wartościową, a i przyjemność z jej przeglądania też będzie pewnie mniejsza.

--
Mateusz  Kicki - SEO Specialist w Bluerank