23 grudnia 2009

Nadszedł ten czas...

... kiedy już wszyscy powoli zbierają się do domu i przestają myśleć o pracy... My też zaraz wychodzimy (i wrócimy dopiero w przyszłym roku ;) więc... chcieliśmy Wam złożyć życzenia.

Oby Wasze pozycje w Google i wszystkich innych wyszukiwarkach poszybowały w górę. Obyście mieli tyle konwersji, ile płatków śniegu podczas najsroższej zimy, jaką pamiętacie... I oby Wasi klienci byli w szampańskich nastrojach przez cały następny rok.

Tego Wam życzy ekipa Bluerank :-)

PS
Chętnych zapraszamy do naszej galerii zdjęć z serii - jak blueranki przygotowywały tegoroczne prezenty gwiazdkowe :-)

--
Redakcja

22 grudnia 2009

Budowanie popularności strony

"(...) Za działania zgodne z regulaminami najpopularniejszych wyszukiwarek uważa się pozyskiwanie backlinków z miejsc niezależnych od agencji świadczącej usługi SEO. Chodzi o wyszukiwanie serwisów, które byłyby zainteresowane linkowaniem do strony docelowej; prowadzenie działań public relations; aktywność agencji na forach internetowych – inicjowanie, śledzenie i stymulowanie dyskusji na tematy związane z działalnością klienta. To tylko część ze sposobów budowania pozycji witryny. Ciekawym pojęciem jest link baiting (ang. zarzucanie przynęty na link). Celem tych działań jest zdobywanie darmowych linków kierujących na naszą stronę - wyjaśnia Patrycja Tomczak, SEO specialist łódzkiej agencji Bluerank. Metody są dowolne – od zbudowania nowej strony, po pisanie ciekawych artykułów, kontrowersyjny post na blogu albo ciekawy news, który zauważą i zaczną linkować internauci. Na zachodzie osoby odpowiedzialne za budowanie odnośników określa się link builderami (...)"

Czytaj dalej >> artykuł na interaktywnie.com - "Pozycjonowanie ewoluuje"

--
Aneta Mitko

21 grudnia 2009

Wyszukiwarka nr 1

W Rosji to Yandex. W Chinach - Baidu.

W Rosji 55% wizyt na stronach WWW rozpoczyna się właśnie od wyszukiwarki. Yandex. Baidu natomiast - dzięki ogromnej popularności w Chinach - jest obecnie trzecią największą wyszukiwarką na świecie... która odnotowała właśnie blisko 8 miliardów wyszukiwań...

Czytaj dalej (źródło - Gemius SA, gemiusTraffic) >>

--
Aneta Mitko

19 grudnia 2009

Pakiety słów kluczowych

W październiku br. Google obiecało udostępnić pakiety słów kluczowych, pomocne małym firmom w prowadzeniu kampanii linków sponsorowanych. Obietnica została spełniona - pakiety dla wybranych branż są już dostępne online.

Pakiety zawierają pomysły na słowa i frazy kluczowe dostosowane do danej branży. Stworzone są one w formie przykładowych struktur kampanii, dlatego słowa kluczowe podzielone są od razu na grupy reklam. Dodatkowo, pakiety pokazują - jak za pomocą słów kluczowych tworzyć kampanie lokalne.

Jak korzystać z pakietów słów kluczowych, pokazuje krótki filmik instruktażowy przygotowany przez Google.



Na chwilę obecną udostępnione zostały pakiety dla następujących sektorów: budownictwo, dom i ogród, edukacja, finanse, gastronomia, motoryzacja, nieruchomości, nowe technologie, odzież, praca, reklama, rozrywka, RTV i AGD, sprzedaż, turystyka, usługi oraz zdrowie i uroda.

Przykładowy pakiet słów kluczowych przeznaczony dla firm branży reklamowej oferujących usługi typu 'reklama w wyszukiwarkach' (wraz z możliwym podziałem na grupy reklamowe)... znajdziecie tutaj.

Komu przyda się taka pomoc?
Przede wszystkim osobom i firmom niedoświadczonym w temacie prowadzenia kampanii linków sponsorowanych. Analiza i dobór odpowiednich słów kluczowych to połowa sukcesu w takich działaniach. To nie tylko zapewnienie odpowiedniej ilości odsłon reklamy / wejść na stronę, ale także optymalny koszt kliknięcia...

--
Aneta Mitko

18 grudnia 2009

Promocyjne kampanie reklamowe dla MŚP

Sembox - nowa agencja search engine marketing, utworzona właśnie przez Bluerank na potrzeby polskiego rynku MŚP, przygotowała na nadchodzący 2010 rok promocyjną ofertę na kampanie linków sponsorowanych dla mikro- i małych przedsiębiorstw.

Szczegóły znajdziecie w informacji prasowej - "Kampanie reklamowe dla MŚP".

Firmy zainteresowane współpracą mogą kontaktować się bezpośrednio z biurem Sembox.

--
Aneta Mitko

17 grudnia 2009

Marketing w wyszukiwarkach - raport

Portal interaktywnie.com wraz z Partnerami - IAB Polska, Money.pl oraz agencją Bluerank wydał właśnie raport poświęcony marketingowi w wyszukiwarkach internetowych... a w nim między innymi:

Zachęcamy do lektury.
Marketing w wyszukiwarkach - raport do pobrania (PDF).

Jeżeli macie jakiekolwiek pytania merytoryczne - prosimy o kontakt.

--
Aneta Mitko

16 grudnia 2009

Porównanie backlinków serwisów SEM

Kiedyś pisaliśmy o tym, że PR (page rank) serwisu internetowego jest swego rodzaju recenzją tego serwisu… że coraz częściej parametr ten w oczach internautów staje się taką uniwersalną miarą jakości witryny (mimo, że de facto traci na znaczeniu). Dziś proponujemy przyjrzeć się innemu kryterium oceny stron WWW (zresztą jednemu z najważniejszych – wg seomoz.org), mianowicie backlinkom, tj. ilości i jakości odnośników prowadzących do wybranych – ocenianych serwisów.

Dla zobrazowania możliwości oceny czy też porównania witryn na tym polu, wzięliśmy na warsztat kilka serwisów z naszego podwórka, tj. stron poruszających zagadnienia SEO i / lub PPC (search engine marketing).



Dane zaprezentowane w tabeli zebrano w listopadzie br.
(źródła: Yahoo, SEOmoz,org, Google, Bluerank).

* nie było możliwości sprawdzenia liczby linków do stron w podkatalogu

Cóż zatem można oceniać przyglądając się backlinkom danego serwisu?

Warto na przykład sprawdzić, jaki procent odnośników przychodzących pochodzi z jakich stron, tzn. ze stron o jakim PR. My przyjrzeliśmy się próbie tysiąca backlinków dla wybranych – wymienionych wyżej serwisów SEM.

Analizy takie jak ta ułatwiają ocenę własnego serwisu, pozwalają na przykład porównać się do liderów swojej branży, aby odpowiedzieć sobie na pytanie - co należy zrobić w zakresie link buildingu, żeby zrównać się z najlepszymi… a nie jest to łatwe do osiągnięcia. Trzeba sobie na to zapracować (jakością serwisu, ilością treści, częstotliwością aktualizacji strony, stażem domeny / witryny, etc.).

Wykres przedstawia zestawienie 1000 backlinków dla każdego z w/w 8 serwisów WWW. Kolorystyczne oznaczenia na słupkach prezentują ilościowe porównanie backlinków ze stron z PR0, PR1, PR2, PR3… itd.


Jak widać, najwięcej backlinków – we wszystkich przypadkach – serwisy zawdzięczają (teoretycznie) mało wartościowym stronom z parametrem PR 0, a także serwisom z PR 1 i PR 2. Odnośniki ze stron o wartości PR 3, 4 i 5 pojawiają się jeszcze prawie u wszystkich, natomiast backlinki ze stron o PR 6, PR 7 i PR 8… już tylko w jednym / dwóch przypadkach… Jest to m.in. blog ittechnology.us, który ma nieco „uprzywilejowaną” sytuację, ponieważ jest powiązany z oficjalnymi (wartościowymi) stronami Google (na 1000 jego backlinków 951 pochodzi z oficjalnego bloga Google…). To pokazuje, że warto przy ocenie serwisu przyjrzeć się także TOP 5 domenom, z których pochodzą backlinki. W tym miejscu warto przypomnieć, że różnorodność domen ma znaczenie dla algorytmów wyszukiwarki (o czym traktuje m.in. materiał opublikowany na seomoz.org).

Jak to wyglądało dla rozpatrywanych przez nas serwisów?


Tak jak wspomnieliśmy wcześniej, zestawienie pokazuje wyraźną zależność serwisu IT Technology od GoogleBlog. Serwisowi Magiczne SEO i SEM można pogratulować backlinków od konkurencji :) co nieczęsto się zdarza. W przypadku ACR Blog natomiast, na pierwszy plan wysuwają się domeny, które nie są bezpośrednio związane z SEM czy marketingiem.

W podobny sposób możemy przeprowadzać analizy serwisów konkurencji, które są na pierwszych miejscach wyników wyszukiwania. Dzięki temu poznajemy idealną charakterystykę linków zewnętrznych, do której powinniśmy dążyć, jeżeli chcemy doścignąć konkurencję.

Ponadto, podobna analiza naszych serwisów może ukazać potrzebę pozyskiwania bardziej wartościowych linków. Na przykład w przypadku w/w serwisu ACR, ponad 98% linków to te z Page Rank’iem 0 lub żadnym (czyli takie, które nie zostały jeszcze zindeksowane lub nie mają nadanego PR). Tak wysoki udział niskiej jakości linków może być niebezpieczny dla serwisu gdyż „w oczach” algorytmów Google może on świadczyć o wykorzystaniu systemów wymiany linków i innych spamerskich sposobów pozyskiwania odnośników.

--
Maciej Gałecki

15 grudnia 2009

Liczy się TOP 10

Europejscy internauci korzystający z wyszukiwarek są niecierpliwi. Liczy się dla nich właściwie tylko pierwsze 10 wyników wyszukiwania. Jeśli tam nie ma tego, czego szukają - opuszczają stronę lub rozpoczynają nowe wyszukiwanie. To najważniejsze wnioski z raportu IAB Europe.

Ponad 40% użytkowników sprawdza tylko 10 pierwszych wyników. 70% rezygnuje z wyszukiwania po przejrzeniu pierwszych 20 wyników...

--
Aneta Mitko

11 grudnia 2009

Zapytaj eksperta – reklama kontekstowa

Dlaczego warto reklamować się w sieciach kontekstowych?

W sieciach kontekstowych wyjątkowo warto reklamować się wówczas, gdy zależy nam na pozyskaniu ruchu, przy jednoczesnej kontroli jakości wizyt. Przewaga sieci kontekstowych nad kampaniami odsłonowymi polega na doprecyzowaniu wyboru miejsca emisji poprzez odpowiednie i interesujące nas słowa kluczowe. Pozwala to na emisje w 'dobrym' kontekście :) (BTW to parafraza sloganu sieci adkontekst.pl).
Przykładowo, program AdWords pozwala na:

  • emisje w sieci partnerskiej wtedy, gdy system odnajdzie w treści strony interesujące nas frazy,
  • emisje na wybranych przez nas witrynach,
  • emisje na wybranych witrynach z możliwością decydowania, na których podstronach ma pojawić się reklama (poprzez użycie odpowiednich fraz… system w obrębie witryny wyszukuje podstrony z tymi frazami i tylko tam emituje reklamę).
Ponadto, program AdWords (ale nie tylko on) daje nam dodatkowe narzędzia kontroli, które pozwalają na wykluczenie niechcianych witryn, gdyby jednak system akurat właśnie tam zaczął pokazywać naszą reklamę.

Jakie są plusy i minusy takich działań… chodzi o wykorzystanie sieci kontekstowych?

Zalety…
  • możliwość budowania zasięgu,
  • płatność w systemie CPC i CPM (możliwość wyboru; CPM pozwala na pozyskanie jeszcze większego zasięgu, z CPC płacimy za faktyczną wizytę w serwisie, w przeciwieństwie do typowych kampanii odsłonowych),
  • automatyczne dopasowanie strony z treścią do promowanego produktu / usługi (poprzez zdefiniowanie w kampanii słów kluczowych),
  • geotargetowanie, wybór czasu emisji (identycznie jak w przypadku kampanii w wyszukiwarkach),
  • w przypadku kampanii kontekstowych emitowanych na wybranych przez reklamodawcę witrynach, istnieje możliwość targetowania demograficznego (jednak w Polsce nie do końca działa to poprawnie - mowa o AdWords),
  • istnieją również sieci kontekstowe, gdzie można targetować demograficznie np. facebook.com, linkedin.com, itp. (zwykle są to serwisy społecznościowe, które umożliwiają reklamę kontekstową),
  • możliwość emisji różnych form reklamowych, nie tylko tekstowych, ale również graficznych, animacji, video, widgetów, form tekstowo - graficznych, linków śródtekstowych (również z elementami grafiki i animacji),
  • możliwość kreacji popytu (coś, co w reklamie w wyszukiwarkach nie do końca się sprawdza, gdyż tam należy się skupić na odpowiedzi na konkretną potrzebę wyrażoną w zapytaniu).
Wady…
  • pomimo narzędzi do wykluczania niechcianych stron z emisji, trudno momentami ogarnąć, skąd pochodzi ruch i zapanować nad tym, zwłaszcza jeśli kampania idzie bardzo szeroko; system stara się dopasować strony emisji do np. zdefiniowanych przez nas haseł, ale często nie jesteśmy w stanie przewidzieć kontekstu…przykład à kampania turystyczna zorientowana na promocje kierunków egzotycznych, w słowach kluczowych pojawia się ‘Kuba’, efekt – emisja reklamy m.in. na stronach typu pudelek.pl, kozaczek.pl, na podstronach informujących o najnowszych plotkach z życia Kuby Wojewódzkiego tudzież Kuby Wesołowskiego… :) szybka reakcja PPC Managera jest w stanie zniwelować taki stan rzeczy…
  • zagrożenie związane z fałszywymi kliknięciami; w Sieci jest sporo tzw. witryn MFA (made for AdSense), które zawierają niewiele treści, ale są naszpikowane hasłami związanymi z nośnym tematem np. ubezpieczenia… strony te również charakteryzują się dużą ilością modułów AdSense, czasem w ilości niedozwolonej… kliki pochodzące z tych stron są również wątpliwej jakości…
  • powszechnie uważa się, że reklama w sieci kontekstowej nie przekłada się bezpośrednio na konwersje (zwłaszcza zakupowe, bo te związane z rozrywka, np. rejestracja w konkursie online, wypadają akurat niezwykle dobrze)… reklama taka może jednak działać wizerunkowo i informacyjnie, stąd wprowadzenie w AdWords tzw. konwersji po wyświetleniu dla reklam graficznych (system bada konwersje od użytkowników, którzy widząc reklamę graficzną w sieci w nią nie kliknęli, ale dokonali konwersji w ciągu 30 dni wchodząc bezpośrednio, bądź klikając w link).
Dla kogo przeznaczona jest reklama w sieciach kontekstowych? Kto powinien z nich korzystać, a komu należałoby je odradzić?

Korzystać z reklamy kontekstowej może każdy… :) Należy postawić jedynie pytanie o cel kampanii. Jeśli celem są konwersje, zwłaszcza zakupowe, bądź takie związane z poważnym tematem np. ubezpieczenia, kredyty itp. to przy ograniczonym budżecie Klienta (którego nie stać na akcje wizerunkowe) odradza się tego typu działania. Jeżeli natomiast celem kampanii jest zbudowanie zasięgu, to ten kanał jest wręcz wymarzony. Najczęściej jednak stosuje się zarówno kanał „Szukaj”, jak i kanał „Kontekst”, ale w z góry określonej proporcji, np. 80% „Szukaj”, pozostałe 20% „Kontekst” (po to właśnie, by wzbudzić potrzebę, która później zostanie wyrażona w zapytaniu do wyszukiwarki).
Przykład --> case study (dane z listopada 2009)

Emisja jednoczesna kampanii tekstowej w kanale „Szukaj” i graficznej w sieci kontekstowej Google dla Klienta z branży finansowej... Konwersją jest wypełnienie wniosku online.

Konwersji po wyświetleniu grafiki było o 20% więcej, niż konwersji pochodzących bezpośrednio z kampanii w „Szukaj”. Jednocześnie, kampania graficzna wygenerowała 50 razy więcej odsłon, niż było zapytań w kampanii w kanale „Szukaj” (jak widać zasięg był całkiem spory). Wejść z kampanii graficznej było jednak o 42% mniej, niż z kampanii w „Szukaj”. W październiku 2009 nie była prowadzona kampania graficzna, w porównaniu zatem do października, liczba konwersji z kanału „Szukaj” wzrosła o 20%. Trzeba jednak pamiętać, że część użytkowników mogła wejść na stronę bezpośrednio, bądź z naturalnych wyników wyszukiwania.


Jakie trendy przewidujecie na najbliższy rok dla rynku reklamy w sieciach kontekstowych?
Rynek reklamy kontekstowej będzie się nadal rozwijał. Widać to wyraźnie po działaniach reklamobiorców w tym obszarze. Powstają nowe programy (np. spolecznosci.pl, który zrzesza serwisy społecznościowe i proponuje reklamę kontekstową również z wykorzystaniem targetowania demograficznego). Bardzo rozwija się także reklama inVideo, z którą do Polski już wszedł Youtube, a będzie to rozwijał jeszcze bardziej w 2010 r. W jego ślady idą lub pójdą inne serwisy zawierające treści video.

Przyszłością, stosunkowo niedaleką, będzie reklama kontekstowa w grach online (na razie dużo się o tym mówi, ale nie jest to jeszcze tak powszechne i dostępne, jak zwykła reklama kontekstowa na stronach z treścią).
Warto też wspomnieć w tym miejscu o retargetingu, który może polegać na identyfikowaniu użytkownika widzącego reklamę w sieci kontekstowej, klikającego w nią i nie konwertującego, bądź nie klikającego (mechanizm podobny, jak przy konwersji po wyświetleniu). Tak oznaczonemu użytkownikowi, w momencie wykonania już konkretnego zapytania do wyszukiwarki, można podsuwać w linkach tekstowych komunikat skierowany bezpośrednio do niego i odnoszący się, do reklamy, którą widział w kontekście, jednocześnie zachęcając do konwersji (np. odpowiednim rabatem). Tego typu dodatkowe narzędzia na pewno wpłyną pozytywnie na rozwój i popularyzację sieci kontekstowych.

--
Aneta Mondry
Aneta Mitko

10 grudnia 2009

Cele w Google Analytics oraz… mała rzecz, a cieszy :) - funkcja „pivot”

Google Analytics jest ciągle ulepszany i sukcesywnie zyskuje nowe funkcjonalności. Ich wzbogacenie nastąpiło między innymi w obszarze celów.

Obecnie, w ramach jednego profilu, można skonfigurować do 20 celów, które są podzielone na 4 grupy. W jednej grupie możemy ustawić 5 celów. Dodatkowo, zmiany dotyczą również tego, co może być celem. Jest to bardzo istotna zmiana, ponieważ - oprócz ustawienia jako konwersji wybranego adresu URL - zyskaliśmy możliwość konfiguracji czasu spędzonego na witrynie oraz ustawienia pożądanej liczby stron na wizytę.



Do analizy konwersji na cel „on the fly” możemy również wykorzystać inną funkcjonalność dostępną w Google Analytics, tj. skorzystać z „zaawansowanych segmentów” i skonfigurować segment ukierunkowany na konkretny adres URL naszej ”thank you page”. Przykład wykorzystania zaawansowanych segmentów został między innymi przedstawiony przez Mariusza Gąsiewskiego na Jego blogu.

A teraz mała rzecz, która cieszy ;) czyli funkcja „ pivot”…

Dzięki „pivotowaniu” jesteśmy w stanie realizować raporty w postaci wygodnej tabeli. Przykładem takiego raportu będzie raport SEO, w którym w jednym widoku w postaci tabeli będziemy mieli słowa kluczowe (w wierszach) oraz adresy stron docelowych (w kolumnach). Raport ten będzie miał następująca postać…



Dzięki zastosowaniu funkcji „pivot”, dane są dostępne w jednym widoku - od razu mamy tu liczbę „unikalnych” słów kluczowych, które sprowadzają ruch na 35 stron docelowych. Oczywiście nic nie stoi na przeszkodzie, aby w wierszach ustawić landing page, a w kolumny wprowadzić słowa kluczowe. W obszar danych możemy wprowadzić „odwiedziny” lub inną, jedną z dostępnych wielkości.



Zachęcamy do zabawy w „pivotowanie” :) oraz do odkrywania nowych możliwości GA.

--
Konrad Dopieralski

9 grudnia 2009

Kolejne szkolenie Google Analytics

16 lutego 2010 r. Bluerank zaprasza do Łodzi
Proponujemy szkolenie dla firm zainteresowanych wykorzystywaniem w swoich działaniach e-marketingowych narzędzia analityczno – statystycznego Google Analytics.

Program szkolenia przygotowany został z myślą o osobach odpowiedzialnych za realizację działań e-marketingowych w firmie. Google Analytics to idealne narzędzie dla marketerów, którzy stawiają sobie za cel podniesienie efektywności działań reklamowych online – czy to w odniesieniu do kampanii linków sponsorowanych, czy użyteczności strony WWW.

Uczestnicy szkolenia dowiedzą się między innymi:

  • jak badać zachowania użytkowników serwisu oraz jak wyniki tych badań przełożyć na zwiększenie biznesowej skuteczności witryny;
  • w jaki sposób można poprawić formularz online, aby za jego pomocą efektywniej niż dotychczas zbierać informacje na temat swoich klientów lub potencjalnych klientów;
  • co zrobić, aby zwiększyć skuteczność swoich e-mailingów reklamowych;
  • jak można wykorzystać Google Analytics dla zwiększenia sprzedaży online;
  • w jaki sposób przy pomocy GA zoptymalizować działania reklamowe w wyszukiwarkach, aby zwiększyć ROI.
Autorem i organizatorem szkolenia jest Bluerank – uczestnik programu GAAC oraz certyfikowany konsultant Google (Google Analytics Authorized Consultant). Wykłady prowadzi Tomasz Lewandowski. Zgłoszenia zbierane są do końca stycznia 2010, pod adresem szkolenia@bluerank.pl.
PS
Program szkolenia – ze względu na pojawiające się cały czas nowe funkcje Google Analytics - może zostać rozbudowany. Zgłoszenia zbierane są do końca stycznia 2010, pod adresem szkolenia@bluerank.pl.

--
Aneta Mitko

8 grudnia 2009

Nieetyczne pozycjonowanie - FAQ

Jak można zdefiniować nieetyczne metody pozycjonowania?

Nieetyczne metody pozycjonowania to termin, który budzi wiele kontrowersji w środowisku SEO, jest to bowiem pojęcie dość płynne. Agencje search engine marketing zrzeszone w IAB Polska przyjęły jednak pewien standard i tego się trzymają. Otóż... za "nieetyczne", nielegalne czy też niedozwolone techniki SEO uważa się te metody, które nie są zgodne z regulaminami (wytycznymi) wyszukiwarek internetowych, oraz które zaprzeczają idei dostarczania użytkownikom Sieci wysokiej jakości (i adekwatnych do zapytań) wyników wyszukiwania. Pierwsze zestawienie technik black hat SEO przygotowane zostało i opublikowane przez IAB Polska na przełomie 2004 i 2005 roku.

Wśród metod niezgodnych z zasadami znajdują się m.in.: wprowadzanie słów kluczowych sprzecznych z treścią witryny, ukrywanie ich poprzez użycie tekstu w kolorze tła, stosowanie ukrytych warstw, czy tzw. cloaking, czyli serwowanie robotom wyszukiwarek specjalnie spreparowanej wersji strony... Czy w chwili obecnej, w wyniku zmian w branży SEO, doszły jakieś inne, nieakceptowane sposoby pozycjonowania?

Od kilku lat na pierwszym planie w tym temacie są tzw. SWL'e. To - budzące wiele kontrowersji w branży - systemy wymiany linków, które chętnie stosowane są przez środowisko black hat SEO, ale w oczach internautów nie są one wartościowe czy użyteczne. Wyszukiwarki też ich "nie lubią" :).

Co może grozić w przypadku stosowania poszczególnych nieetycznych metod pozycjonowania?

Istnieją różne formy kar nakładanych przez Google za stosowanie black hat SEO. Strona może być usunięta lub czasowo usunięta z indeksu wyszukiwarki. Jej dotychczasowa pozycja może zostać obniżona o X miejsc. Strona może nie pokazywać się w naturalnych wynikach wyszukiwania na określone zapytanie (słowo lub frazę kluczową). Pamiętać należy przy tym, że niektóre kary nakładane są na określony czas (i jest to niezależne od naszych działań), a niektóre obowiązują do momentu, w którym naprawimy swój błąd. I tak na przykład, jeśli dana witryna pozycjonowana jest z użyciem ukrytego tekstu na jej stronach, a Google to wykryje i nałoży karę, będzie ona cofnięta dopiero wtedy, gdy ukryty tekst zostanie ze strony usunięty. Jeżeli na przykład jakaś witryna z zupełnie "świeżą" domeną zyskała bonusowo (za tę świeżość) wysokie pozycje naturalne w Google, a potem je straciła... trzeba po prostu odczekać... A jeżeli z kolei na pozycjonowanej stronie umieszczono skopiowaną z innej strony WWW treść (tzw. duplicate content), strona taka w ogóle nie ma szans na osiągnięcie wysokich pozycji w Google... Jak widać, warto się orientować w tym, co dozwolone, dopuszczalne, zakazane... bo niewiedza (i stosowanie nielegalnych technik SEO) może drogo kosztować.

Czy prawdą jest, że nieetyczne metody przynoszą efekty w szybszym tempie niż normalne działania SEO? Czy może jest to tylko złudne wrażenie?

Hm... To trochę tak, jak z chodzeniem na skróty. Może się udać i dojdziemy szybciej, ale droga jest mniej pewna i... możemy się na przykład zgubić. Idąc oficjalnie ustaloną trasą dojdziemy na pewno, choć chwilę później. Może black hat SEO daje efekty szybsze, ale white hat SEO przynosi korzyści trwalsze. Trzeba ocenić, co się bardziej opłaca i wybrać właściwe rozwiązanie.

Obecnie branża SEO uległa znacznej profesjonalizacji. Czy w związku z tym można obserwować zanik stosowania nieetycznych form pozycjonowania, czy może „nieetyczna nisza” jest od lat tych samych rozmiarów?

Tak - owa profesjonalizacja branży SEO to między innymi właśnie także etyka. To rozwój agencji, w których pracują kompetentne i wyspecjalizowane zespoły ludzi mających świadomość tego - dlaczego nie warto stosować black hat SEO. Mówiąc brutalnie i wprost - polega to na tym, że coraz mniej wykonawców decyduje się na oszukiwanie klientów... Jeśli nawet stosują "nielegalne" metody pozycjonowania, starają się uprzedzać o ewentualnych konsekwencjach (tych dobrych i tych złych). To najważniejsze w procesie edukowania rynku w temacie white i black hat SEO - żeby klient wiedział na co się decyduje. A klientów wymagających bezpieczeństwa w tym zakresie jest coraz więcej. Wielu z nich doświadczyło już kar Google i nie chcą powtarzać błędów.

A jaka jest świadomość klientów? Zdają sobie sprawę z potencjalnych zagrożeń, wynikających z nieetycznego SEO?

Niestety, najlepiej uświadomieni są ci klienci, którzy już się sparzyli na tzw. black hat SEO. Do Bluerank często trafiają takie właśnie firmy szukając ratunku po tym, jak ich serwis nagle zniknął na przykład z indeksu Google. Wtedy zaczynają się interesować - dlaczego tak się stało, co można zrobić, aby naprawić sytuację i uniknąć podobnych w przyszłości... bo to przecież naraża ich na konkretne straty finansowe. Jest też druga grupa klientów, która martwi się nie tyle (lub nie tylko) o straty finansowe, ale również o kwestie wizerunkowe. To najczęściej duże marki, dla których reputacja jest sprawą bardzo istotną. Takie firmy nie mogą pozwolić sobie na stosowanie w jakikolwiek sposób "podejrzanych" metod pozycjonowania. Klienci reprezentujący takie podmioty wiedzą tyle - i to wystarcza, aby nastawili się na nawiązywanie współpracy z odpowiednimi agencjami SEO. Nie wybierają oni przypadkowych wykonawców.

Jeszcze kilka lat temu, spora grupa klientów zainteresowanych usługami SEO, stawiała na efekty, nie licząc się z konsekwencjami działań niezgodnych z zasadami. Czy dziś ta świadomość jest już wyższa? Łatwiej przekonać klienta, że nie tędy droga?

Na pewno łatwiej przekonać klienta, że nie tędy droga... choćby dlatego, że same wyszukiwarki "dużo mówią" na ten temat. Powszechnie dostępne są ich regulaminy, wszelkiego rodzaju porady dla webmasterów i inne wytyczne, w których wyraźnie podkreśla się, co może poprawić pozycję strony, a co może spowodować jej spadek lub czasowe wyrzucenie z indeksu. Coraz częściej też możemy przeczytać wywiady ze specjalistami Google odpowiedzialnymi za jakość wyników wyszukiwania, w których to wywiadach polecają na przykład wymagać od wykonawcy SEO jasnego zobowiązania do stosowania etyki white hat, ponieważ bez niej nie można wykluczyć użycia podejrzanych metod... A jak wiadomo, coś takiego może na dłuższą metę wyrządzić więcej szkód niż pożytku.

Czy można już coś powiedzieć na temat nieetycznych metod pozycjonowania w Bingu?

Stopień "nieetyczności" poszczególnych metod SEO pozostaje ten sam, niezależnie od wyszukiwarki (bo to dotyka szerszego problemu - etyki w biznesie w ogóle). Można mówić tu natomiast o tym, co jest legalne lub nielegalne wedle zaleceń danej wyszukiwarki... a to z kolei bardzo często wiąże się na przykład z jej zaawansowaniem technologicznym i możliwościami weryfikowania stosowanych przez pozycjonerów metod. To już zupełnie inny problem... Zatem... Pozycjonując serwis WWW w wyszukiwarce Bing, tak jak w każdej innej wyszukiwarce, nie powinno się spamować, oszukiwać użytkownika i obniżać jakości wyników wyszukiwania. Czy natomiast Bing potrafi to wykryć i ukarać za ukryty tekst czy duplikowaną treść... O to należałoby spytać tych, którzy praktykują black hat SEO :-)

--
Aneta Mitko

7 grudnia 2009

Gogle Google i nie tylko...





--
Aneta Mitko

4 grudnia 2009

Indeksacja stron listingów serwisów ogłoszeniowych

Jak wiadomo, roboty wyszukiwarek chętniej i częściej odwiedzają popularne podstrony serwisu, czyli te o największej liczbie linków docelowych (zarówno znajdujących się w ramach serwisu, jak i linków z zewnątrz). Zazwyczaj jest tak, że architektura serwisu jest wyraźnie skorelowana z popularnością stron. Strona główna jest najczęściej linkowana i ma największą popularność, później są poszczególne kategorie, podkategorie, a na końcu najgłębiej zagnieżdżone strony (artykuły, ogłoszenia, produkty). Oczywiście wśród tych ostatnich mogą też znaleźć się wyjątki, na przykład popularny produkt, czy szczególnie interesujący artykuł.

Moc poszczególnych podstron dobrze obrazuje poniższy diagram z artykułu na blogu SEOmoz.



Ciemnoróżowe punkty to podstrony najczęściej linkowane z zewnątrz, o najwyższym współczynniku external link popularity. Jak widać, przenoszą one popularność na sąsiadujące z nimi podstrony, które z kolei przesyłają część popularności dalej. Wszystkie pozostałe punkty to podstrony, które są daleko od miejsc wejść robotów wyszukiwarek, co powoduje, że szansa na ich zaindeksowanie jest dużo mniejsza.

W przypadku serwisów ogłoszeniowych, które zawierają bardzo dużo treści, wśród elementów na powyższym diagramie powinny znaleźć się też kolejne strony listingów wyników wyszukiwania (kolejne strony kategorii). Są one oczywiście mniej istotne od głównych stron kategorii, jednakże ich indeksacja wpływa dodatkowo na indeksację listowanych na nich elementów – stron z ogłoszeniami czy produktami. Jest to szczególnie istotne, gdy listing zaczyna się od pozycji wyróżnionych, które nie zmieniają się tak często jak zwykłe ogłoszenia.

Bazując na tych - czysto teoretycznych – informacjach, postanowiliśmy przekonać się, jak to wygląda w praktyce. Pod uwagę wzięliśmy serwis ogłoszeniowy http://www.morusek.pl/ o całkowitej liczbie zaindeksowanych stron powyżej 100 tys. Przy pomocy zapytania „site” w połączeniu z „inurl” sprawdziliśmy, jaka jest liczba zaindeksowanych poszczególnych stron listingów ogłoszeń: http://www.google.pl/search?q=site%3Awww.morusek.pl+inurl%3A%22%2F0%2F%22+inurl%3Aogloszenia


Przy dalszej analizie należy odrzucić stronę pierwszą, gdzie liczba i indeksacja jest zaburzona poprzez występowanie indeksowalnych stron, dla których nie ma żadnych wyników wyszukiwania.

Dodatkowo, żeby upewnić się, co do skuteczności zapytania „site”, wzięliśmy pod uwagę także liczbę stron raportowanych przez Google Webmaster Tools w zakładce „Linki wewnętrzne”. Wyniki są następujące…


Pierwszym wnioskiem jest oczywiście to, że wraz ze wzrostem numeru strony maleje udział stron zaindeksowanych wśród tych dostępnych (mniejsza jest szansa na ich indeksację). Trendy indeksacji według Google Webmaster Tools i według polecenia „site” są bardzo podobne. Średnio, szansa na zaindeksowanie kolejnej strony wyników wyszukiwania spada o 1,2% - 1,3% na stronę.

Ciekawe jest też to, że według Google Webmaster Tools, strony 2 - 4 mają wysoką indeksację, która spada dopiero przy piątej pozycji. Powodem jest linkowanie do stron numer 2, 3 i 4 na każdej pierwszej stronie wyników wyszukiwania.


Dane te same w sobie są ciekawe, jednak zyskają prawdziwą wartość dopiero, gdy będziemy potrafili je wykorzystać.

Obecny udział ogłoszeń zaindeksowanych wśród wszystkich stron z ogłoszeniami na serwisie morusek.pl wynosi 86% (liczba ta jest taka sama dla GWT, jak i dla polecenia „site”). Spróbujemy poprawić ją poprzez poprawienie indeksacji poszczególnych stron wyników wyszukiwania, co z kolei osiągniemy przez zamieszczenie na pierwszych stronach wyników wyszukiwania dodatkowych linków do strony 5, 10 oraz 15.


Wyniki badania przedstawimy po przeindeksowaniu serwisu i uzyskaniu odpowiednich danych.

--
Jacek Tkaczuk

3 grudnia 2009

Czego szukaliśmy online w 2009 roku?

Najpopularniejsze wśród Polaków zapytania wpisywane w Google w tym roku to...

  1. nasza klasa
  2. gry
  3. allegro
  4. youtube
  5. onet
  6. program tv
  7. wp
  8. mapa
  9. praca
  10. poczta
Najczęstsze zapytania 'typu poradnikowego', rozpoczynające się od słowa JAK...
  1. jak poderwać dziewczynę
  2. jak schudnąć
  3. jak napisać cv
  4. jak dojechać...
  5. jak wiązać krawat
  6. jak poderwać chłopaka
  7. jak przytyć
  8. jak założyć firmę
  9. jak zarobić pieniądze
  10. jak rzucić palenie
Najpopularniejsze zapytania o wszelkiego rodzaju 'okazje' cenowe...
  1. tanie linie lotnicze / loty / bilety lotnicze
  2. tanie opony
  3. tanie wakacje
  4. tanie noclegi
  5. tania książka
  6. tanie laptopy
  7. tanie wczasy
  8. tani internet
  9. tanie meble
  10. tanie linie kolejowe
--
Aneta Mitko

2 grudnia 2009

Jak przekształcić kliknięcia w zysk

Google wydało kolejny (po Przewodniku po Google AdWords) poradnik dla firm i właścicieli stron internetowych, którzy prowadzą działania reklamowe online oraz uczestniczą w programie AdSense. Nowa publikacja nosi tytuł - Jak przekształcić kliknięcia w zysk i dostępna jest w kilkunastu językach (w tym po polsku) w pliku PDF do pobrania za darmo.

Poradnik w przystępnej formie - przyjaznej dla początkujących w temacie odbiorców - prezentuje 5 bezpłatnych narzędzi Google, które każda firma może wykorzystać dla zoptymalizowania swoich działań online i zwiększenia realnych zysków poprzez podniesienie poziomu konwersji.

Są to oczywiście: Google Trends i statystyki wyszukiwarki Google, Narzędzie śledzenia konwersji AdWords, Optymalizator Konwersji AdWords, Google Analytics i Optymalizator Witryny.

--
Aneta Mitko

1 grudnia 2009

Wyniki Megapanel PBI / Gemius IX 2009

Pełny komunikat prasowy na ten temat dostępny jest tutaj. My przytaczamy poniżej tylko interesujące nas wyniki dotyczące wyszukiwarek, a zatem...

Wedle badań Megapanel PBI / Gemius za wrzesień 2009

Wyszukiwarka Google.pl odnotowała miesięczny zasięg na poziomie 89,13%. Liczbę jej użytkowników oszacowano we wrześniu na 14 873 763. Google.com uzyskało wyniki nieco niższe - zasięg miesięczny 61,34%, liczba tzw. real users 10 237 332.

--
Aneta Mitko