28 lipca 2006

Jak Google radzi sobie z click fraud?

Nie od dziś wiadomo, że głównym źródłem dochodów Google są dwa produkty - AdWords i AdSense. Nie od dziś wiadomo również, że regularnie powracają dyskusje na temat wiarygodności statystyk kliknięć (i tym samym kosztów) przedstawianych reklamodawcom korzystającym z tych usług wyszukiwarki. Co trochę słychać głosy o zliczaniu kliknięć, które są wynikiem aktywności nieuczciwej konkurencji, działania programów czy po prostu złego funkcjonowania mechanizmu.

Google, zdając sobie sprawę z wagi problemu (zaufanie do usługi wpływa przecież na jej popularność), odsłoniło swoje tajemnice przed niezależnym ekspertem. Jego zadaniem było dokonanie oceny jakości i skuteczności funkcjonujących mechanizmów i polityki działania wyszukiwarki w zakresie 'click fraud'. Wyniki przeprowadzonej kontroli, które mają być również wykorzystane przez amerykański sąd, zostały przedstawione w obszernym, 47-stronnicowym raporcie. Oprócz samych wniosków, które przytaczamy niżej, dokument zawiera bardzo ciekawe informacje na temat specyfiki poszczególnych usług, na podstawie czego autor próbuje zdefiniować m.in. przyczyny 'click fraud' (z jednej strony konkurujące ze sobą firmy, pragnące wyeliminować przeciwnika, z drugiej strony administratorzy serwisów, pragnący zarobić jak najszybciej i najwięcej).

Pisząc o problemie 'click fraud', autor prezentuje również definicję nieważnych (ułomnych, fałszywych?) kliknięć (bo tak chyba należy przetłumaczyć stosowane pojęcie - 'invalid clicks') stosowaną przez wyszukiwarkę, która stara się zrozumieć intencje klikającego oraz zweryfikować techniczne aspekty każdej akcji, by zakwalifikować ją do grupy ważnych, uznawanych przez system lub wręcz przeciwnie.

Kryteria ewaluacji często są bardzo trudne do zdefiniowania (w sensie matematycznym), a dla zobrazowania problemu podano dwa podobne, ale jednocześnie zupełnie różne zjawiska, które często mają miejsce.

  • Efekt wielokrotnego klikania w reklamę przez użytkowników dokonujących porównań na różnych witrynach - internauta np. klika w odnośnik linku sponsorowanego strony A, następnie odwiedza inną stronę (B), by za jakiś czas wrócić na stronę A, odnajdując odnośnik do niej znowu wśród linków sponsorowanych. Bardzo trudno jest w takim przypadku zdefiniować czas upływający między obydwoma kliknięciami, który powinien stanowić granicę między zakwalifikowaniem kliknięcia jako unikalne lub nie. Dodatkowo, należy podjąć próbę rozpoznania intencji klikającego (czy rzeczywiście szuka informacji, jest zainteresowany zakupem, itd.) czy może jest to regularne działanie firmy, która sukcesywnie próbuje 'wyklikać' budżet konkurencji?
  • Efekt 'podwójnego kliknięcia' - pochodzący z przyzwyczajeń użytkowników do uruchamiania aplikacji w systemie Windows w taki właśnie sposób - tutaj czas upływający między obydwoma kliknięciami jest bardzo krótki i łatwy do zweryfikowania (co ciekawe, do marca 2005 roku wyszukiwarka w ogóle nie brała pod uwagę podwójnych kliknięć, czyli innymi słowy - zliczała je na niekorzyść reklamodawcy).
W jaki sposób Google identyfikuje nieważne kliknięcia?
Wykorzystywane są trzy różne podejścia.
  • Analizy statystyczne i analizy trendów - np. jeżeli reklama generuje określoną liczbę kliknięć w danym przedziale czasu, nagłe skokowe zwiększenie liczby kliknięć może wzbudzić podejrzenia. Przydatność tego podejścia jest szczególnie duża w przypadku wielu zgromadzonych danych (kiedy można porównać stan obecny z przeszłym).
  • Filtry dotyczące różnych kryteriów - znajdujące zastosowanie np. w przypadku opisanego wyżej efektu 'podwójnego kliknięcia'.
  • Data mining - najbardziej skomplikowane i efektywne, potrzebujące jednak dużej ilości informacji, które nie zawsze są dostępne dla wyszukiwarki (np. czy internauta, który kliknął w reklamę obejrzał tylko stronę docelową kampanii czy jego wizyta była dłuższa i wygenerowała zamówienie produktu w sklepie internetowym).

Równie ciekawa jest analiza etapów rozpoznawania i dyskwalifikowania nieważnych kliknięć,.
  • Prefiltering - kiedy usuwane są najbardziej oczywiste kliknięcia (np. wykonane testowo przez pracowników wyszukiwarki).
  • Online filtering - realizowane przez opisane wyżej filtry. Co ciekawe, na początku istnienia usługi AdWords funkcjonowały tylko 3 takie filtry. Obecnie jest ich więcej, a ostatnio dodawane filtry poprawiają skuteczność zaledwie o kilka (2 - 3 procent), co w pewien sposób pokazuje obecny poziom ich skuteczności działania. Jak wyraził się autor opracowania, reguły stosowane w filtrach są bardzo proste (i oczywiście pozostają tajemnicą), co nie powinno dziwić w obliczu ilości analizowanych danych, i automatycznie usuwają nieważne kliknięcia ze statystyk. Prostota nie oznacza jednak braku skuteczności - zdecydowana większość prób oszukiwania jest równie banalna, co powoduje, że filtry znajdują praktyczne zastosowanie i odgrywają ważną rolę.
  • Post filtering - tutaj są przepuszczane dane z etapu wcześniejszego, które podlegają analizie wielokryterialnej (inaczej mówiąc mamy do czynienia z gęstszym sitem, które wymaga większych nakładów pracy do analizy przepuszczanych informacji). Wyniki otrzymywane na tym etapie są też mniej oczywiste i jednoznaczne, dlatego też w przypadku wykrycia potencjalnych problemów, nadawany jest sygnał ostrzeżenia, analizowany następnie przez pracowników wyszukiwarki. Na tym etapie są również uwzględniane zgłaszane przez klientów reklamacje.
Sedno raportu, czyli końcowa ocena działań podejmowanych przez wyszukiwarkę, wypada pozytywnie. Autor stwierdził, że chociaż niemożliwe jest jednoznaczne określenie skuteczności operacji wykonywanych na wszystkich wymienionych wyżej etapach (jak również skali całego zjawiska), to patrząc przez pryzmat przesłanek:
  • wprowadzanie kolejnych filtrów i reguł nie zwiększa istotnie ilości wykrytych nieważnych kliknięć (maksymalnie o kilka procent),
  • ilość wykrywanych nieważnych kliknięć na etapie automatycznym w stosunku do efektów działania ludzi jest nieporównywalnie duża (być może zatem ludzie nie mają już czego wykrywać),
można wnioskować, że ogólny poziom skuteczności jest zadowalający. Oczywiście przy tak dużej liczbie reklamujących się firm i jeszcze większej liczbie osób, które klikają w linki sponsorowane, będą zdarzały się reklamacje i pomyłki, ale w ogólnej liczbie wykrytych przypadków stanowią one dopuszczalny margines błędu. A polityka działania wyszukiwarki w postępowaniu z wyjątkami jest akceptowalna.

Powinniśmy zatem być chyba zadowoleni z jakości usług oferowanych przez Google, jakkolwiek nie zaszkodzi przeprowadzać regularnych, dodatkowych kontroli (np. zachowania użytkowników na stronie) i porównywać ich wyników z danymi raportowanymi przez wyszukiwarkę.

Tak na wszelki wypadek...

--
Maciek Gałecki

27 lipca 2006

Co wpływa na pozycje w wyszukiwarkach?

Nie tak dawno temu firma Fortune Interactive, oferująca usługi związane z marketingiem wyszukiwarek, opublikowała wyniki pierwszego z serii badań, podejmujących próbę zdefiniowania najważniejszych czynników wpływających na pozycje w naturalnych wynikach wyszukiwania. Wykorzystując autorską technologię SEMLogic, analizującą czynniki związane z treścią i składnią strony (tzw. "on-page factors") oraz obecnością serwisu w Internecie ("off-page factors"), firma doszła do następujących wniosków...

  • Największe znaczenie ma obecność serwisu w Internecie, mierzona jakością prowadzących do niego odnośników.
  • Przywiązanie do jakości odnośników oznacza, że mniej istotna jest ich liczba - ważne natomiast, jak skonstruowany jest odnośnik (jego tekst, wartość parametru 'alt' w przypadku grafik, wartość parametru 'title') oraz na jakiej stronie internetowej jest umieszczony (mniej lub bardziej pokrewnej tematycznie, co można zweryfikować chociażby przez zajmowaną pozycję dla wybranego słowa).
  • Mniej istotne są czynniki związane z treścią i składnią strony, takie jak obecność słów kluczowych w tytule, wyróżnionych fragmentach i zwykłej treści strony.
Analiza została przeprowadzona dla bardzo popularnego słowa "laptop", można jednak sądzić, że odnośniki i ich jakość są równie ważne w przypadku innych, bardziej niszowych haseł. Co ciekawe, wyniki badania wskazują również, że znaczenie poszczególnych czynników jest bardzo podobne w algorytmach wszystkich analizowanych wyszukiwarek (Google, MSN, Yahoo!) - mimo, że pozycje zajmowane przez pojedyncze strony znacznie się różniły pomiędzy ich wynikami wyszukiwania.

Choć trudno oszacować wiarygodność analizy, chociażby ze względu na ilość czynników branych pod uwagę przez algorytmy wyszukiwarek, to jednak warto zwrócić uwagę na generalne wnioski płynące z badania i trendy zmian - korzystanie z najprostszych rozwiązań, np. sieci wymiany odnośników przynosi coraz mniejsze korzyści (nie mówiąc o potencjalnym zagrożeniu wykluczeniem z indeksu wyszukiwarki), a stopniowo bardziej liczyć się będą naturalne, tematyczne odnośniki przynoszące rzeczywistą wartość dodaną dla użytkowników surfujących po sieci. Być może w takim przypadku bardziej częste stanie się kupowanie linków, które na razie jednak nie jest zbyt popularne (ze względu na koszty).

Czekamy na rezultaty kolejnych faz badania.

--
Maciek Gałecki

25 lipca 2006

Neostrada w ofercie Dialogu

Otwieram dziś stronę Google.pl, wpisuję w oknie wyszukiwarki 'Neostrada' i oto co otrzymuję...


Na pierwszej pozycji naturalnych wyników wyszukiwania link do serwisu TP w całości poświęconego produktowi Telekomunikacji Polskiej, czyli Neostradzie właśnie... Po prawej stronie natomiast - na samej górze linków sponsorowanych - widnieje reklama bezpośredniej konkurencji TP - Dialogu oraz oferta, która z Neostradą nie ma nic wspólnego, bo nic wspólnego mieć nie może (produkt sprzedaje Telekomunikacja, jego nazwa jest zastrzeżona - mamy zatem ewidentny przykład posługiwania się cudzą marką dla uzyskania korzyści finansowych - bo w gruncie rzeczy chodzi o sprzedaż własnych usług przecież). Pisaliśmy już wcześniej o tego typu sytuacjach. Wtedy chodziło głównie o przykłady zagraniczne, teraz doczekaliśmy się 'przekrętów' na własnym podwórku

Kto zawinił?

Z pewnością trochę Google, bo najwyraźniej niezbyt precyzyjnie kontroluje słowa kluczowe poszczególnych kampanii... także Dialog, który jako poważny podmiot gospodarczy nie powinien uciekać się (lub pozwalać obsługującej go online firmie) na tego typu nieetyczne zagrywki... no i być może, a właściwie przede wszystkim ten, kto odpowiedzialny jest za tę konkretną kampanię.

Oj nieładnie, nieładnie proszę Państwa...


--
Aneta Mitko

24 lipca 2006

Biznes 2.0

Web usability, pozycjonowanie i reklama w wyszukiwarkach cieszą się obecnie największym zainteresowaniem wśród przedstawicieli biznesu i marketerów, którzy - mówiąc kolokwialnie - chcą z Internetu wycisnąć jak najwięcej. Podczas konferencji @rewolucja biznesu 2.0 przedstawiciele Netsprinta oraz m.in. firmy Bluerank przytoczyli dane statystyczne i przykłady tego, jak duże są obecnie szanse precyzyjnego dotarcia do klienta poprzez wykorzystanie możliwości stwarzanych przez wyszukiwarki internetowe oraz systemy reklamy kontekstowej.

Według Forrester Research, 93% internautów poszukując nowych informacji w Sieci sięga do wyszukiwarki. 74% użytkowników Internetu odkrywa interesujące ich serwisy właśnie przez wyszukiwarki. 55% wszystkich transakcji online zaczyna się również od wyszukiwarek (dane NPD Group). Daje to oczywiste podstawy do tego, aby rozwijać swój biznes korzystając z potencjału SEO / SEM, zwłaszcza w tych przypadkach, kiedy nie zależy nam na kampanii stricte zasięgowej.

Wysoką skuteczność reklamy wyszukiwaczej w Internecie podkreślano także podczas VII Kongresu E-Marketingu, organizowanego pod koniec ubiegłego miesiąca przez ECU Marketing oraz w trakcie poprzedzających go dwudniowych warsztatów "Skuteczna e-reklama 2006 - 2007". Mówili o tym m.in. Michał Kaczorowski z Wakacje.pl i Maciej Gałecki (jeden z autorów bluerank.blogspot.com), który na prośbę Olgierda Cygana z Digital One (Euro RSCG Group) zaprezentował interesujące case study kampanii linków sponsorowanych i optymalizacji serwisu Nie dla depresji, należącego do firmy farmaceutycznej Wyeth. Marketing w wyszukiwarkach oraz działania optymalizacyjne i zwiększające popularność tej witryny w Sieci przyniosły w tym przypadku nadzwyczaj zadowalające efekty - m.in. ponad 32 tys. nowych użytkowników serwisu w niecałe 4 miesiące i średni koszt pozyskania internauty (potencjalnego klienta Wyeth Polska) na poziomie zaledwie 12 groszy.

Osoby zainteresowane szczegółami związanymi z w/w konferencjami, prelekcjami autorstwa Macieja Gałeckiego lub bliższymi informacjami na temat działań SEO / SEM dla firmy Wyeth prosimy o kontakt.

--
Aneta Mitko

22 lipca 2006

Zamieszanie z aktualizacją algorytmu AdWords

Wspominaliśmy niedawno o planowanej aktualizacji algorytmu AdWords, który decyduje o kolejności wyświetlania linków sponsorowanych. Nie minęło kilka dni, a już można zaobserwować reakcje niezadowolonych reklamodawców. Powód? Oczywiście wyższe koszty kliknięć.

Wielu z nich nie rozumie wprowadzonych zmian, niektórzy są zaskoczeni wzrostem kosztów w przypadku bardzo skutecznych, długofalowych kampanii.

Postanowiliśmy dokładnie przeanalizować kampanie naszych klientów. W zdecydowanej większości przypadków parametry kampanii (skuteczność, koszt kliknięcia, pozycja tekstu reklamowego) pozostały bez zmian w stosunku do sytuacji sprzed aktualizacji algorytmu.

W niektórych przypadkach zauważyliśmy jednak również niekorzystne zmiany - np. w kampanii prowadzonej dla szpitala Pulsmed. Realny koszt pozyskania użytkownika dla słowa BMI (Body Mass Index - wskaźnik masy ciała) wzrósł średnio 10x! Okazało się, że strona docelowa kampanii (strona główna serwisu) nie jest wystarczająco zoptymalizowana pod to hasło, co najprawdopodobniej spowodowało - w związku ze zmianami dotyczącymi wagi stron docelowych - zmniejszenie parametru Quality Score i podniesienie kosztów kampanii.

Nasza natychmiastowa reakcja, polegająca na zmianie strony docelowej kampanii (obecnie jest to sekcja 'Oblicz swoje BMI' - najbardziej adekwatna w serwisie dla tego hasła) spowodowała, że parametr Quality Score z powrotem wzrósł i jednocześnie wpłynął na zmniejszenie kosztu pozyskania użytkownika. W tej chwili, po kilku dniach obserwacji, wyniki kampanii wydają się być stabilne, a my mieliśmy okazję przekonać się, jak funkcjonuje algorytm AdWords oraz jak duże znaczenie ma wartość merytoryczna stron docelowych kampanii i ich optymalizacja pod kątem wyszukiwarek.

--
Maciek Gałecki

21 lipca 2006

Netsprint i WP stawiają na odpowiedzi

"Zadaj pytanie, a wyszukiwarka Ci odpowie" - tak najkrócej można scharakteryzować zmiany w funkcjonowaniu systemu wyszukiwawczego zapowiadane przez Netsprint i WP. Wyszukiwarka analizować ma intencje internauty i poza zbiorem stosownych linków oferować mu także konkretną odpowiedź na zapytanie.

Pomysł interesujący i z pewnością zyska nieco rozgłosu w mediach, przyciągając na strony
Wirtualnej Polski i Netsprint.pl ciekawych wszelkich nowości internautów, aczkolwiek trudny do zrealizowania. O ile na zapytanie "Maciej Gałecki" można będzie otrzymać od razu np. biogram z informacjami o przebiegu kariery zawodowej Macieja Gałeckiego, o tyle na bardziej złożone zapytanie typu "skuteczność reklamy w wyszukiwarkach internetowych" nie otrzymamy najpewniej już tak łatwo konkretnej odpowiedzi.

Czy pomysł się przyjmie? Dziś trudno wróżyć mu oszałamiające powodzenie. Internauci szybko bowiem mogą dojść do wniosku, że owe "odpowiedzi na ich pytania" nie za każdym razem są najlepszymi z możliwych, biorąc pod uwagę obiektywizm. Netsprint i WP opierać się będą bowiem wyłącznie na własnych zasobach informacji lub na tym, co zaoferują serwisy współpracujące z nimi (w domyśle płacące im za reklamę tego typu).


--
Aneta Mitko

19 lipca 2006

"Nie indeksuj, proszę"

Zakaz indeksacji określonych obszarów serwisu czy wchodzących w jego skład dokumentów to jeden z największych problemów, z którymi borykają się webmasterzy. Problemów o tyle poważnych, że najczęściej skutki nieradzenia sobie z nimi są opłakane - treści, których nikt niepowołany nie powinien oglądać, są publicznie dostępne w wyszukiwarkach przez długi czas.

Na szczęście, nie jest to problem sam w sobie - wystarczy znać i umiejętnie (oraz konsekwentnie) stosować ustalone wytyczne, by nie denerwować się później przez powstałych niedopatrzenia.

Matt Cutts z Google na stronach swojego bloga podpowiada i przypomina, co należy zrobić, by móc potem spać spokojnie (zwłaszcza jeżeli chodzi o wyszukiwarkę Google):

  • autoryzacja .htaccess (co to jest?), która umożliwia zablokowanie dostępu do całych witryn lub ich wydzielonych sekcji (np. panelu administracyjnego) - program indeksujący wyszukiwarki nie umie wypełnić wyskakującego wtedy formularza logowania i nie zostaje dopuszczony do znajdujących się za nim treści;
  • plik robots.txt (co to jest?), umieszczany w głównym katalogu serwisu, pozwala zdefiniować zarówno katalogi jak i pojedyncze dokumenty, które mają nie być indeksowane; co więcej, można w ten sposób również ustawić różne poziomy uprawnień dla poszczególnych programów indeksujących (np. aby udostępnić zasoby serwisu wyłącznie polskim wyszukiwarkom);
  • metatagi, które blokują indeksację dokumentu ("noindex"), w którym się znajdują lub zakazują indeksowania dokumentów, do których umieszczono odnośniki w obrębie danego pliku ("nofollow");
  • atrybut "nofollow", który można umieścić w obrębie pojedynczego znacznika odnośnika, by zakazać indeksacji dokumentu docelowego.
Stosowanie jednej lub wielu z wymienionych wyżej metod (w zależności od tego, co chcemy chronić) praktycznie zapewni nam spokój i brak przykrych niespodzianek w przyszłości.

--
Maciek Gałecki

18 lipca 2006

Wyszukiwarki walczą ze spamem

Walki z nieuczciwym pozycjonowaniem stron ciąg dalszy.

Poza
karami w postaci usuwania serwisu z indeksu wyszukiwarki za nielegalne działania pozycjonujące, teraz mamy również specjalne narzędzia służące do 'śledzenia' poczynań spamerów, którzy, wykorzystując możliwość publikacji adresów WWW w Sieci gdzie popadnie, mówiąc kolokwialnie, 'oszukują' wyszukiwarki sugerując, że pozycjonowana przez nich strona jest wartościowa i powinna znaleźć się wysoko w rankingu wyników wyszukiwania.

Dzięki temu, że nieetycznie postępujący pozycjonerzy umieszczają dany odnośnik na setkach forów internetowych, tysiącach blogów oraz w postach na łamach usenetu, serwis zyskuje na popularności i niesłusznie jest wysoko oceniany przez roboty indeksujące danej wyszukiwarki.Microsoft próbuje właśnie zaradzić temu problemowi testując Strider Search Defender - narzędzie identyfikujące spamerskie adresy URL, które publikowane są na blogach i serwisach typu social-networking. Pozwala ono zapobiec indeksowaniu podejrzanych stron. Jest zatem duża szansa, że już wkrótce proceder ten - jako nieskuteczny - zniknie.Search Defender nie jest jeszcze dostępny, ale jeśli technologia się sprawdzi, prawdopodobnie będzie można nareszcie uporać się z 'internetowymi śmieciami', co znacznie ułatwi ekspozycję naprawdę wartościowych serwisów WWW.

--
Maciek Gałecki

14 lipca 2006

Zagadkowe tytuły i opisy stron

Zwykle na wszystkich stronach wyników wyszukiwania konstrukcja opisu pojedynczego odnośnika jest identyczna:

  • najpierw widzimy tytuł strony, będący jednocześnie odnośnikiem do niej (jest zresztą najbardziej wyróżniony),
  • pod nim znaduje się opis (generowany dynamicznie z treści strony lub na podstawie dedykowanego znacznika kodu HTML),
  • następnie adres dokumentu oraz ewentualnie inne dodatkowe informacje, np. możliwość obejrzenia kopii czy informacje o dacie indeksacji dokumentu.
Czasami jednak tytuł i opis strony w wynikach wyszukiwania mają niewiele wspólnego z informacjami zamieszczonymi na stronie, a wtedy zwykle również nie do końca odpowiadają właścicielowi serwisu pod kątem przekazu informacyjnego i marketingowego wzbudzenia zainteresowania, a co za tym idzie - niekoniecznie zachęcają do kliknięcia. Sytuacja taka ma miejsce (przede wszystkim w przypadku światowych wyszukiwarek - np. Google i MSN Search) w przypadku, gdy w katalogu DMOZ (Open Directory Project) znajduje się wpis o danej witrynie. W takiej sytuacji wyszukiwarki pobierają konfigurację tego wpisu i prezentują we własnych wynikach wyszukiwania, zamiast przedstawiać to, co zostało zawarte przez autorów w dokumencie.

Ze względu na niezadowolenie z tego typu automatycznego "zapożyczania" tekstów, wyszukiwarki (zarówno MSN Search i Google) wprowadziły możliwość blokowania importu danych dla pojedynczych stron przy pomocy specjalnego znacznika. Od teraz mamy praktycznie pełną kontrolę nad postacią tytułu w wynikach wyszukiwania, który - jeżeli tylko chcemy - zawsze może być generowany wyłącznie na podstawie tytułu strony.

Efekt - większa kontrola nad sposobem prezentacji w wynikach wyszukiwania oznacza z kolei większy wpływ na możliwość osiągania korzyści z obecności w wynikach wyszukiwania.

--
Maciek Gałecki

12 lipca 2006

Oh la la!

Google ma pecha do francuskich procesów. Po raz kolejny, jak pisze Gazeta.pl, przegrano we Francji sprawę sądową, której przedmiotem były linki sponsorowane i przyporządkowane im słowa kluczowe. O podobnych przypadkach wspominaliśmy już jakiś czas temu.

Google musi zapłacić 300 tys. euro odszkodowania firmie
Louis Vuitton za emisje reklam tekstowych jej konkurencji, które pokazywały się użytkownikom wyszukiwarki po wpisaniu hasła 'louis vuitton', czyli zastrzeżonej nazwy firmy. Jak zapewniają obecnie przedstawiciele Google, tego typu sytuacje już się nie zdarzają... Pewnie można im wierzyć, bo w końcu takie wpadki - jak widać - całkiem sporo kosztują.

--
Aneta Mitko

11 lipca 2006

Małopolska policja spamuje wyszukiwarki

Kolejny przypadek spamowania wyszukiwarek internetowych został ujawniony przez osoby z polskiej branży SEO.

Tym razem mamy do czynienia z umieszczeniem ukrytych treści w domenie małopolskiej policji, co w oczywisty sposób jest wbrew wszystkim regulaminom wyszukiwarek. Cenne odnośniki (bo pochodzące z domeny rządowej - ".gov", postrzeganej przez wyszukiwarki za szczególnie wartościową) zostały umieszczone najprawdopodobniej bez wiedzy właściciela serwisu, przez osoby odpowiedzialne za jego administrację. Zobaczymy, jaka będzie reakcja wyszukiwarek, o policji nie wspominając...

--
Aneta Mitko

Google zmienia algorytm AdWords

Kolejne zmiany w algorytmie oceniającym jakość stron docelowych mogą wpłynąć negatywnie na koszty kampanii niektórych reklamodawców, piszą przedstawiciele wyszukiwarki. Co to oznacza?

Jeżeli zauważysz istotne zmiany w kosztach pojedynczych kliknięć, najprawdopodobniej strona docelowa wykorzystywana w kampanii nie zyskała wystarczającego uznania w oczach wyszukiwarki. Rozwinięcie treści, optymalizacja i walidacja składni HTML pod kątem słów kluczowych używanych w kampanii powinny pomóc zniwelować negatywne zmiany i zwiększyć rentowność działań.

--
Aneta Mitko

Pytanie zawsze aktualne - cz. II

Pisaliśmy jakiś czas temu o niezależności Google AdWords i pozycji w naturalnych wynikach wyszukiwania, a ostatnio redaktorzy bloga Google Sitemaps przypomnieli, jak uzyskać optymalne pozycje w zasobach ograniczonych do wybranego kraju:

  • domena właściwa dla danego kraju (np. ".pl" lub ".com.pl" dla Polski),
  • adres IP serwera ulokowany w tym kraju.
Oto podstawowe warunki osiągnięcia sukcesu. Potem już wystarczy tylko unikalna treść i odnośniki prowadzące do serwisu...

--
Maciek Gałecki

10 lipca 2006

Wyszukiwarki - szansa czy zagrożenie dla wydawców

Temat rywalizacji czy też pewnego konfliktu interesów wyszukiwarek i wydawców internetowych powraca - tym razem w rozmowie z Colinem Crawfordem - wiceprezesem IDG, który - inaczej niż większość wydawców - wskazuje przede wszystkim wspólne pole do działania, a nie tylko powody do wzajemnego zwalczania się...

Zadaniem wydawców jest sprawić, by te osoby, które przyszły do nich z wyszukiwarek, następnym razem przyszły bezpośrednio na ich strony. (...) Użytkowników pozyskanych dzięki wyszukiwarkom mogą oni spieniężyć na wiele różnych sposobów. Uważam więc, że wyszukiwarki to rodzaj usługi świadczonej również wydawcom - mówi Crawford. W Stanach Zjednoczonych z wyszukiwarek pochodzi 50 - 70% ruchu na stronach, są więc kluczowe, by budować grupę użytkowników wokół danego serwisu.

Jest zatem na rynku dość miejsca dla jednych i drugich. Zdaje się, że problem polega jedynie na tym, że wyszukiwarki (jako firmy) są znacznie bardziej elastyczne i potrafią idealnie dopasować swój model biznesowy do aktualnych warunków rynkowych i zmian w świecie mediów, wydawcy natomiast starają się trzymać często starych założeń, nie biorąc pod uwagę aktualnych potrzeb odbiorców przygotowywanej przez nich treści, do której docieramy przecież przez Google, Yahoo, MSN czy inne wyszukiwarki.


--
Aneta Mitko

Co by było gdyby nie było Google?

Inspirowani pewnym blogiem oraz komentarzem, zapytaliśmy o to kilku zaprzyjaźnionych internautów... 

Byłoby Yahoo! - odpowiadają ;) a przynajmniej 'byłoby o wiele bardziej niż jest teraz'... No i z pewnością nie mielibyśmy czasownika 'to google', który wszedł oficjalnie do kolejnych angielskich słowników. Czy coś jeszcze? Większość przepytanych przez nas znajomych uznała, że firma taka jak Google, wpisana była w zasadzie w naturalny rozwój Internetu i - prędzej czy później - i tak pojawiłoby się to wszystko, co dziś markowane jest tym znakiem... W sumie o wiele większe pole do popisu gdybania daje pytanie - co jeśli nie byłoby np. Billa Gates'a... Prawda?

--
Aneta Mitko

7 lipca 2006

Pytanie zawsze aktualne

Z cyklu pytań, które powtarzają się bardzo często...

- Czy moja kampania linków sponsorowanych wpływa na miejsca zajmowane w naturalnych wynikach wyszukiwania?
- Nie. Obie te rzeczy są całkowicie niezależne.

Google po raz kolejny oficjalnie to
potwierdziło.

--
Aneta Mitko

CPA antidotum na fałszywe kliknięcia?

Najbardziej lubianym dotychczas przez marketerów i jednocześnie opłacalnym (mimo problemu click fraud) modelem rozliczeń za emisję reklamy tekstowej na stronach Google, był model CPC, czyli opłata wyłącznie za kliknięcia. Niestety, model ten powoli staje się niewystarczający w dzisiejszych realiach (funkcjonują przecież nieuczciwi internauci i nieetycznie działająca konkurencja), dlatego reklamodawcy nieco zredukowali ostatnio (dane dotyczą USA) wydatki na reklamę rozliczaną w taki właśnie sposób. 

Ruch ten wywołał odczuwalną stratę finansową dla wyszukiwarek (ok. 500 mln USD) i jest wyraźnym sygnałem od reklamodawców, że nie wystarczają im zapewnienia o analizowaniu klików wykonanych na stronach z reklamami, ani o zadośćuczynieniu za fałszywe kliknięcia... Amerykański rachunek zysków i strat Google z pewnością przyczyni się do polepszenia sytuacji na naszym rynku, czego pierwszym zwiastunem może być wprowadzenie (również w Polsce) modelu CPA (cost per action), który wyeliminuje fałszywych klikaczy z rynku reklamowego i polscy reklamodawcy będą mogli spać spokojniej...

Czasami najwyraźniej opłaca się być trochę w tyle za resztą internetowego świata. Dzięki temu nie zdążylimy zbyt wiele stracić i już nie stracimy na click fraud. Problem zostanie rozwiązany zanim miałby szansę rozwinąć się u nas do niepokojących rozmiarów.


--
Aneta Mitko

6 lipca 2006

A wyszukiwarki ciągle w górę

Performics Search Marketing - część firmy DoubleClick, zajmująca się marketingiem w wyszukiwarkach internetowych, zaprezentowała raport podsumowujący ponad 200 kampanii linków sponsorowanych przeprowadzonych w USA w ciągu ostatniego roku. Poza tym, że wydatki na reklamę w wyszukiwarkach zwiększyły się o 36%, a liczba kliknięć wzrosła o 24%, zebrane dane ilustrują kilka istotnych zmian zachodzących w dziedzinie SEM na przestrzeni czasu, nie tylko w USA, ale na całym świecie - również w Polsce.

Porównanie informacji z analogicznych okresów 2005 i 2006 roku wykazało, że reklamodawcy wykorzystują coraz więcej słów kluczowych, na których bazują ich kampanie. Może to kwestia coraz większej liczby firm decydujących się na promocję w wyszukiwarkach (pojawiają się nowe branże, nowe produkty i nowe słowa), a być może także zasługa
bardziej zaawansowanych i częściej używanych przez reklamodawców narzędzi do analizy i doboru słów kluczowych. Proces ten może być obecnie zautomatyzowany, a słowa kluczowe mogą masowo się generować w różnorodnych kombinacjach, co daje z pewnością reklamodawcy znacznie większe możliwości wyboru, ale zachęca go również do wykorzystywania możliwie największej liczby słów, co w statystykach wpływa na gorsze wyniki konwersji przypadającej na każde z tych słów. Wyraźnie widoczna jest tendencja do budowania szerokiego zasięgu przy mniejszym nacisku na liczbę uzyskiwanych kliknięć. Reklamodawcy zwykle nie płacą za wyświetlenie reklamy, tylko za kliknięcie w nią, zatem liczą na znaczącą obecność swoich linków bez płacenia za nie...

Drugą wyraźnie widoczną tendencją jest silna sezonowość tego rodzaju reklamy. W okresie świątecznym obserwuje się zarówno większy popyt na linki sponsorowane wśród samych reklamodawców, jak i większe zainteresowanie tym, co one prezentują wśród internautów. Większe zainteresowanie z kolei pociąga za sobą wyższe stawki za kliknięcia i za słowa kluczowe. Jak wykazał raport, w tym czasie największą popularnością cieszą się słowa najdroższe i te najbardziej ogólne, ponieważ reklamodawcy chcą dotrzeć do jak największej liczby potencjalnych klientów, licząc na większe zyski z okazji powszechnie panującej świątecznej gorączki zakupów. Po zakończeniu okresu świątecznego - wszystko powraca do normy - stawki spadają, wydatki się stabilizują, a klienci znowu świadomie wydają swoje pieniądze.

Dokładne przyjrzenie się raportowi uświadamia, jak ważne znaczenie ma dobór słów i zarządzanie stawkami oraz jak różnie może to wyglądać w różnych okresach w ciągu roku.


--
Aneta Mitko

1 lipca 2006

Użytkownicy AdWords mają taniej

Google uruchomił kolejną (zintegrowaną z innymi propozycjami firmowanymi przez Google Inc.) usługę - system płatności online Google Checkout. Rozwiązanie to (podobnie jak popularny w Polsce PayPal) pozwala internautom robić zakupy online (również te zagraniczne) i płacić za nie za pomocą karty.

Nowy system wydaje się dość atrakcyjną propozycją dla branży e-commerce. Właściciele sklepów internetowych mogą bez większych problemów wdrożyć Google Checkout na swoich stronach, a jeśli reklamują się w AdWords - mogą na preferencyjnych warunkach finansowych korzystać z systemu. Linki sponsorowane prowadzące do ich serwisów będą wówczas dodatkowo wyróżnione oznaczeniem Google Checkout, co być może wpłynie w jakiś sposób na skuteczność reklamy i wysokość sprzedaży. Na razie mogą to sprawdzać jedynie Amerykanie, ponieważ usługa (jak każda nowość Google) wprowadzona została wyłącznie w USA, gdzie jest w tej chwili gruntownie testowana i ulepszana. Kiedy pojawi się w Polsce? Nie wiadomo. Nie wiadomo także, czy nowy system płatności online przyjmie się u nas, ponieważ płatności kartą realizowane są przez Polaków przede wszystkim na zagranicznych aukcjach, a eBay póki co, chroniąc własne interesy, nie akceptuje Google Checkout.


--
Aneta Mitko