30 czerwca 2006

Google pozwane o ukaranie serwisu

Serwisy SearchEngineWatch.com i InternetStandard informują o procesie wytoczonym Google przez jedną z witryn, która została w przeszłości... ukarana obniżeniem pozycji w rankingu tej wyszukiwarki.

Przedstawiciele KinderStart.com (katalog i wyszukiwarka stron dla dzieci i o dzieciach) twierdzą, że postępowanie Google przyczyniło się do powstania realnych strat finansowych, a sama wyszukiwarka nie powinna mieć prawa dowolnie i bez ograniczeń manipulować prezentowanymi przez siebie wynikami wyszukiwania...

Każde stanowisko sądu inne niż odrzucenie pozwu należałoby chyba jednak traktować jako sensacyjne - uzasadnienie pozwu jest pozbawione logicznego sensu - algorytm wyszukiwarki nie jest ogólnonarodowym dobrem, a podstawą działania komercyjnego przedsięwzięcia, które powinno mieć pełną możliwość (uzasadnionej) ingerencji w to, co prezentuje. Z drugiej strony, akceptacja pozwu może spowodować lawinę kolejnych wniosków ze strony administratorów niezadowolonych z zajmowanych pozycji, a to w krótkim czasie może doprowadzić do wielkiego chaosu.

Patrząc na przykład wspomnianego serwisu, warto się zastanowić nad wzrastającą rolą wyszukiwarek dla przedstawicieli biznesów, których przedsięwzięcia są niejednokrotnie uzależnione w bardzo dużym stopniu od obecności w wynikach wyszukiwania. Należy zatem pamiętać, że obecność w wyszukiwarkach powinna być wsparta ruchem z innych źródeł (programy partnerskie, reklama banerowa, mailingi, itp.), w ramach dywersyfikacji ryzyka biznesowego.

Aktualizacja z 14/07

Zgodnie z naszymi przewidywaniami, amerykański sąd oddalił pozew serwisu.

--
Aneta Mitko

29 czerwca 2006

Home.pl kontynuuje promocję z Google

Firma home.pl, największy polski dostawca usług hostingowych, postanowił o rok przedłużyć współpracę z Google.pl w zakresie oferowania promocyjnych kuponów na realizację kampanii linków sponsorowanych w tej wyszukiwarce. Rozpoczęta w grudniu zeszłego roku akcja okazała się - jak stwierdzają przedstawiciele obu stron - sukcesem (wg deklaracji skorzystało z niej kilka tysięcy podmiotów), stąd zapadła decyzja o jej przedłużeniu.

Teraz kolejne nowe firmy będą miały okazję przekonać się o skuteczności (lub nie) działań promocyjnych opartych o linki sponsorowane. A czy wpłynie to znacząco na popyt i koszty kliknięć? Zobaczymy...

--
Aneta Mitko

27 czerwca 2006

Model CPA w sieci Google

Google pracuje nad możliwością prowadzenia kampanii linków sponsorowanych w modelu CPA (cost-per-action), podaje Wired. W ten sposób reklamodawcy będą mogli rozliczać działania promocyjne prowadzone poprzez wyszukiwarkę (i sieć serwisów partnerskich) na wszystkie trzy najpopularniejsze sposoby (oprócz CPA, również podstawowy CPC i rzadziej preferowany model CPM). Jeżeli wspomnimy jeszcze o udostępnionej niedawno możliwości emisji reklam video, widzimy, że reklamodawcy mają coraz szersze możliwości doboru modelu rozliczeń i prezentacji swoich reklam. W przyszłości można spodziewać się wdrożeń kolejnych form rozliczeń, np. "pay-per-call" (nazywane przez wyszukiwarkę "click-to-call"), które są jeszcze w fazie testów.

Z pewnością model CPA przyczyni się również do zwiększenia satysfakcji z usługi, szczególnie wśród nieufnych klientów, którzy np. podejrzewają swoją konkurencję o bezwartościowe, fałszywe kliknięcia wyczerpujące budżet reklamowy. Problem "click fraud" znacznie się zmniejszy, a reklamodawcy będą jeszcze lepiej wiedzieć, na co wydali swoje budżety.

W tej chwili trwają testy nowego rozwiązania na wybranej grupie użytkowników.

Aktualizacja z 29/06

Dodatkowe informacje o wprowadzanym modelu CPA można znaleźć również na stronie JenSense.com.

--
Aneta Mitko

26 czerwca 2006

Być na szczycie...

Ten cel z pewnością przyświeca wszystkim, którzy zajmują się pozycjonowaniem stron internetowych.

Ale czy za wszelką cenę? Czy cel uświęca środki?

Można zadać sobie szereg pytań tego typu, patrząc na mnożące się przypadki działań nieetycznych, wbrew regulaminom wyszukiwarek (np. Google) czy ogólnie przyjętym standardom. Niedawno przytaczaliśmy przykład PKP, które stosuje ukryte treści i - jak wynika z wypowiedzi rzeczników - nie widzi nic niestosownego w swoim postępowaniu.

Jakiś czas temu echem w Sieci odbił się kolejny wykryty przypadek, obejmujący - co gorsza - kilka powiązanych ze sobą serwisów, w tym należących do dużych i znanych graczy na rynku.

Przykłady można mnożyć - kolejnym jest przypadek serwisu Maxior.pl, notującego ostatnio największy chyba przyrost liczby użytkowników, co przyniosło efekty w postaci obecności w 20 najpopularniejszych polskich witryn. Jak się okazuje, stosowanie ukrytych treści może nadal przynosić wymierne rezultaty, w tym przypadku wręcz dosłownie - z obłożenia reklamą internetową.

Wszystkie przytoczone fakty łączy jedna wspólna cecha - dotyczą dużych, popularnych serwisów, które nie wahają się budować swojego zasięgu (a przez to i całego przedsięwzięcia) lub próbować jeszcze go poprawić poprzez działania nieetyczne. Można zastanowić się również nad krótkowzrocznością administratorów - którzy chyba liczą (do tej pory) na obojętność i przyzwolenie ze strony wyszukiwarek i konkurencji...

Miejmy nadzieję, że wyszukiwarki zainteresują się całą sprawą i podejmą odpowiednie kroki zmierzające do ukarania winnych i pokazania dbałości o poziom zwracanych wyników wyszukiwania. Wszystkie przypadki zostały zgłoszone, poczekamy na odzew...

--
Maciek Gałecki

23 czerwca 2006

Etycznie, nieetycznie, ale w górę

Rynek SEO na całym świecie odnotowuje znaczny wzrost (w Wielkiej Brytanii to obecnie nawet 65%). Rosną wydatki, rosną zyski i rośnie świadomość - świadomość potencjału tego typu reklamy, świadomość potrzeby pozycjonowania, a także świadomość etyki w działaniach SEO. Na polskim rynku idzie to nieco wolniej, ale przynajmniej w dobrym kierunku choć... zdarzają się wyjątki i są tacy, którzy próbują oszukiwać.

W Sieci głośno obecnie
o jednym z takich przykładów. Duża, poważna firma, która nie musi i nie powinna posługiwać się nielegalnymi praktykami pozycjonowania - robi to! Co bardziej niepokojące - nie wszystkie polskie wyszukiwarki stanowczo i jednoznacznie potępiły ten przypadek. Google w momencie wykrycia 'hidden text' (bo o tego typu oszustwie tu mowa) zastrzega sobie możliwość natychmiastowego usunięcia strony z indeksu, Netsprint ostrzega, że jeśli po zwróceniu firmie uwagi spamerska sekcja nie zostanie usunięta z serwisu, strona zostania wyeliminowana z zasobów wyszukiwarki, Onet natomiast daje nieuczciwie postępującej firmie rozgrzeszenie, uznając jej praktyki za 'pomyłkę początkującego'.

To ostatnie podejście do tematu trochę dziwi w kontekście roli, jaką powinny spełniać wyszukiwarki (także tej edukacyjnej). W końcu czyż przykład nie powinien iść z góry?


--
Aneta Mitko

Jak dobierać słowa kluczowe

Z badań przeprowadzonych w pierwszym kwartale tego roku przez firmy zajmujące się pozycjonowaniem wynika, że najwyższą konwersję zapewniają te słowa i frazy kluczowe, które zawierają nazwę marki (firma, produkt, nazwa serwisu WWW, etc.). Wnioski wyciągnięte zostały na podstawie analizy kampanii płatnych odnośników w branży e-commerce.

Okazuje się, że klientami stają się najczęściej te osoby, które kliknęły w reklamę danego e-sklepu kilka razy, przy czym ostatni przed dokonaniem zakupu klik dotyczy zwykle takiej reklamy tekstowej, która zawiera informacje o konkretnej marce. Badacze sugerują także, że osoby rozpoczynające wyszukiwanie w Sieci posługują się najpierw terminami ogólnymi, potem natomiast zawężają swój research używając już pojęć konkretnych, czyli np. nazw własnych firm czy produktów, które mają zamiar kupić. Wniosek ten wydaje się dość oczywisty (zresztą pojawił się już we wcześniejszych badaniach na ten temat), ale w połączeniu z poprzednim spostrzeżeniem daje marketerom cenne wskazówki w kwestii prowadzenia kampanii linków sponsorowanych. Najwyraźniej opłaca się przyjąć taką strategię, która pozwoli potencjalnemu klientowi odnaleźć naszą reklamę (odnośnik do serwisu WWW) zarówno wśród pojęć ogólnych - nieobrandowanych, jak i po wpisaniu w wyszukiwarce konkretnych już nazw marek. Warto dać internaucie możliwość kliknięcia w nasz link kilka razy w wyniku dotarcia do niego różnymi drogami wyszukiwania. Badania wykazują, że internauci, którzy dokonali zakupu po skorzystaniu z wyszukiwarki, 'przeklikali' ok. 15% więcej reklam niż ci, którzy nie dokonali lub nie dokończyli transakcji. Planując działania SEM należy także pamiętać, że osoby, które budują bardziej zaawansowane zapytania i wpisują w wyszukiwarkach całe frazy lub więcej słów kluczowych, którym towarzyszą różne kwantyfikatory są bliżej dokonania zakupu niż te osoby, które wpisują zapytania prostsze. Oznacza to, że przy ustalaniu słów kluczowych do kampanii linków sponsorowanych trzeba przewidywać dłuższe zapytania i nadawać im odpowiednią wagę, jeśli chcemy osiągnąć zadowalający poziom konwersji...

Autorzy przytaczanego badania zapewniają, że wyniki ich obserwacji będą podobne także w przypadku innych sektorów rynku reklamowanych w płatnych odnośnikach.

--
Aneta Mitko

16 czerwca 2006

Sieci wymiany odnośników - dobre czy złe?

Budowanie popularności serwisu poprzez rozwijanie sieci prowadzących do niego odnośników to jedno z ważniejszych kryteriów branych pod uwagę przez większość wyszukiwarek internetowych przy ustalaniu pozycji na stronach wyników wyszukiwania. Nic dziwnego zatem, że w Internecie powstało wiele systemów darmowej wymiany odnośników, które umożliwiają rozwijanie tego parametru (funkcjonującego również pod pojęciem 'link popularity') poprzez masową obecność na zrzeszonych w ich obrębie witrynach. Ostatnio, jeden z takich globalnych systemów - Link Vault - został prawdopodobnie usunięty z bazy Google.

Można by zapytać o przyczyny takiej decyzji ze strony wyszukiwarki. Zwolennicy tego typu rozwiązań powiedzą, że jest to po prostu wymiana odnośników, niczym nieróżniąca się od np. wymiany banerów (poza inną formą prezentacji), która służy czystej promocji witryn w Internecie.

Z drugiej jednak strony, z punktu widzenia wyszukiwarek istotne są następujące fakty...

  • Często systemy tego typu są tworzone wyłącznie na potrzeby zwiększenia popularności serwisu pod kątem osiągnięcia wyższych pozycji w wynikach wyszukiwania, czego zresztą nie kryją, pisząc wprost: (...)To naprawdę działa - już po kilku dniach od rejestracji w (...) zobaczysz poprawę pozycji twojej strony w google.pl! (...) (cytat ze strony głównej jednego z polskich systemów tego rodzaju).
  • Odnośniki publikowane w obrębie wymiany zwykle zupełnie nie są między sobą powiązane tematycznie, co oznacza niską przydatność dla internautów odwiedzających stronę i nie przynosi im żadnych realnych korzyści, a to z kolei, w myśl jednej z podstawowych zasad działania wyszukiwarek, mówiącej o ewaluacji stron przez pryzmat funkcjonalności niesionych dla użytkownika, nie daje żadnych dodatkowych profitów.
  • Jakiekolwiek formy zapewniania popularności, które niosą korzyści dla wszystkich zaangażowanych stron mają sztuczny charakter i z tego względu nie powinny być równie wartościowe, jak naturalne budowanie 'link popularity', gdzie tylko jedna strona (docelowa) osiąga korzyść, a druga (polecająca) nie, co jest efektem jakości umieszczanych treści, a nie chęci uzyskania jak największej ilości linków. Co więcej, przedstawiciele wyszukiwarek sugerują, by wszelkie działania, które mogą być rozpoznane jako sztucznie budujące popularność, powinny być wyraźnie komunikowane wyszukiwarkom np. poprzez stosowanie odpowiednich znaczników w składni HTML. Zagadnienie to zostało szczegółowo opisane na blogu jednego z pracowników Google, przy okazji omawiania podejścia wyszukiwarki do zjawiska kupowania odnośników.
Prawdopodobnie wspomniany system rozwinął się na tak dużą skalę, że zjawisko przekłamania wyników wyszukiwania z jego strony stało się poważnym problemem w oczach Google. Jest to wyraźny sygnał pokazujący podejście wyszukiwarek do tego zagadnienia, chociaż nie wszystkie podmioty zajęły wyraźne stanowisko w tej kwestii, ze względu na trudności w identyfikowaniu najbardziej winnych - witryn uczestniczących w wymianie odnośników. Być może jednak w przyszłości problem ten zostanie rozwiązany, a wtedy ryzyko ukarania usunięciem z bazy wyszukiwarki stanie się całkiem realne...

--
Maciek Gałecki

Popularność wyszukiwarek - czy trudno ją zmierzyć?

Popularność wyszukiwarek - co kryje się pod takim pojęciem? Jak je rozumieć?
Niedawno na to pytanie próbował odpowiedzieć InternetStandard w jednym ze swoich artykułów.

Dotychczas 'popularność' (pojęcie samo w sobie dość enigmatyczne) była mierzona z uwzględnieniem różnych kryteriów - np. ilość ruchu generowanego na stronach docelowych zwracanych w wynikach wyszukiwania, liczba odsłon stron danej wyszukiwarki, czy też zasięg, czyli liczebość grupy internautów, która skorzystała z niej w określonym czasie. Każda z miar ma swoje wady i zalety, przez co z pewnością nie jest do końca miarodajna. Dlatego też zapewne podważona została przez przedstawicieli Onetu zasadność prezentacji tego typu danych. Podkreślając ich niedoskonałości, próbują oni w ten sposób nieco zniwelować negatywny wydźwięk kolejnych komunikatów, stawiających ich wyszukiwarkę w - jak by na to nie patrzeć - niekorzystnym świetle na tle konkurencji.

Można również sądzić, że próba opracowania lepszej metodologii, umiejętnie łączącej wszystkie wymienione kryteria (o ile jest to w ogóle technicznie wykonalne), także nie znalazłaby uznania w oczach pana Radosława Kućko, wypowiadającego się w imieniu portalu Onet, chociaż byłoby to najlepsze odwzorowanie rzeczywistej sytuacji na rynku. Zgadzamy się za to, że próba opracowania innych metod oceny pozycji wyszukiwarek - np. ich 'jakości' jest właściwie niemożliwa do zrealizowania, gdyż ma na nią wpływ zbyt wiele czynników, zwłaszcza tych bardzo subiektywnych, o charakterze behawioralnym (każdy z nas szuka przecież informacji w bardzo różny sposób).

Czy w obliczu takiego stanu rzeczy warto zatem ignorować wartości bezwzględne, takie jak liczba użytkowników czy odsłon generowanych na stronach wyszukiwarek? Radosław Kućko stwierdza, że w modelu CPC (płatności za kliknięcie) są to dane o małym znaczeniu, podkreślając wagę dopasowania profilu użytkownika wyszukiwarki do grupy docelowej (gdzie notabene Onet zdaje się wypadać zdecydowanie bardziej atrakcyjnie na tle rywali). Spójrzmy na to od strony reklamodawcy, zastanawiając się, jakie kryteria mogą mieć dla niego największe znaczenie przy wyborze wyszukiwarki, przez którą chce się promować?

  • Zasięg wyszukiwarki - czyli bezwzględna liczba użytkowników, którzy z niej korzystają. Udział procentowy interesującej nas grupy docelowej nie ma większego znaczenia, bo nasza reklama nie pojawia się wszystkim użytkownikom, a jedynie osobom aktywnie poszukującym konkretnych informacji (jedna z ważniejszych zalet promocji typu pull). Nawet, jeżeli grupa docelowa jest wyjątkowo mało licznie dostępna w danej wyszukiwarce, to i tak mamy pewność (poprzez umiejętny dobór słów kluczowych), że nie docieramy do dużej grupy osób niezainteresowanych naszym produktem czy usługami.
  • Popularność zapytań dla interesujących nas słów kluczowych - powiązana z wymienionym wyżej kryterium, lecz dająca możliwość określenia skali dotarcia do osób aktywnie poszukujących tego, co oferujemy.
Patrząc z tego punktu widzenia, bardziej istotna (i przydatna) jest informacja - ile razy konkretne zapytanie jest częściej wykonywane w jednej wyszukiwarce niż w innych, bo oznacza to większą (częstszą) możliwość kontaktu z potencjalnym klientem. Zastanawianie się, jaki procent z nich to 'trzydziestoletni managerowie z dużych miast o ponadprzeciętnych dochodach' jest drugorzędne, gdyż i tak dobieramy sobie grupę docelową poprzez zdefiniowanie słów kluczowych.

Cała polemika ma czysto teoretyczny charakter w przypadku porównywania polskiego lidera - Google - oraz pozostałych graczy na rynku, gdyż różnice we wszystkich parametrach, które możemy pomierzyć, są zbyt duże by porównywać ich potencjały, co zresztą sam przyznał przedstawiciel Onetu. Dyskusja nabiera większego znaczenia w przypadku równorzędnych graczy na rynku, np. OnetSzukaj i wyszukiwarki WP, ale i tutaj wystarczy przede wszystkim porównać liczby generowanych zapytań w określonej tematyce, by oszacować spodziewane efekty działań promocyjnych.

Na koniec polecamy lekturę odpowiedzi firmy Gemius, proponującą nowy pomiar popularności wyszukiwarek, który być może nie jest doskonały, ale na pewno przedstawia bardziej porównywalne dane, bazując na odsłonach stron z wynikami wyszukiwania. Warto zauważyć, że w przypadku wybrania takiego kryterium, dystans między Google i resztą rynku jeszcze się powiększa.

Czy doczekamy się idealnego rozwiązania, uznawanego przez wszystkich? Chyba nie, ze względu na złożoność pomiaru. Na szczęście jednak płacimy za faktyczne zainteresowanie potencjalnego klienta...

--
Maciek Gałecki

14 czerwca 2006

2 mln internautów poprzez AdPortal

Uruchomiony niedawno samodzielny system reklamy kontekstowej - AdPortal chwali się możliwością dotarcia do ponad 2 milionów polskich internautów poprzez 70 zrzeszonych w sieci serwisów internetowych. To całkiem sporo jak na tak krótki okres działania, ale dobrze pokazuje potencjał tkwiący w tej formie promocji. Funkcjonowanie kilku dużych graczy w tym obszarze (oprócz AdPortal działają systemy reklamy kontekstowej wyszukiwarek) powinno wpłynąć na wzmożoną konkurencję, rozwój produktu i bardziej atrakcyjny podział przychodów z właścicielami witryn partnerskich.

--
Aneta Mitko

Google liderem w USA

Z miesiąca na miesiąc rośnie przewaga Google nad pozostałymi wyszukiwarkami na rynku amerykańskim, stwierdza ostatni raport firmy Hitwise. Zmiany w ujęciu miesięcznym nie są znaczące, jednak ich trend pozostaje stabilny.

Co ciekawe, brak bezpośrednich danych z wyszukiwarek powoduje, że próba oszacowania ich popularności i udziału w rynku na podstawie reprezentatywnej grupy internautów przez różne firmy badawcze przynosi różne wyniki. Ich rozrzut jest całkiem spory. Jedno jest pewne - Google jeszcze długo będzie na niezagrożonej pozycji podmiotu obsługującego największą ilość zapytań za oceanem.

--
Aneta Mitko

"Złamaliśmy własne zasady"

Tak powiedział Sergey Brin, jeden z współtwórców Google, o ustępstwach tej wyszukiwarki na rynku chińskim (przypomnijmy, pisaliśmy na ten temat wprowadzenia cenzury już wcześniej). To dosyć znamienny fakt przyznania się do postępowania wbrew własnej woli, nawet mimo przytoczonego uzasadnienia, mówiącego o małym znaczeniu tego ograniczenia (chińscy internauci mogą - z niewielkimi przerwami - korzystać równolegle z nieocenzurowanej wersji globalnej google.com).

Wszyscy zainteresowani mogą sprawdzić skalę kontroli treści, porównując wyniki wyszukiwania dla tych samych słów kluczowych w Google.com i jej chińskiej wersji. Lista wielu wyrażeń oraz szczegóły na temat wykonania testu są dostępne na blogu Google Blogoscoped.

--
Aneta Mitko

13 czerwca 2006

Nie szukaj daleko

Często robiąc analizy słów kluczowych i próbując przewidzieć, co takiego wpisują w zapytaniach internauci, do których chcemy dotrzeć, zapominamy o informacjach, które gromadzimy... w obrębie własnego serwisu.

Owszem, zewnętrzne narzędzia, takie jak "Lista najpopularniejszych haseł" wpisywanych w OnetSzukaj, "Prognoza liczby odwiedzin" w Google Adwords, czy nawet ostatnio uruchomione Google Trends pozwalają dosyć dokładnie wywnioskować, jak myślą użytkownicy Sieci. Z drugiej jednak strony, bardzo wartościowe informacje można również uzyskać poprzez śledzenie zapytań wykonywanych w wyszukiwarce... umieszczonej na naszej witrynie (o ile taki moduł posiadamy). Lokalne wyszukiwarki (dostępne czy to w postaci darmowych skryptów czy rozwiązań komercyjnych, np. Netsprint Site) to nie tylko jeden z bardziej funkcjonalnych modułów, często używanych przez internautów (zwłaszcza w przypadku dużych i rozbudowanych serwisów), ale również bardzo ciekawe źródło pełnych informacji o tym, co i jak wpisują internauci, którzy już weszli na naszą stronę (a więc są potencjalnie zainteresowani tym, co się na niej znajduje). Archiwizowanie wszystkich wykonanych zapytań i ich późniejsza analiza, zwłaszcza wyodrębnienie najczęściej powtarzających się słów i wyrażeń, może przynieść bardzo ciekawe wnioski, niedostępne z poziomu zewnętrznych narzędzi.

Jak pokazują badania, optymalizacja treści (rozwinięcie, lepsza ekspozycja, itp.) dla najpopularniejszych 2% słów kluczowych na serwisach komercyjnych i 4% tych samych słów na serwisach niekomercyjnych odpowiada za poprawienie jakości wyników wyszukiwania co drugiego internauty korzystającego z lokalnej wyszukiwarki. To znaczące poprawienie poziomu zadowolenia, co może skutkować ponad 2,5 krotnie większą skłonnością do wykonania pożądanych akcji ze strony internauty (złożenia zamówienia, rejestracji, prośby o kontakt, itp.). Z punktu widzenia SEM jest to również bardzo dobre źródło do pogłębionej analizy słów kluczowych, by na przykład sprawdzić, jakiego języka używają internauci (potocznego czy specjalistycznego) lub czy często popełniają błędy w pisowni, myląc się w nazwie produktu.

Analiza zapytań wykonywanych w serwisie jednego z klientów Bluerank wykazała, że ponad 73% dotyczyło tego samego zagadnienia - cennika świadczonych usług. Nie dość, że treści tego rodzaju nie było na stronach, to na dodatek wyniki wyszukiwania nie zawierały odnośnika np. do strony kontaktowej, gdzie zainteresowany internauta mógłby poprosić o interesujące go informacje. W efekcie, firma umieściła na swojej witrynie sekcję "Cennik", pokazującą się w czołówce wyników wyszukiwania dla każdego zaobserwowanego wcześniej zapytania o ceny usług, dzięki czemu istotnie spadła liczba telefonów i poziom zaabsorbowania pracowników, odpowiadających wciąż na te same pytania.

--
Aneta Mitko

9 czerwca 2006

Moda na wyszukiwarki wertykalne

W obliczu wzrastającej ilości różnorodnych danych dostępnych w Internecie, coraz większą popularnością cieszą się wyszukiwarki wertykalne, specjalizujące się w indeksowaniu i prezentowaniu informacji z danej branży lub tematyki. Narzędzia tego typu zdobywają sobie kolejne rzesze zwolenników i przez wielu uważane są za jeden z możliwych scenariuszy rozwoju dziedziny wyszukiwania informacji w Sieci, a w najgorszym wypadku rozwiązania doskonale sprawdzające się w określonych niszach. 

Już teraz badania pokazują, że ponad 3 na 4 obywateli amerykańskich kupujących dom, skorzystało z rozwiązań tego rodzaju do poszukiwania ofert. Moda na realizację nowych przedsięwzięć związanych z indeksacją i wyszukiwaniem informacji (np. opisywana wcześniej na łamach naszego bloga ogólnotematyczna wyszukiwarka Hakia) jest zauważalna również tutaj - właśnie powstaje nowa amerykańska wyszukiwarka - Avvo, która stawia sobie za cel uporządkowanie informacji ze świata prawa. Projekt nie jest bynajmniej nowatorski, funkcjonują już podobne rozwiązania tego typu, jednak założyciele firmy stanowczo twierdzą, że znają receptę na gwarantowany sukces... Zobaczymy.

Gdy obserwuje się popularność wyszukiwarek wertykalnych na świecie, nasuwa się pytanie - kiedy pojawią się takie rozwiązania w polskich realiach? A może już funkcjonują? Na ile będą to spektakularne przedsięwzięcia? W chwili obecnej trudno chyba wydać jednoznaczną opinię - za wyszukiwarki specjalistyczne można uważać np. serwisy porównujące ceny w sklepach internetowych i na aukcjach (Ceneo.pl, 9sekund.pl, itp.). Czy w polskich warunkach ma szansę zaistnieć wyszukiwarka dedykowana informacjom prawniczym? Chyba nieprędko... ale czas pokaże.

--
Aneta Mitko

8 czerwca 2006

Marketing w wyszukiwarkach opłacalny... nie tylko dla reklamodawców

Amerykańskie firmy świadczące usługi SEM mają się coraz lepiej - w tym roku ponad 37% osiągnie przychody wyższe niż 15 milionów USD (wobec 25% w roku ubiegłym), podaje Internet Standard za raportem JupiterResearch

Razem z wzrostem przychodów rosną również wymagania klientów - marketerów korzystających z usług tych podmiotów, którzy chętniej zaczynają sięgać po narzędzia do zaawansowanego zarządzania kampaniami linków sponsorowanych. Wkraczanie bardziej rozbudowanych rozwiązań wydaje się być naturalne - przy wzrastających budżetach marketingowych na płatne odnośniki, każda niewielka zmiana na lepsze pozwoli zaoszczędzić znaczne kwoty, usprawiedliwiające takie zaangażowanie człowieka jak i inwestycje w profesjonalne oprogramowanie.

--
Aneta Mitko

1 czerwca 2006

Content is the king

Treść prezentowana na stronach serwisu powinna być wartościowa, unikalna i dawać odbiorcom powód do tego, aby chętnie powracali na naszą witrynę. Google stając na straży interesów zwykłego szarego internauty, ostrzega webmasterów, że strony źle ocenione pod względem jakości, uznane przez Google za mało wartościowe, mogą być nawet usuwane z indeksu wyszukiwarki, dlatego warto dostosowywać się do wskazówek i podpowiedzi Google, przygotowanych specjalnie dla twórców serwisów WWW.

--
Aneta Mitko