20 stycznia 2011

SEMcamp #7 subiektywnie

18 stycznia br. odbył się w Auli Głównej Szkoły Handlowej, siódmy już SEMcamp. Tym razem poświęcony głównie prowadzeniu kampanii PPC, co wskazuje na kierunek rozwoju biznesu w Google.

Jak zwykle, sala była pełna, zestaw prelegentów dobry, a poruszane tematy, chociaż zróżnicowane poziomem, dość interesujące.
Na pierwszy ogień poszedł Mariusz Gąsiewski ze swoją prezentacją “Wynik jakości AdWords i automatyzacja pracy”. Tematy dość odległe od siebie (podstawy i automatyzacja pracy przy dużych kampaniach), ale prelegent dawał duże szanse na poważne potraktowanie tematu. I…
Problem wyniku jakości potraktowany został niezwykle poważnie. Mariusz od podstaw wyjaśniał zasady licytacji pozycji w AdWords, sposób wyznaczania wyniku jakości. Sporo czasu poświęcił optymalizacji kampanii i pracy w jej trakcie. Widać było, że na sali wiele osób robiło notatki. Brak podstaw, czy może nowa krew? ;) Niemniej, wiele osób za darmo mogło brać udział w naprawdę dobrym szkoleniu z podstaw AdWords.
Niestety, drugi temat, czyli automatyzacja pracy przy dużych kampaniach, potraktowany został trochę po macoszemu. Po prezentacji dosłownie kilku narzędzi i kilku zrzutów z Excela… pozostał spory niedosyt. Liczyłem na znacznie więcej. Brakowało mi porządnego przedstawienia możliwości Edytora AdWords w tworzeniu i zarządzaniu projektami składającymi się z wielu grup reklam.
Drugim prelegentem był Marcin Duraj, który mówił na temat “Tworzenie zaplecza w pozycjonowaniu”. Niestety, wyszło trochę nudno. Być może nie byłem targetem owej prezentacji, ponieważ o sposobach tworzenia, utrzymania i problemów z zapleczem słuchałem i czytałem już wielokrotnie. Nic nowego nie zostało powiedziane ani wymyślone. I jakby nie ubierać tego w piękne słowa… zaplecze pozostaje zapleczem.
Po przerwie sala się trochę wyludniła. Rozpoczęły się prezentacje mniej interesujących dla większości osób zagadnień. Organizatorom należy się zresztą duże uznanie za bardzo dobre pogrupowanie poziomu tematów.
Salę we władanie objął Maciej Ołpiński. Zajął się tematem kampanii graficznych w sieciach reklamowych. Prezentacja ciekawa, pokazujące nowe możliwości reklamy. Pojawiło się kilka interesujących danych na temat przyszłości działań Google w sieciach reklamowych (np. targetowanie na podstawie kategorii stron i zainteresowań internautów). Miałem też możliwość próby (to zamierzone sformułowanie :) uzyskania wiedzy na temat dopuszczania zasad reklam graficznych do emisji. Okazało się, że mimo oficjalnych wytycznych, funkcjonuje tu jednak jeszcze pewna doza uznaniowości, czyli… musi się podobać ‘moderatorowi’… No cóż. Pozostaje na razie czekać na obiecane podsumowanie i więcej informacji na ten temat.
Na sam koniec, „wśród żywych zombie” (jak sam to określił ;) pojawił się Przemysław Modrzewski, który próbował przebić się przez ogarniającą wszystkich senność z “Biznesowym i technicznym aspektem testowania stron docelowych“. Temat ważny w przypadku obłożonych reklamami fraz (i nie tylko) kiedy konwersje nie są na zadowalającym poziomie. Mimo późnej pory i ogólnego zmęczenia, prelegentowi udało się zainteresować salę, a nawet wywołać spory odzew. Wiadomo, gdzie są pieniądze tam jest i zainteresowanie! :)
Czy było warto? Jak zawsze tak, chociaż jak zawsze było za krótko, żeby rozkręcić się z pytaniami. Ze względu na odległość Łodzi od Warszawy nie udało mi się zostać na afterku w Zielonej Gęsi. Następnego dnia należało stawić się w pracy.
Tak więc, do zobaczenia na następnym, ósmym już, SEMcampie. Mam nadzieję, że jeszcze przed wakacjami.
--
Rafał Skarżyński, PPC Bluerank

Obejrzyj prezentacje z SEMcampu  >>

18 stycznia 2011

FAQ - na jakiej zasadzie działają boty Google?

Googleboty to specjalne programy komputerowe służące Google do przeszukiwania, analizy oraz odpowiedniego indeksowania (tj. umieszczania w bazie wyszukiwarki) treści znajdujących się w Internecie.
Różne boty odpowiadają za różnego rodzaju treści – inne są dla tekstów, inne dla grafik. Ostatnio pojawił się także bot robiący ‘print screen’ naszej strony internetowej, aby wykorzystać go w niedawno dodanej funkcjonalności umożliwiającej podgląd strony z poziomu wyników wyszukiwania wyszukiwarki.
Dostęp robotów do witryny określają odpowiednie dyrektywy umieszczane w pliku robots.txt. Warto więc zwrócić na to uwagę i upewnić się, czy nasza witryna nie posiada żadnych blokad uniemożliwiających odpowiednie jej indeksowanie.
Boty, które odnajdą daną witrynę przeprowadzają analizę jej zawartości (treść i jej wartość, tematyka, etc.). Na tej podstawie dokonują odpowiedniej klasyfikacji i (umieszczenia w indeksie wyszukiwarki). Ostatecznie, po analizie także innych czynników, takich jak np. liczba i jakość odnośników prowadzących do serwisu, dochodzi do ustalenia pozycji strony w rankingu wyszukiwarki.
Jeśli pozycja w wynikach wyszukiwania nam nie odpowiada, możemy przystąpić do optymalizacji strony. Warto jednak pamiętać, że zmiany, których dokonujemy w serwisie – czy to zmiany w treści czy strukturze strony - nie od razu będą miały odzwierciedlenie w pozycjach zajmowanych w Google. Googlebot musi ponownie odwiedzić naszą witrynę i dokonać ponownej analizy, czyli ‘reindeksacji’. W zależności od rozmiaru wprowadzonych zmian, a także wartości naszej witryny, może to trwać kilka lub nawet kilkanaście tygodni.
Szybkość działania Googlebotów możemy 'ręcznie' określić w Centrum Google dla Webmasterów – pamiętając jednak, że zwiększenie aktywności botów na naszym serwisie będzie prowadziło do większego obciążenia serwera, na którym znajduje się witryna.
Choć boty Google coraz lepiej radzą sobie z indeksowaniem treści umieszczanych przy pomocy JavaScript, czy z wykorzystaniem technologii Flash, to jednak bezpieczniej jest nie stosować tych elementów do budowania nawigacji serwisu – takie treści mogą nie zostać zaindeksowane przez wyszukiwarkę.
W uproszczeniu - na nasz serwis ‘oczami’ googlebota możemy spojrzeć korzystając z przeglądarki tekstowej, np. Lynx.


--
Aneta Mitko

14 stycznia 2011

Bluerank - praktyki w dziale IT

Studentów z Łodzi zapraszamy na miesięczne praktyki do działu IT Bluerank.

Niezbędna jest między innymi znajomość kilku dwu- i trzyliterowych skrótów :) pracowitość, odpowiedzialność, dokładność, a także poczucie humoru (niekoniecznie to informatyczne ;).

Czekamy na Wasze zgłoszenia pod adresem praca@bluerank.pl.

--
Aneta Mitko

11 stycznia 2011

Rekomendacje SEO, a poprawne działanie Google Analytics

Skrypty JavaScript osadzane są w kodzie strony w pliku zewnętrznym bądź "inline", czyli w źródle strony. Zarówno plików zewnętrznych jak i bloków JavaScript osadzonych "inline" może w dokumencie HTML występować wiele, co powoduje znaczne zwiększenie objętości kodu w stosunku do treści. Pod względem przyjazności dla wyszukiwarki jest to sytuacja wpływająca negatywnie na SEO. Dlatego też...

Często jedną z rekomendacji SEO, mającą na celu przyśpieszenie ładowania strony i ograniczenie ilości kodu w źródle, jest przeniesienie skryptów JavaScirpt do zewnętrznego pliku. Przeniesienie wszystkich skryptów do jednego pliku ma tę zaletę, że w źródle strony ogranicza się do jednej linijki kodu, a w kontekście komunikacji z serwerem, na którym znajduje się strona, sprowadza się do wysłania jednego żądania. Istnieje jednak ryzyko, że część skryptów przestanie działać poprawnie ponieważ wymaga do działania innych skryptów, które powinny być ładowane wcześniej. Problem ten dotyczy synchronicznego kodu Google Analytics - starego kodu, który jeszcze w dużym stopniu występuje na stronach. Standardowo kod ten ma postać:

<script type="text/java_script">
var gaJsHost = (("https:" == document.location.protocol) ? "https://ssl." : "http://www.");
document.write(unescape("%3Cscript src='" + gaJsHost + "google-analytics.com/ga.js' type='text/java_script'%3E%3C/script%3E"));
</script>
<script type="text/java_script">
var pageTracker = _gat._getTracker("UA-XXXXXX-YY");
pageTracker._trackPageview();
</script>

Kod jest osadzany za pomocą dwóch znaczników pobierany jest plik ga.js z serwera Google Analytics, natomiast w drugim bloku definiowany jest kod śledzący i zliczane są odwiedziny. Bardzo ważne jest, aby plik ga.js został załadowany przed zdefiniowaniem trackera, bo w przeciwnym wypadku obiekt _gat odpowiedzialny za utworzenie trackera nie zostanie wykryty i pojawi się błąd, a w konsekwencji odwiedziny nie zostaną zliczone. Istotne jest też, aby plik ga.js i kod śledzący trackera definiować w dwóch oddzielnych blokach .... Wykonywanie skryptów na stronie internetowej następuje blokami definiowanymi przez parę wspomnianych znaczników , kolejno jeden blok po drugim - nie może się wykonać kolejny blok, jeśli nie zakończy się wykonywać poprzedni. Kolejność wykonywania jest dokładnie taka, jak kolejność bloków w dokumencie. Mało tego, jeśli w dowolnym bloku pojawi sie kod podobny do tego:

document.write(unescape("%3Cscript src='" + gaJsHost + "google-analytics.com/ga.js' type='text/java_script'%3E%3C/script%3E"));

definiujący dynamicznie kolejny blok JavaScript, następny w kolejności wykona się blok dynamiczny, a dopiero po nim kolejna sekcja kodu JavaScript.

Z tego sposobu działania wynika konieczność umieszczenia synchronicznego kodu śledzącego Google Analytics w dwóch oddzielnych znacznikach i to w dokładnie takiej kolejności, ponieważ najpierw musi zostać załadowany plik ga.js z serwera Google, by w następnym kroku można było utworzyć obiekt trackera i zliczyć odwiedziny. Kolejność odwrotna spowoduje błąd, ponieważ w momencie tworzenia trackera obiekt _gat odpowiedzialny za jego utworzenie nie będzie jeszcze istniał. Umieszczenie w jednym bloku zarówno definicji pliku ga.js jak i kodu trackera również spowoduje taki błąd. Podobna sytuacja wystąpi kiedy będziemy chcieli przenieść wszystko do jednego zewnętrznego pliku - w momencie wykonywania skryptu z pliku zewnętrznego obiekt _gat nie będzie załadowany do pamięci podręcznej, ponieważ pobranie pliku ga.js nastąpi dopiero w momencie zakończenia aktualnie przetwarzanego bloku JavaScript.

Stąd też następujący kod:

var gaJsHost = (("https:" == document.location.protocol) ? "https://ssl." : "http://www.");
document.write(unescape("%3Cscript src='" + gaJsHost + "google-analytics.com/ga.js' type='text/java_script'%3E%3C/script%3E"));
var pageTracker = _gat._getTracker("UA-XXXXXX-YY");
pageTracker._trackPageview();

niezależnie od tego czy będzie umieszczony w zewnętrznym pliku JavaScript czy wewnątrz strony (znaczniki ) nie będzie działał poprawnie.

Jeśli więc konieczne jest umieszczenie skryptów JavaScript w plikach zewnętrznych np. ze względu na rekomendacje SEO dotyczące skryptów JS, zawsze należy zastosować dwa odrębne pliki

<script type="text/javascript" src="gahost.js"></script>
<script type="text/javascript" src="gatracker.js"></script>

umieszczając w pierwszym procedurę ładowania pliku ga.js:

var gaJsHost = (("https:" == document.location.protocol) ? "https://ssl." : "http://www.");
document.write(unescape("%3Cscript src='" + gaJsHost + "google-analytics.com/ga.js' type='text/java_script'%3E%3C/script%3E"));

i w drugim definicję trackera:

var pageTracker = _gat._getTracker("UA-XXXXXX-YY");
pageTracker._trackPageview();


--

Konrad Dopieralski

4 stycznia 2011

Narzędzia pomocne w pracy specjalisty SEO

Dziś kilka słów o tym, z czego można (i z czego warto) skorzystać, kiedy pracujemy nad optymalizacją i pozycjonowaniem serwisu internetowego. Materiał ten nie wyczerpuje oczywiście wszystkich dostępnych możliwości, wskazuje jedynie kilka wybranych opcji, które wydają się najbardziej przydatne w tego rodzaju pracy.

Z czego zatem korzysta specjalista SEO? Przede wszystkim z własnego doświadczenia, ale na kolejnych etapach realizacji projektu wspiera się również różnorodnymi narzędziami dostępnymi w Internecie…

Wybór fraz kluczowych

W pierwszej fazie pracy SEO, gdy skupiamy się na analizie i wyborze właściwych słów kluczowych, można posłużyć się, stworzonym przez Google, Narzędziem Propozycji Słów Kluczowych. Zostało one udostępnione, co prawda, głównie z myślą o przygotowywaniu kampanii AdWords, ale z powodzeniem służy także specjalistom SEO przy wyborze fraz do pozycjonowania. Warto pamiętać tylko o zaznaczeniu właściwego typu dopasowania oraz odpowiedniej interpretacji zwracanych danych (liczba wyszukań słowa czy frazy). Bezpiecznie jest przyjąć, że będąc na daną frazę nawet wśród pierwszej trójki zwracanych stron może nam to w rzeczywistości sprowadzić ruch w ilości kilka - kilkanaście razy mniejszej, niż podawana wartość w dopasowaniu ścisłym.

Innym przydatnym narzędziem może być również na tym etapie sama wyszukiwarka – wpisując w pole wyszukiwania Google dane hasło otrzymujemy przecież listę podobnych zapytań (Google Auto Suggest), które mogą być dodatkowymi ciekawymi pomysłami do wykorzystania w naszym projekcie.

Warto sprawdzić także trendy w wyszukiwaniach i Statystyki wyszukiwarki Google - być może tematyka, którą będziemy się zajmować okresowo jest częściej poszukiwana przez internautów – trzeba wówczas odpowiednio wcześniej zaplanować działania – tak, by w okresie największej popularności zajmować odpowiednio wysokie pozycje.

Analiza konkurencji

Planując działania SEO zawsze warto przyjrzeć się, jak robi to bezpośrednia konkurencja serwisu, który pozycjonujemy – z jakich źródeł pozyskiwane są odnośniki, w jakiej ilości – ile sami będziemy musieli poświęcić czasu, aby osiągać podobne efekty oraz być może wygenerować jakieś dodatkowe pomysły na budowanie popularności naszego serwisu w Sieci. Google niestety na tym polu udostępnia jedynie niewielki wycinek danych o linkach prowadzących do interesującej nas witryny - z pomocą przyjdzie nam jednak inna wyszukiwarka i jej narzędzie – Yahoo Site Explorer, dzięki któremu możemy poznać nawet do 1000 odnośników prowadzących do pozycjonowanej przez nas witryny.

Ciekawym i przydatnym w tej fazie prac narzędziem jest także Open Site Explorer, w którym możemy poznać rozkład atrybutu anchor text z odnośników prowadzących do danego serwisu, wartość serwisu - mierzoną według algorytmów opracowanych przez SEOmoz. Oprócz ogólnej liczby odnośników prowadzących do danego serwisu (co w porównaniu z danymi z Google Webmaster Tools pokrywa się w 60-70%), warto także zwrócić uwagę na liczbę linkujących domen, co może być również cenną informacją pokazującą nam, gdzie znajdujemy się na tle konkurencji…

Zaawansowane płatne narzędzia, takie jak np. Market Samurai pozwalają na bardziej kompleksowe analizy działań konkurencji oraz słów kluczowych, dodatkowo zaoszczędzając przy tym sporo naszego czasu.

Pomiar efektów

I wreszcie końcowy etap prac – mierzenie skuteczności prowadzonych działań SEO. Oprócz darmowych narzędzi do monitorowania pozycji, jak np. Free monitor for Google, dla bardziej profesjonalnych zastosowań wskazane będą tu płatne narzędzia, typu Web CEO, gdzie możemy m.in. sprawdzać pozycje dla większej liczby serwisów jednocześnie, zliczać ilość backlinków itp. Wszystkie te dane w przejrzystej formie można bez problemów eksportować do pliku Excel i tworzyć odpowiednie raporty (jeśli my lub nasz klient ma taką potrzebę).

--
Aneta Mitko