29 maja 2013

Jak program Xenu’s Link Sleuth pomaga przy diagnozie problemów ze stroną WWW?

Wszyscy chcemy, żeby nasza strona WWW była odwiedzana przez internautów oraz żeby była dobrze zoptymalizowana pod kątem technicznym. Dzięki temu googlebot jest wstanie poprawnie ją „przeczytać” oraz prawidłowo umieścić w rankingach. Dobrze skonstruowana strona WWW, bez duplikacji treści, z unikalnymi tytułami - to podstawa, jeśli chcemy w pełni wykorzystać potencjał serwisu.

Część błędów można zauważyć przeglądając stronę ręcznie, część jest bardzo trudna lub wręcz niemożliwa do wychwycenia bez użycia dodatkowych narzędzi.

W tym artykule przedstawię Wam darmowy program Xenu’s Link Sleuth, który jest typem web crawlera, zbierającego informacje o stronie WWW tworząc plik xls z listą adresów URL i dodatkowymi, przydatnymi dla pozycjonera informacjami. Na podstawie takiego pliku, po krótkiej analizie, będziecie w stanie wychwycić najważniejsze problemy techniczne związane z Waszą stronę.

Jakich użytecznych informacji dostarczy Wam program Xenu’s Link Sleuth?
  • Pokaże status wszystkich podstron i plików – wraz z kodem http (potencjalne błędy).
  • Podzieli adresy na typy, dzięki czemu można łatwo odfiltrować i zweryfikować różne sekcje strony. Przykładowe typy to: html, image, CSS, JSS, pdf, xml, jpeg, xml itd.
  • Pokaże rozmiar pliku lub strony.
  • Wyświetli meta title podstrony.
  • Zaprezentuje poziom w strukturze strony, czyli w ilu klikach od głównej strony znajduje się plik lub podstrona.
  • Wyświetli ile linków kieruje do strony (wewnętrznych) i do ilu innych podstron linkuje (ogółem)  ta strona.

Po ściągnięciu programu dostępnego pod tym LINKIEM (426KB), rozpakowaniu i zainstalowaniu, należy  go uruchomić.

Z menu File, wybieramy Check URL:


Wpisujemy adres naszej strony, na potrzeby tego artykułu analizę wykonam dla strony www.zeglujznami.pl, klikamy OK.


W zależności od tego jak duża jest strona (ile ma podstron, zdjęć, itd.) skanowanie może trwać od kilku minut do nawet kilkunastu godzin. W tym przypadku 1500 podstron i plików zostało przeskanowanych przez ok. 2 minuty.

Gdy skanowanie się zakończy wybieramy z menu „Export to tab separated file”:


Na dysku zapisze się nam plik txt. Uruchamiamy następnie Excela, klikamy w komórkę A1 i z zakładki „Dane” importujemy nasz plik poprzez link „z tekstu”.  Ważne, aby podczas importu wybrać typ pliku „Rozdzielany” oraz pochodzenie pliku „UTF-8”. Dzięki temu polskie znaki będą pojawiać się prawidłowo.

W następnym kroku wybieramy Ograniczniki „Tabulator” i Zakończ, Ok.

Dostaniemy tabelkę. Zaznaczamy pierwszy wiersz i klikamy „Dane” i „filtruj”. Przyda się to podczas dalszej analizy.



Opis funkcjonalności programu Xenu:
  • Kolumna Address – tutaj znajduje się adres podstrony/pliku, którego dotyczą pozostałe dane z wiersza. W tym miejscu łatwo możemy odfiltrować strony wewnętrzne od zewnętrznych. Dzięki temu szybko zorientujemy się do kogo linkuje nasza strona i czy wszystkie linki wychodzące są potrzebne i nieszkodliwe (np. zapomniane wymiany linków z innymi stronami).

  • Kolumna Status-Code / Status Text – tutaj znajdują się kody odpowiedzi serwera http. Ta wartość powie nam czy wszystko jest z naszymi stronami ok (status 200), czy strony nie istnieją (kod 404 – jest to potencjalnie błąd linkowania w strukturze strony lub usunięta podstrona), czy np. strona jest zablokowana z powodu zabezpieczeń serwera (403).
    Na powyższym przykładzie widać, że podstrona, która powinna być dostępna dla robotów jest nieosiągalna z powodu zabezpieczeń. Przez to nie pojawia się w wynikach wyszukiwania.

    Więcej kodów odpowiedzi http i ich opisów znajdziecie TUTAJ.
  • Kolumna Type – tutaj można odfiltrować podstrony serwisu od np. plików graficznych czy pdf. Przydatne przy analizie struktury linków wewnętrznych do podstron.
  • Kolumna Size – to rozmiar pliku. Tutaj możemy znaleźć odpowiedź na pytanie czemu np. podstrona z grafikami ładuje się wolno (wiele ciężkich plików na jednej podstronie to potencjalny problem). Wartości podane są w bajtach. Jeśli potrzebujecie bardziej szczegółowych statystyk odnośnie szybkości działania strony i bardziej szczegółowych parametrów technicznych odsyłamy do serwisu:  webpagetest.org.
  • Kolumna Title, czyli meta title to tytuł strony widzianej w wynikach organicznych Google. Bardzo ważne jest to, aby każda istotna pod kątem ruchu podstrona miała unikalny tytuł. Sortując tę kolumnę (np. rosnąco), łatwo można zauważyć, które tytuły są zduplikowane lub wręcz nie mają przypisanych wartości. Warto tutaj filtrować jednocześnie w kolumnie Type, po wartości text/html.


  • Kolumna Level – ta liczba mówi nam w ilu kliknięciach od głównej strony, dostępna jest dana podstrona. Po analizie tej kolumny widać, jaką strukturę ma strona. Wiadomo, że najważniejsze podstrony powinny być dostępne już w pierwszym kliknięciu, inne w dalszych. Warto też zadbać o to, by na głównej stronie nie było za mało linków do dalszych kategorii (gorzej rozchodzi się Link Juice i podstrony na poziomie Level 2 są słabsze niż te na poziomie Level 1). Nie warto też umieszczać linków do wszystkich podstrona serwisu na poziomie Level 1, bo nie wszystkie na to zasługują. Przy tworzeniu rekomendacji na tym etapie analizy, ważne jest doświadczenie SEO specjalisty oraz cele Klienta. Należy wybrać optymalną strukturę serwisu i promować najważniejsze podstrony i sekcje.
  • Kolumna Links Out – to liczba linków wychodzących z danej podstrony. Wewnętrznych i zewnętrznych. Warto zwrócić uwagę, aby ta liczba korespondowała z wielkością serwisu. Nie da się tutaj określić sztywnych wartości, bo zależy to od konkretnego przypadku. Ważne jest, aby tych linków nie było zbyt dużo, gdyż osłabią wtedy inne istotne podstrony.
  • Kolumna Links In – liczba linków wewnętrznych kierujących do danej podstrony. Im więcej linków tym strona jest silniejsza w serwisie. Warto zadbać o to, żeby najważniejsze sekcje, główne kategorie, kluczowe podstrony, które najwięcej sprzedają miały dużą ilość linków wewnętrznych.
  • Kolumna Charset – rodzaj kodowania strony. Przyjętym standardem w Polsce (i nie tylko) jest UTF-8. Działa na wielu platformach i sprawia stosunkowo najmniej problemów z odczytaniem. W Polsce część stron używa jeszcze kodowania latin-2, czyli iso-8859-2.
  • Kolumna Description, czyli meta description – jest to tag, który nie ma bezpośrednio wpływu na pozycje strony w Google, ma jednak wpływ na to czy internauta kliknie w link do naszej strony, czy nie. Warto stworzyć unikalne opisy, które będą odzwierciedlać treść strony, gdyż mogą przyczynić się do zwiększenia klikalności (CTR), a o to nam przecież chodzi. Pisząc taki opis warto wyróżnić się na tle konkurencji. Należy jednak pamiętać, że jeśli opis będzie za bardzo odbiegał od tematyki strony, Google może wybrać dowolny inny tekst z naszej podstrony w celu umieszczenia go w wynikach wyszukiwania, ignorując wartość meta description.


Narzędzie Xenu’s Link Sleuth może też być użyte do stworzenia jednorazowo dokładnej mapy strony.

Dzięki powyższym parametrom dostępnym poprzez raport programu Xenu, możemy w prosty i darmowy sposób zidentyfikować największe problemy techniczne związane z podstronami w naszym serwisie. Przypominamy też, że w poprzednich artykułach opisaliśmy, jak można użyć Google Webmaster Tools do diagnozy problemów ze stroną. Odsyłamy do lektur: artykuł 1, artykuł 2 i artykuł 3.

--
Mateusz  Kicki - SEO Specialist w Bluerank

23 maja 2013

Rozwój analityki internetowej w Polsce - Web Analytics in Poland 2013

Jak sami dobrze wiecie, temat analityki internetowej jest nam bardzo bliski. Regularnie publikujemy informacje i porady z tej dziedziny. Cieszymy się więc, że już po raz drugi mamy przyjemność zaprosić Was do udziału w badaniu zorganizowanym przez Ralfa Habericha z firmy Webtrekk. W krótkiej ankiecie możecie wypowiedzieć się na temat swoich doświadczeń związanych z analityką internetową. Badanie jest dostępne pod adresem:

http://bit.ly/Analytics_Poland

Dane zostaną zebrane i zaprezentowane w specjalnym raporcie. Premiera raportu będzie miała miejsce już 26 czerwca 2013, podczas Blueffect - II Ogólnopolskiego Kongresu Efektywności.


Jest to już druga edycja wydarzenia poświęconego w całości skutecznemu wykorzystaniu analityki internetowej w biznesie. Poprzednia edycja Kongresu została zakończona prośbą o udział w badaniu Ralfa, co pozwoliło nam zebrać bardzo ciekawe dane, które udostępniliśmy Wam w formie raportu.  Mamy nadzieję, że w tym roku uda nam się przebadać jeszcze więcej osób, a następnie przedstawić Wam, jak zmienił się status analityki internetowej przez ostatni rok.



Przypominamy, że w tegorocznej edycji Blueffect również będziecie mogli zobaczyć wystąpienie Ralfa Habericha, który zrealizuje temat ”Quo Vadis Analytics - Trends, Insights and Future in Poland and Worldwide”. Uczestników zeszłorocznego eventu ucieszy na pewno fakt, że jednym z prelegentów znów będzie Pavel Jasek z czeskiej agencji Dobry Web. Rok temu jego wystąpienie zebrało niezwykle pozytywne recenzje. Wśród prelegentów znajdą się również Nikki Rae (Managing Director, Future Insight Analytics Ltd.) oraz Diane M. Magers (Customer Experience Executive, Sysco Corporation).

Zapraszamy do zapoznania się pełnym programem konferencji na stronie - www.blueffect.pl

--
Redakcja

21 maja 2013

Nowy AdWords Editor – na co należy uważać?

AdWords Editor to program używanym na co dzień w pracy PPC Managerów. Ułatwia nam aktualizowanie i tworzenie kampanii. Jednak nie jest bez wad. Pisząc ten artykuł zamierzam przedstawić, które operacje powodują zagrożenia utraty danych oraz jakich parametrów nie jesteśmy w stanie zmienić w ustawieniach.

Problem z kampaniami rozszerzonymi

Google w tym roku wprowadził Kampanie Rozszerzone (o których już na blogu pisaliśmy), rozbudowując jednocześnie możliwości konfiguracji kampanii. Zmiany te doprowadziły do problemów z konfigurowaniem kampanii w edytorze AdWords, ponieważ nie wszystkie funkcje zostały zaimplementowane w najnowszej wersji.

Największe problemy są z nowymi rozszerzeniami kampanii, a w szczególności sitelinkami. Gdy na koncie posiadamy sitelinki skonwertowane do nowego typu, wtedy w edytorze nie są one dostępne, natomiast tworząc je w edytorze są one rozpoznawane w panelu na stronie, jako stelinki starego typu. 

Brak możliwości ustawienia harmonogramu reklam

Modyfikowanie zmian harmonogramu również nie jest dostępne w nowym edytorze AdWords. Teoretycznie jest przycisk 'wklej', ale niestety nie jest aktywny.



Wszelkie zmiany harmonogramu musimy wykonywać za pomocą strony, jednak jest to dość proste, gdyż zaznaczając kilka zakresów możemy jednocześnie je zmodyfikować.


Rozwiązanie to bardzo ułatwia i przyspiesza naszą pracę.

Kasowanie niezapisanych zmian na koncie

Największy na tę chwilę problem, jaki pojawia się w edytorze Adwords, polega na kasowaniu niezapisanych zmian w przypadku pobierania aktualizacji kampanii. Pracując w klika osób na jednym koncie najlepiej mieć zawsze aktualną wersję kampanii, aby nie wprowadzać zmian, które ktoś już mógł wprowadzić. Tworząc własne modyfikacje w kampanii musimy pamiętać, aby przed pobraniem nowych zmian, wysłać aktualnie posiadane. Uchroni to nas przed utratą wprowadzonych zmian.

Brak polskiego słownika

Uciążliwy jest też brak polskiego słownika, czasami odruchowo czytam tekst reklamy po kilka razy  szukając błędu ortograficznego.



Pisząc ten artykuł bazowałem na funkcjach i możliwościach Adwords Editor w wersji 10.0.1. Bardzo dziękuję wszystkim za uwagę, gdybyście zauważyli inne problemy i błędy, zapraszam do napisania o nich w komentarzach pod tekstem. 

--
Piotr Kosiński -  PPC Manager w Bluerank


17 maja 2013

Najlepsza agencja SEM – nominacja dla Bluerank w European Search Awards 2013

Już po raz drugi mamy szansę zdobyć tytuł najlepszej agencji SEM w Europie. Możemy być dumni, ponieważ jesteśmy jedyną firmą z Polski, która walczy o to wyróżnienie. Kategoria „najlepsza agencja” dotyczy całościowych rezultatów działalności firmy, zatem tym bardziej możemy być zadowoleni, że nasz sposób pracy oraz podejście do projektów zostały docenione.


Kapituła konkursu „ESA2013” ogłosiła grono finalistów dwudziestu kategorii, wyniki zostaną ogłoszone 20 czerwca na uroczystej gali w Barcelonie. Co więcej, tylko dwie agencje mogą pochwalić się tym, że w konkursie zostały nominowane dwa razy z rzędu . Jedną z nich jesteśmy my.

Jaka jest recepta na sukces w branży SEM?

Najprościej: dostarczać usługi SEM na światowym poziomie :)

A teraz na poważnie. Od 2006 roku wyznajemy praktycznie te same zasady prowadzenia biznesu. Zmieniają się tylko technologie.

  1. Zasadę „Content is the King” traktujemy bardzo poważnie. SEO Copywriter to dla nas pisarz, który ma za zadanie przygotowywać  atrakcyjne treści, które będą przyciągać linki. Nie piszemy wyłącznie pod SEO. 
  2. Śledzimy światowe trendy w marketingu i wykorzystujemy tę wiedzę podczas pracy dla naszych Klientów. Możecie nas znaleźć na konferencjach branżowych na całym świecie, także w roli prelegentów. 
  3. Prowadzimy własne testy, aby podążać za zmianami, które zachodzą w Google - w ten sposób potrafimy być o krok przed konkurencją. Niejednokrotnie nasze odkrycia i wyniki badań przedstawiamy Wam właśnie na tym blogu. Często publikujemy artykuły w mediach branżowych zarówno na rynku polskim, jak i zagranicznym. Cyklicznie przygotowujemy raporty i grafiki na temat rynku wyszukiwarek. 
  4. Dbamy o naszych Klientów. Edukujemy ich zespoły,  by były w stanie samodzielnie wspierać procesy SEO. Jesteśmy transparentni, pokazujemy jak działamy. 
  5. Praktycznie od samego początku, czyli od 2006 roku, jesteśmy ambasadorami koncepcji „White Hat SEO”. Udowadniamy, że rzetelne podejście do SEM pozwala uzyskiwać bezpieczne i długotrwałe rezultaty. Edukujemy rynek i doradzamy branży poprzez uczestnictwo w takich inicjatywach, jak grupy robocze IAB Polska oraz eCommerce Polska.
Mamy nadzieję, że zainspirowaliśmy Was do podążania naszą ścieżką. Nam się to opłaciło :)

Więcej o naszym udziale w konkursie możecie przeczytać w aktualnościach.
Pełna shortlista znajduje się pod adresem: http://www.europeansearchawards.com/shortlist.htm

--
Redakcja

15 maja 2013

Wdrożenie Universal Analytics – krok drugi. E-commerce oraz zdarzenia

W poprzednim artykule na temat Universal Analytics przyjrzeliśmy się podstawowym różnicom pomiędzy starym, a nowym kodem śledzącym Google Analytics. Jednak co zrobić, gdy chcemy monitorować działanie naszej strony bardziej szczegółowo? Odpowiedzią są między innymi kod e-commerce oraz zdarzenia. Obie funkcje znane są z poprzednich wersji GA i nie uległy rewolucji. Uproszczony został natomiast sam kod, który trzeba wdrożyć na naszej stronie.

Śledzenie e-commerce w Universal Analytics

Nowy sposób śledzenia parametru e-commerce różni  się od poprzedniej wersji GA jedynie składnią kodu. Sama mechanika działania pozostaje identyczna - najpierw należy dodać transakcję, a później przypisane do niej przedmioty. Aby dodać transakcję korzystamy z następującego kodu:


Podobnie jak w wywoływaniu wyświetleń strony, tak i tutaj korzystamy z funkcji ga (zamiast starego _gaq.push). Następnie wymieniamy argument ecommerce:addTransaction po czym wymieniamy kolejne argumenty, będące właściwościami transakcji.

W przeciwieństwie do poprzedniej wersji kodu nie mamy jednak możliwości podania adresu wysyłki zamówienia. Warte uwagi jest też to, że zamiast identyfikować kolejne właściwości wedle ich kolejności, w tym wypadku (dzięki podaniu ich identyfikatorów) możemy je stosować w dowolnej konfiguracji.

Po dodaniu transakcji, podobnie jak do tej pory, należy dodać przypisane do niej przedmioty. Pomimo tego, że zmianie znowu uległa składnia kodu, która pozostaje w konwencji UA, zakres danych pozostaje taki sam.


Kiedy dodane zostały już wszystkie wymagane elementy, pozostaje jedynie wykonanie kodu za pomocą funkcji ga(‘ecommerce:send’);, którą umieszczamy na końcu całego kodu e-commerce.

Śledzenie zdarzeń w Universal Analytics

Po odpowiednim wdrożeniu zdarzeń, ilość kluczowych danych dostępnych za pomocą Google Analytics może wielokrotnie wzrosnąć. Zdarzenia umożliwiają m.in. śledzenie kliknięć w kluczowe elementy strony lub ilości pobrań danego pliku, a osoba bardziej obeznana z JS może skorzystać z jeszcze większej ilości opcji (np. śledzenie scrollowania na stronie). Wiąże się to oczywiście z pewnymi konsekwencjami, jak ewentualność sztucznego zaniżenia współczynnika odrzuceń, który przez GA interpretowany jest jako wyświetlenie bez wykonania żadnej akcji (a zdarzenie również jest akcją). Niemniej jednak, zdarzenia stanowią bardzo istotną część prawidłowego śledzenia efektywności strony internetowej.

Uruchomienie tej funkcji jest proste. Wszystko co należy zrobić, to wdrożyć wykonanie kodu przy oczekiwanej przez nas akcji (np. kliknięcie w odnośnik). Podstawowy kod wygląda następująco:


Warto mieć na uwadze, że przy każdym zdarzeniu wymagane są dwa argumenty, mające na celu klasyfikację zdarzeń oraz ułatwienie ich odnalezienie w interfejsie GA. Są to, tak jak w pierwszym przykładzie, category (pol: Kategoria) oraz action (pol: Akcja). Przykładowo, dla zdarzenia pobrania pliku kategorią może być jego nazwa, a akcją „Pobranie”. Trzeci argument label (pol: Etykieta) pozwala nam na jeszcze dokładniejszą klasyfikację zdarzenia, nie jest on jednak obowiązkowy. Należy pamiętać, że Google nie narzuca żadnych ograniczeń w nazewnictwie wyżej wymienionych argumentów, dzięki czemu można je dostosować do indywidualnych preferencji oraz wymagań strony. Czwartym i również nieobowiązkowym argumentem pomocnym w monetyzacji serwisu jest value, czyli po prostu wartość danego zdarzenia.

Zmiany zaproponowane w Universal Analytics w obrębie śledzenia e-commerce oraz zdarzeń nie są bardzo znaczące. Składnia kodu została jednak uproszczona, a jego wdrożenie wymagane będzie dla optymalnego pomiaru efektywności danej strony. W kolejnym artykule z serii Universal Analytics przedstawiona zostanie największa nowość UA – importowanie danych z innych źródeł.

--
Maciek Stanasiuk, Junior Consultant w Bluerank