5 lipca 2010

Zwiększamy szybkość indeksacji serwisu

Szybkość indeksacji podstron serwisu, czyli liczba stron odwiedzanych dziennie przez roboty Google, ma związek z tym, czy wyszukiwarka potrafi skutecznie odnaleźć wszystkie podstrony dostępne w obrębie danej witryny. Ma to duże znaczenie przede wszystkim w przypadku rozbudowanych serwisów, gdzie codziennie pojawiają się setki czy tysiące nowych treści.

Liczba stron indeksowanych każdego dnia zależy od wielu czynników. Należą do nich: nawigacja wewnętrzna i architektura informacji w serwisie, PageRank strony, liczba i jakość linków zewnętrznych prowadzących do domeny i podstron serwisu, częstotliwość zmian na stronie itd. Tutaj chcielibyśmy zwrócić uwagę na dwa czynniki, które bywają często niedoceniane i pomijane podczas optymalizacji serwisów internetowych.

Pierwszym jest szybkość ładowania strony - czyli po prostu to, ile czasu roboty Google muszą poświęcić na pobranie każdej podstrony serwisu. Oficjalne informacje i spekulacje na ten temat zaczęły pojawiać się kilka miesięcy temu. Matt Cutts już w październiku 2009 roku mówił o szybkości ładowania stron jako o jednym z ważniejszych czynników wpływających na pozycjonowanie.

W tym artykule prezentujemy wpływ wprowadzenia kompresji gzip na liczbę stron pobieranych dziennie przez roboty Google. Na dużym serwisie e-commerce kompresja gzip została wprowadzona w drugiej połowie czerwca. Jak widać, liczba kilobajtów pobieranych dziennie od razu spadła o dwie trzecie…




… podczas gdy liczba stron pobieranych dziennie przez roboty Google wzrosła o ponad połowę.

Poprawiając zatem szybkość ładowania stron (w tym przypadku poprzez kompresję gzip) nie tylko zwiększamy liczbę stron indeksowanych przez Google, ale też zmniejszamy wagę pobieranych danych.

Drugim sposobem na poprawę szybkości indeksacji jest manualne ustawienie maksymalnych limitów szybkości indeksowania podstron w ustawieniach narzędzi Google Webmaster Tools.


Sposób ten jest bardzo oczywisty, ale często pomijany przy optymalizacji serwisów. Faktycznie, zazwyczaj przynosi pozytywne rezultaty tylko w przypadku dużych serwisów, gdy roboty Google mogą "nie wyrobić się" ze wszystkimi zmianami na stronie przy domyślnych ustawieniach, gdzie szybkość indeksacji zazwyczaj nie przekracza kilku stron na sekundę (200 - 300 tysięcy stron dziennie). W przypadku, gdy widzimy, że poziom szybkości indeksacji osiągnął takie wartości, warto zastanowić się nad zwiększeniem limitu, nawet do maksymalnych 10 pobrań na sekundę (860 tysięcy dziennie). Poniżej widzimy efekt wygaśnięcia manualnie ustawionej szybkości indeksacji - liczba indeksowanych stron spadła z około 800 do 200 - 300 tysięcy.


Oczywiście zwiększenie indeksacji przy tak dużych serwisach ma swoje wady. Przy 800 tys. pobrań dziennie ruch generowany przez roboty Google może dochodzić do 7 GB każdego dnia!

--
Redakcja


Udostępnij:

1 komentarzy:

Cyber pisze...

Bardzo skutecznym rozwiązaniem jest postawienie mapy strony i pingowanie jej automatem. Liczba indeksacji rośnie w sposób kosmiczny.