11 Jul, 2013  |  Written by admin  |  under Blog

pingwin updateW trakcie procesu pozycjonowania stron może dojść do pewnych problemów związanych np. z nałożeniem filtra na pozycjonowaną stronę lub bardzo często się i tak zdarza, że pozycjonując stronę wiele miesięcy czy nawet lat natrafimy w tym czasie na jakąś aktualizację algorytmu, która spowoduje, że nasza strona spadnie w wynikach wyszukiwania. Spadek będzie spowodowany np. zbyt dużą optymalizacją lub po prostu nowy algorytm wyszukiwarki będzie patrzył bardziej restrykcyjnie na linki prowadzące do naszej strony. Wówczas musimy wyciągnąć wnioski i dopasować metody pozycjonowania do nowego algorytmu.

Jedną z największych zmian w algorytmie wprowadziło google jakiś czas temu. Zmiana ta nazwana została nazwą pingwina…nie wiedzieć czemu. Po wprowadzeniu takiej aktualizacji wiele stron utraciło swoje pozycje w wynikach. Nie wiedząc co robić właściciele stron zaczęli poszukiwać w internecie sposobów na wyjście z tego filtra. Opracowano kilka metod – skutecznych. Mimo to nie wszystkim udało się przywrócić stronę na pozycje sprzed aktualizacji. Siedem tygodni temu natomiast wprowadzony został Pingwin 2.0.

Ciekawą ankietę i statystyki przygotował blog Search Engine Roundtable pokazując ilu osobom dotkniętym tą aktualizacją udało się wyjść z pingwina. Przeszło pięćdziesiąt procent ich czytelników zostało dotkniętych tą aktualizacją! Z pierwszego pingwina udało się całkowicie wyciągnąć stronę dziewięciu procentom czytelników. Obecnie na stronie tego znanego bloga o seo prowadzona jest ankieta, w której można zabrać głos i odpowiedzieć na pytanie czy udało się wyjść Tobie z pingwina. W tej chwili przeszło 60% odpowiedzi jest negatywnych.

A jaka by była Twoja odpowiedź?

13 Jun, 2013  |  Written by admin  |  under Blog

błąd w google webmaster toolsNarzędzie Google Webmaster Tools jest jednym z podstawowych narzędzi jakie oferuje Google, które jest wykorzystywane w czasie procesu pozycjonowania i służy między innymi do badania optymalizacji strony, badania jaki ruch jest generowany na stronie i czy nie należy czegoś na witrynie poprawić aby była ona bardziej widoczna w wyszukiwarce google.

Jak każde narzędzie wypuszczane przez Google tak i GWT ma swoje wady i potrafi czasem pokazywać błędne dane. Ostatni problem (nie jest to już pierwszy raz kiedy Google pokazuje, że nie jest idealne w tym temacie) dotyczy pokazywania liczby linków jakie skierowane są do pozycjonowanej strony. W jednej z zakładek znajdziemy taką informację, jest w niej zawarta ogólna liczba linków skierowanych do witryny oraz ich anchory oraz najczęściej wskazywane podstrony naszego serwisu (takie podstrony, do których prowadzą jakieś linki z domen zewnętrznych).

Wielu użytkowników GWT w ostatnich dniach zauważyło znaczący spadek liczby linków jakie pokazuje to narzędzie, pomimo nie usuwania żadnych linków skierowanych do strony. Spadki są rzędu nawet osiemdziesięciu procent. Ostatnia taka wpadka google miała miejsce w styczniu tego roku. Widząc takie spadki można zacząć się martwić ponieważ wiadomo, że linki skierowane do danej witryny mają ogromny wpływ na jej pozycjonowanie i spadek ilości tych linków może być równoznaczny ze spadkiem pozycji strony w wynikach wyszukiwania. Google uspokaja jednak mówiąc, że jest to tylko kolejny błąd w ich systemie i zostanie on wkrótce naprawiony. Jeśli ktoś chciałby podyskutować na ten temat, to zapraszamy do wątku na http://www.webmasterworld.com/google/4583169.htm

26 Apr, 2012  |  Written by admin  |  under Blog

W ciągu ostatnich kilku dni nastąpiło prawdziwe trzęsienie ziemi jeśli chodzi o algorytm Google. W ciągu doby wprowadzone zostały zmiany, które dały się we znaki niemal wszystkim, którzy zajmują się pozycjonowaniem stron hobbistycznie lub świadczą profesjonalne usługi pozycjonowania innym firmom. Na chwilę obecną nie da się wysunąć jakiś konstruktywnych wniosków w tym temacie, ponieważ każda zmiana algorytmu powinna być analizowana dopiero po upływie minimum tygodnia od czasu jej wprowadzenia. Analizując witryny, które ucierpiały na tym updacie, naprawdę nie da się dopatrzyć na chwilę obecną żadnych zależności. Czasem dwie pozycjonowane niemal identycznie witryny zachowują się na dwa różne sposoby. Jedna znajduje się ciągle w pierwszej piątce wyników wyszukiwania natomiast druga wypadła w “otchłań”.

Co na te wszystkie zmiany mówi samo Google?

Jak czytamy na ich oficjalnym blogu poprawka algorytmu ma na celu promowanie witryn dobrej jakości…a jakie są fakty? Wręcz przeciwnie – w pierwszej dziesiątce wyników zaczęły się pojawiać strony zapleczowe robione specjalnie w celu pozycjonowania innych witryn. Strony te są marnej jakości czasem dochodzi do sytuacji kiedy w top10 na frazy bardzo konkurencyjne pojawiają się niemal puste strony, bez jakiejkolwiek sensownej treści. Google na swoim blogu w tym oto wpisie: jak google rzekomo promuje witryny dobrej jakości zapewnia iż rozpoczął walkę z witrynami, które umieszczają teksty typowo w celu pozycjonowania innych witryn. Takie treści są pozbawione sensu, a umieszczone w nich odnośniki nie są absolutnie w żaden sposób powiązane tematycznie z całym tekstem, który jest w zasadzie o niczym. Google podaje nawet przykład takiej witryny:Wszystko jest jak do tej pory ok, można wierzyć wyszukiwarce na słowo, ale co się stanie jak zaczniemy przeszukiwać jej indeks? Na wiele fraz w top10 pojawiają się właśnie tego typu witryny, tworzone najczęściej na darmowych platformach blogowych, których jedynym celem jest pozycjonowanie innej strony. Gdzie tutaj logika? Dlaczego ludzie z Google piszą ba blogu jedno, a faktycznie robione jest coś innego?

Wiele analiz potwierdza fakt iż w tym updacie ukarane zostało niesłusznie wiele wartościowych stron, na rzecz zwykłego spamu i zaplecza pozycjonerskiego. Pojawiają się argumenty, że celem tego zamieszania może być chęć zmuszenia użytkowników Google do skorzystania z linków sponsorowanych AdWords. Już teraz widać znacznie więcej linków sponsorowanych pod niektórymi frazami. Czy jest to sprawiedliwe?

Mozolne budowanie marki, tworzenie wartościowych treści i generowanie niesamowicie dużej liczby odwiedzin przekładających się na konwersję tylko po to by jakiegoś dnia nastąpiła “zmiana algorytmu” eliminująca z topu wartościowe serwisy? Taką siłę może mieć tylko monopolista, którego doskonałym przykładem jest właśnie korporacja Google, narzucająca własne reguły i manipulująca wynikami w sposób niewytłumaczalny.

Nadzieja umiera jednak ostatnia i tak jak przy poprzednich dużych zmianach wszystko wracało po jakimś czasie do normy, trzeba i w tym wypadku mieć nadzieję, że wyniki wyszukiwania zaczną obrazować realną wartość serwisów, przestając promować spam w wyszukiwarce.

18 Apr, 2012  |  Written by admin  |  under Blog

Dwa dni temu prawdopodobnie Google wprowadziło zapowiadane już wcześniej zmiany do swojego algorytmu. Jak można zaobserwować coraz więcej osób na największych forach zagranicznych i polskich dotyczących pozycjonowania i optymalizacji skarży się na obniżenie rankingu ich stron internetowych.

Kilka tygodni temu Google zapowiadało wdrożenie poprawek do swojego algorytmu, które będą miały na uwadze ogólną optymalizację witryny. Poprawka w algorytmie odpowiadać miała za badanie stron pod kątem ich optymalizacji. W przypadkach przeoptymalizowania witryny, miałaby na nią być nakładana kara polegająca na obniżeniu pozycji w wynikach organicznych. Wszystko wskazuje na to, że właśnie dwa dni temu powyższa zmiana zostałą wdrożona do algorytmu. Filtr pod nazwą overly SEO penalty może wyrządzić krzywdę każdej stronie, która będzie wyraźnie przeoptymalizowana. Trochę więcej na temat szczegółów odnośnie tej kary znajdziecie na koncie Google Plus Matta Cuttsa

Pozycjonowane przez nas strony nie podpadły wyszukiwarce i miejmy nadzieję, że Google je oszczędzi – w końcu przykładamy się do każdej wykonywanej przez nas optymalizacji, zdając sobie sprawę z tego, że jest to co najmniej połowa sukcesu.

W kolejnym wpisie napiszemy co robić by uniknąć kary overly SEO penalty.