Google Pingwin 2.1, przyczyny i wnioski na podstawie 44 przykładów

Aktualizacja Google Pingwin

Z reguły mało, kto dzielił się informacjami o tym jakie spadki czy wzrosty miał w wyniku kolejnej aktualizacji. Jednak sądząc po aktywności na forach dyskusyjnych i w sieciach społecznościowych, wielu zostało dotkniętych i to bardzo głęboko. Niestety wśród domen, z którymi pracuję również pojawiły się spadki. Postanowiłem dobrze się przyjrzeć wszystkim domenom i znaleźć wspólny mianownik dla spadków, wzrostów i stabilnych pozycji.

Aktualizacja algorytmu Google pod nazwą Pingwin w wersji 2.1 weszła w życie 4 października 2013. Niestety spadki o jakich mówił Matt Cutts w swoim tweecie na polskim rynku nie wynoszą 1%. Przyglądając się aktywnym domenom, z którymi współpracuję, jest to zdecydowanie więcej niż 1%. Zacznijmy od początku.

Wstęp do Aktualizacji Google Pingwin 2.1

Na Twiterze Matt Cutss zaćwierkotał:

Link jaki podał jest do pierwszej aktualizacji Pingwin, wprowadzonej w kwietniu 2012 roku. Niestety wiele osób nie zwróciło na to uwagi i cytowało, że dla polskiego języka jest to 5% zmian. Wierzcie mi, gdyby to było tylko 5% nie byłoby takiego lamentu. Dlatego ten dzień doczekał się już nazwy kodowej czerwona sobota. Na moje oko mamy do czynienia ze zmianą na poziomie 25%-35% monitorowanych i pozycjonowanych słów kluczowych. Przyjrzałem się 44 witrynom, którymi aktualnie się opiekuję. Mam 25 domen, których nic nie dotknęło, 13 domen, które świecą się na czerwono w całości (z dwoma wyjątkami) oraz 6 domen, które poszybowały do góry, a jedna z nich wróciła z niebytu.

Przyczyny spadków w ramach Google Pingwin 2.1

Dla każdej domeny / witryny z którą współpracuję prowadzę dziennik czynności jakie dla niej wykonałem. Dziś przejrzałem cały dziennik, aby znaleźć odpowiedź na pytanie co doprowadziło do tych spadków. Nie chwaląc się za bardzo, do tej pory nie miałem nigdy problemu z żadną aktualizacją algorytmiczną, wszystkie strony przechodziły je płynnie. Po analizie i zrobieniu kilku dodatkowych tabelek na papierze, okazuje się, że za Pingwina 2.1 nie jest odpowiedzialny jeden czynnik, a jest to kombinacja co najmniej 3 równocześnie obecnych „grzechów” w profilu linków prowadzących do strony:

  1. Brak lub niewielkie zróżnicowanie anchor tekstów w linkach.
  2. Duża liczba linków prowadzących do stron.
  3. Link z miejsc o słabej jakości lub brak zróżnicowania miejsc pochodzenia linków, np. tylko same SEOKatalogi lub linki z miejsc, które zostały oflagowane czy to w trakcie zwykłych działań Googlarki lub zassane z DisavowTool.

Dla każdej domeny, która zaliczyła spadek zachodziły powyższe warunki! Wspomnę jeszcze, że dla 11 domen poleciały wszystkie pozycje, natomiast w dwóch przypadkach na pozycjach zostały słowa najbardziej generyczne, ogólne, pasujące do danej domeny. Reszta wariancji i odmian poleciała. Ciekawe zjawisko, ale trudno wskazać mi teraz przyczynę tego.

Czynniki wzrostu lub stabilności podczas Pingwin Update 2.1

Patrząc z drugiej strony, 6 domen poszybowało prosto w niebo, a 25 nawet nie drgnęło. Co sprawiło, że domeny wzrosły lub nic im się nie stało? Nawet jeśli któraś z tych domen, cierpiała z powodu wcześniej wymienionych przyczyn, ale miała za to inne czynniki balansujące je na plus to słupki były zielone lub stabilne. Czynniki łagodzące wg mnie to:

  1. Duże zróżnicowanie słów kluczowych (4x-8x więcej niż liczba pozycjonowanych słów)
  2. Duże zróżnicowanie miejsc skąd pochodzi link: katalogi, fora, blogi, własne skrypty
  3. Mała liczba linków prowadzących do strony
  4. Strona prowadzona wyłącznie metodami White Hat
  5. Brak tworzenia nowych linków od zeszłego roku

Wnioski – co robić po Pingiwnie?

Wnioski są dedykowane dla klientów firm SEO, których strony ucierpiały podczas aktualizacji:

  1. To że strona ucierpiała, nie znaczy, że to wina firmy SEO. Do tej pory te działania wystarczały, jednak to Google zmienia warunki w czasie gry i każe czasem żółtą kartką a czasem czerwoną. Trzeba wtedy się dostosować do nowych warunków.
  2. Wygląda na to, że to koniec usług SEO w budżecie ok. 200zł – przy aktualnych oczekiwaniach Google, w tej kwocie nie da się pracować na rzecz danej strony i oczekiwać niesamowitych efektów. Wystarczy spojrzeć jakie są stawki w AdWords i policzyć sobie na ile kliknięć wystarcza kwota 200zł.
  3. Metody White Hat są w 100% skuteczne i bezpieczne, ale nieporównanie droższe do klasycznego Link Buildingu. Strony, dla których zastosowałem metody jak: content marketing, broken link building czy social media buzz są bezpieczne i stabilne.

Dla klientów firm SEO, którzy zastanawiają się jeszcze, co można zrobić i jak działać polecam także rady od Eweliny o tym jak przyzwyczaić się do zmian w Google. Oczywiście moje wnioski mogą być nietrafione, ciekawe jakie inne przyczyny można wskazać?

Zdjęcie: Flickr, Autor: Siddartha Thota


Zapisz się do newslettera wypełniając pola poniżej. Będziesz na bieżąco ze wszystkimi wydarzeniami związanymi z Silesia SEM i informacjami o marketingu internetowym w sieci. Nie spamujemy.

Zostanie wysłany do Ciebie e-mail potwierdzający: przeczytaj zawarte w nim instrukcje, aby potwierdzić subskrypcję.

Twój email:

 Zapoznałem się z polityką prywatności.
The following two tabs change content below.

Artur Strzelecki

Niezależny specjalista SEM, który upowszechnia wiedzę o marketingu w wyszukiwarkach internetowych. W wolnych chwilach doradza jak odnaleźć własną ścieżkę w Google.

41 komentarzy do “Google Pingwin 2.1, przyczyny i wnioski na podstawie 44 przykładów

  1. Nie zgadzam się że to 3 czynniki. Anchory odpadają – jedną stronę waliłem ponad 100 anchorami i oberwała.

    Wniosek o dużej liczbie linków … absurdalny.

    Jedynym słusznym rozwiązaniem jest disavow i flagowanie wyników (nieistotne czy linki prowadzą na stronę www czy pośrednio na stronę www (poziomy piramid))

  2. Dokładnie to samo zauważyłem – zbyt duze nasycenie anchorami monetyzującymi prowadzi do spadków. Google bardzo dobrze wie ile sie zarabia na frazach – Google-Analytics + ecommerce.
    Anchory to chyba jedyny punkt zapalny, od którego G może rozpocząć „przyglądanie się” domenie. Teraz dochodzi flagowanie domen.

  3. Trzeba odejść od rozliczania się za frazy, a przejść na rozliczanie ryczałtowe. W płatności za efekt i przy takich działaniach, które generują koszty – sytuacja jest patowa. W każdym bądź razie, seo staje się ciekawsze i droższe 🙂

  4. Artur:
    „Ciekawe zjawisko, ale trudno wskazać mi teraz przyczynę tego”

    Czyli te 3 grzechy, które podajesz wyżej, niekoniecznie muszą być przyczyną?

  5. Rozliczanie za efekt, czyli pozycje 1-10 od samego początku jest śmieszne. Czy jak idziemy do prawnika to też płacimy mu za efekt? Płacić powinno się za wykonaną pracę.

  6. @Kamil, raczej są. Natomiast to o czym wspomniałem, może wynikać z tego, że akurat na te słowa, strona miała stałe i stare linki. Natomiast słowa które wyleciały były młodsze wiekiem, później dodane do pozycjonowania i one łapią się na te czynniki.

  7. Najbardziej oberwały strony, które miały mały udział linków brandowych szczególnie te poniżej 10% + czynniki, które wymienił Artur.

  8. Arturze, zgodzę się z czynnikiem łagodzącym „Brak tworzenia nowych linków od zeszłego roku”
    Stronka, nad którą nie pracowałem od półtora roku, wróciła na top 5 na frazy, na które była w top 5 jeszcze 12 miesięcy temu. Powroty z 20-30

  9. Mi również podane w punktach przyczyny jakoś nie pasują.
    Spadło mi wszystko, co było pozycjonowane, nawet tymi z pozoru bezpiecznymi metodami.

    Nie spadła tylko strona, która ma dużo treści i w ogóle nie była linkowana.
    Nie mam jeszcze wniosków – nadal główkuję.

  10. Domena, którą w tej chwili analizujemy, to ciekawy przypadek. Klient przejęty po innej agencji, na kilka dużych, głównych fraz w TOP2/TOP3, czasami TOP1. Zrobione katalogami, preclami itd.

    Zaczęliśmy rozbudowę pod kątem długiego ogona, ale także pod kątem bardziej szczegółowych, ale wciąż znaczących pod względem ruchu podkategorii. Nasze działania to w 100% zaplecza bardzo dobrej jakości, część na przechwyconych domenach, część na nowych, skórki premium, rozrzucone po kilkunastu hostingach itd.

    Jak spojrzałem w sobotę w monitoring pozycji, co się okazało:
    ta sama domena jednocześnie została wyrzucona w kosmos ze swoich głównych fraz dotychczasowych (spadki np. z miejsca 1 na 70 lub z miejsca 2 na poza pierwszą setkę), a jednocześnie nasze linkowane z zaplecz frazy w jeden dzień skoczyły z miejsc 40-50 na miejsca 3-10.

    Takie ciekawe życie teraz jest 🙂

  11. @Paweł – w moim przypadku słowa robione brandem i linki ze słabych miejsc, nie pomogło. Natomiast słowa brandowe, robione z lepszych miejsc, takich które pingwin ani flagowanie jeszcze nie dopadły, miały udział przy dwóch wzrostach.

    @Igor, widocznie mamy inne granice dla pozornie bezpiecznych metod

    @Marcin, takie życie 🙂

  12. @Artur – dla mnie to idealnie – bo my pracujemy tylko z klientami, którzy wiedzą, czego chcą, mają dojrzałe biznesy lub kapitał na ich rozwijanie, a sensownie robione SEO mieści się w ich modelu biznesowym. Jak poziom trudności rośnie, to mnie to tylko cieszy :-).

  13. Google bardzo jasno, coraz częściej, pokazuje nam, że to ich biznes i łaskawie mamy się odpi… Najlepiej, ewentualnie możemy proponować NASZYM Klientom AdWords…Zastanawiam się nad autonomią mojego biznesy i odejściem W Ogóle od pozycjonowania, chyba, że płatność za pracę, nie wiem jednak czy Klienci w Polsce są w stanie unieś FAKT tego, że słabsze wyniki nie są zawsze winą, czy też brakiem pracy firm SEO, a tak ludzie myślą, wyniki słabe, pewnie nic nie robią. Dominacja Google, ich monopol na całym świecie trzeba będzie odsunąć do lamusa bo to co wyrabiają nie mieści się w pale. Obserwując wydatki Wielkiego G na Lobby w US i EU dochodzę do jednego wniosku, działają nie fair. Przechodząc do meritum, zaobserwowałem 10% spaku w witrynach, które obserwuje przy czym kotwicze linki zawsze mocno dywersyfikując ich anchor text.

  14. Świetny artykuł. Coraz częściej i nie tylko po tym updacie Google pokazuje że będzie wiać coraz większe spustoszenie w SEO. To co teraz jest ok za 3 mce będzie złe. Pewnie niedługo GWT będzie przekierowanie na Google Adwords. Chcesz mieć wyniki płać Google.

  15. Wybacz, ale trochę zapędziłeś się w tej „białości” SEO aż do braku rozsądku. Twoje czynniki wzrostu nijak się mają do rzeczywistości, a mogę to powiedzieć na przykładzie wzrostów które – po kilku mięsiącach bezowocnego działania – w końcu zanotowałem i tak całkiem spore. Więcej rozsądku w patrzeniu na to co Google robi! Technicznie może sporo i się stara, ale rzeczywistość jest tak nie do ogarnięcia, że nikt w etapie projektowania nie jest w stanie wszystkiego przewidzieć. Człowiek jest niedoskonały, a algorytmy to dzieło ludzi. Zbyt często podświadomie nadaje się Googlowi przypisuje się prawie boskie możliwości.
    Ponadto G to przedsięwzięcie komercyjne, więc wszystko jest skrojone pod tym kątem.
    Mówienie o WhiteHat to jakiś bezsens, bo – jak sam się przekonałem – nadal linki lub ich brak się liczę w sposób zasadniczy. Gdzie więć tu white?
    Ponadto Google pięknie mówi o różnych rzeczach, jak np. o wartościowej treści. Ale jeśli to wszystko brać literalnie, to większość to bzdury, bo odpowiednia ocena jest w sferze myślenia abstrakcyjnego, którego nie można ogarnąć algorytmem. Tak więc nawet w przypadku wartościowej treści, jeśli sprawdza się występowanie pewnych sformułować, co jest możliwe, to nadal jest schematyczne, bez tego czegoś, co może mieć tylko żywy człowiek.

  16. Wyniki finansowe – prosta przyczyna !
    Witam – wszyscy zastanawiają się dlaczego słowa lub frazy zostały lekko mocniej lub wcale „sprofilowane”. Warto się czasem zastanowić zupełnie w oderwaniu od SEO a z większym naciskiem na SEM jaka jest przyczyna wahań.
    Mam gdzieś zapisany dokument „praca magisterska” na Stanford jaka zmieniła obecny wymiar internetu. W zalążku dominującej wyszukiwarki jeden z założycieli stwierdził „jak coś szukam ma być znalezione” – czyli strony mają być informacyjne. Obecny status i wspomniane ceny za słowa i frazy w płatnych reklamach AdWords zachęcają nowicjuszy i firmy startujące czasem do 1 Euro / CPC – maksymalizują i optymalizują wyniki finansowe firmy Google. [[Warto to podzielić i dowiedzieć się ile zebrał w Q2 CPC Google aby miał wynik 13.107$ bilions]]
    Tendencja w G za Q2 jest nadal dość wyrazista – przy tej samej kwocie wydatków na infrastrukturę, badania i resztę kosztów utrzymać zwyżkę przychodów. ( search g Q2 ….. investor.google.com/pdf/2013Q2_google_earnings_slides.pdf 🙂
    Zatem jak się ma to do SEO ?
    Uważam że jeśli strategia ( poza słowami, frazami, dziennikami, bataliami, wojnami i małymi zajazdami na pozycje ) – dowolna „przynosi” nowych klientów dla stron, choć promil więcej w konwersjach, zwyżkę odwiedzin lub po prostu „większą sprzedaż” to znaczy że w obecnych warunkach ma sens. Może tak warto poszukać wspólnego mianownika – co zostało ( obcięte/poddane tuningowi) W ten sposób SEO i Specjaliści idą w tym samym kierunku co trend jaki naznacza wyszukiwarka i Firma. Klienci i biznes liczą się dla nich i dla nas. Podnieśmy ceny i już:-)

    Dla bardziej dociekliwych i otwartych oczu polecam site i link dla dominujących firm FB G LiN Twitt G+ jest to ciekawy obrazek jak SEO jest dziś utrudniane a jednocześnie proste.
    Swoją drogą wyniki wyszukiwania dla fraz ( TOP 100 🙂 jakie mnie dotyczą przypominają mi okres boom’u 2007/2008 i mocnego tunningu Porównywarek Cenowych i w pewnym sensie „Farm starych ogłoszeń np Bay Amazon Gtree i nasze lokalne PCenowe. Widzę tutaj czarne chmury nad wiosennym Googlowym Zwierzakiem.

    W ten sposób warto skwitować nową aktualizację algorytmu jedynie tak: ” Jak coś szukam to musi być zapłacone abym znalazł”

  17. Ja w punkcie 3 „Mała liczba linków prowadzących do strony” w czynnikach wzrostu lub stabilności podczas Pingwin Update 2.1 dołożyłbym, że ze stron o niskiej jakości. Duża liczba linków ze stron o wysokiej jakości moim zdaniem wpłynie dobrze na pozycję.

  18. To w końcu jest to filtr algorytmu czy nie.
    Czy zmiana sposobu linkowania, wyprowadzi w górę domenę, która spadła na 12 stronę(dla 2-3 anachorów, na inne hasła trzyma się w top3) ?
    Czy lepiej ręcznie usuwać „złe linki” i zaczynać od nowa.

  19. Jeżeli pozycjonowanie staje się coraz bardziej niepewne, a adwordsy coraz bardziej dopieszczane przez G to kierunek jest chyba jasny.
    Profil dobrze płatnego specjalisty w naszej branży:
    – biegle posługuje się adwordsami (i posiada odpowiedni certyfikat aby klient mu uwierzył :))
    – jest doskonałym analitykiem statystyk wejść na stronę (i umie poradzić sobie ze 100% not provided
    – potrafi na każdej stronie którą się zajmuje zastosować wszystkie zalecenia G w zakresie SEO

  20. Tak, zdecydowanie trzeba podnieść ceny. Pozycjonowanie stało się o wiele bardziej czasochłonne. Poza tym i tak reklama w internecie jest mega tania, zobaczcie na ceny głupich banerów na ulicach które nie przynoszą klientów

  21. Tradycyjne działania SEO dla stron fotografów i piekarzy przypominają działania takiej kury, która udaje że została wielbłądem. To jest po prostu sprzeczne z naturą i logiką. Nie można więc według mnie ganić google za to, że obcina strony za pozycjonowanie, ponieważ właściciele małych stron robią rzeczy sprzeczne z natura google. Jakichkolwiek działań by nie podjęli zawsze będą kary. To tak jakby kradzież miałaby uchodzić na sucho i byłyby pretensje ze trafiamy za kratki. Ja powtarzam od dawna, n ie ma czegoś takiego jak seo dla mikro stron firmowych bezcontentowych. I trzeba to sobie raz na zawsze zapamietać

  22. W moim przypadku odczuły spadek tylko strony, które pozycjonowane były od ponad połowy roku, ponad połowa linków miała jeszcze anchory z frazami. Jedna strona odczuła spadek tylko na frazy, których wystąpienia to 3,5%, a fraza spoza top10 w końcu weszła (wystąpienia ~1%).

    Wyszły mi 3 strony z algo, w tym jedna od razu do top 10, nie robiłem przy nich nic, były kiedyś linkowane mocno na frazy.

    Paru nowych odnotowało wzrosty, ale ciężko uznać to za coś niezwykłego, ponieważ w ich przypadku podejmowałem te same działania co do reszty, wiec być może zawdzięczam to spadkom innych.

    Dwóch klientów z ręcznym odczuło wzrost – filtr na przychodzące, dopasowanie częściowe.

    Artur, w moim przypadku pierwsze 4 punkty nie mają odzwierciedlenia, a do white hat ciężko mi się akurat odnieść 😉

  23. Najbardziej oberwała strona linkowana na długie anchory(oczywiście zróżnicowane), które zawarte były w wysokich znacznikach. Strona była wysoko od roku 5-6 fraz w top 3 lokalnie, duże miasto. Dodam, że od pół roku strona nie była linkowana.

  24. Mi się to trochę kojarzy z cięciem grubą kreską co jakiś czas – CIACH – i zaczynamy od początku a wy sobie radźcie sami

  25. @Agencja Interaktywna Hence – nie ma SEO dla małych stron ? Coś w tym jest, ale czy tak to powinno działać…. żeby hydraulik ze skromną stronką w dużym mieście musiał wydawać 2/3 swoich zarobków, żeby zaistnieć w Google (AdWords) ?

  26. A co jeśli przyczyny spadków są inne? Czy ktoś brał pod uwagę, to że google za pomocą disavow zbierało listę stron, które służą manipulowaniu pozycji i osłabili linki z tych stron? Bardzo dużo stron z linkami z katalogów i precli poszło daleko a przecież katalogi i precle były często zgłaszane do disavow.

  27. @AndrzejPM Może i nie powinno tak być, ale tak google chce. Ale tu nie chodzi o hudraulików itd. ale o zawartość stron. Nie da się stworzyć systemu, który doprowadzi do szczęścia każdą osobę, musi być jakiś kompromis, który generalnie znienawidzi większość ludzi, bo na szczycie może być tylko kilku. Gdyby to było proste to każdy byłby na szczycie – tak jak to było 8 lat temu, ale na skutek konkurencji stary system linkowania runął. Google ma tylu użytkowników, że ma gdzieś powoli linki organiczne i podsyła jedynie wyniki płatne i to w tym kierunku idzie. Wystarczy doprowadzić do sytuacji, że z organika ludzie korzystać nie będą wtedy seo minie i przestanie się opłacać.
    Ale do tego czasu po wpisaniu hydraulik warszawa ktoś w organiku na 1 miejscu jest. Ale to wszystko wygląda jak walka o ostatnią szalupę ratunkową na Tytaniku – tysiące krzyczących gardeł a miejsc tylko kilka. A żeby przetrwać ludzie pozabijają się między sobą – czy nie teraz tak mamy w SEO?

  28. Problem w tym, że SEO jest „darmowe” – nie musimy płacić za reklamę. A wszystko co jest darmowe w reklamie kiedyś się skończy, bo narost konkurencji zabija cały system. Niektórzy chyba nie rozumieją, że za reklamę trzeba płacić i to słono. A że kilka osób będzie na szczycie na jakieś frazy? I co z tego. Będą widoczni na niszówki, na ogólne będą prawie same reklamy. W życiu tez tak bywa że parę osób wygra w totka, ale zaraz nie szturmujemy Lotto i nie domagamy się kasy także dla nas. Czas SEO mija i trzeba się z tym pogodzić. Przecież google to tylko produkt jeden z miliarda w necie, a wszyscy traktują to jak cały internet. Przed google też był świat i po google również będzie. Płakać to mogą kontenty który w 50% żyły z serpów i pospadały. A fotografowie i tego typu usługi to nie umrą z tego powodu.

  29. Analiza jak najbardziej trafna, polecialo wszystko linkowane na sile anchorami klientow i najwieksze spadki dla domen ze slaba dywersja linkow…

  30. Zestawienie moim zdaniem całkiem fajne. Może faktycznie ciut ogólnikowe, jak to napisał Zgred, ale przecież blog to nie encyklopedia. Ważne, że można dobrze załapać IDEĘ. Chyba posłużę się Twoim artykułem w rozmowie z klientem :).
    Dzięki

  31. Dla mojej pozycjonowanej domeny mam 14 fraz (jedno i dwu wyrazowych), poleciały dwie (dokładnie z Top3 do top20). Reszta siedzi nadal w top1-5. Wszystkie są linkowane ze zróżnicowaniem anchorów (odmiana, przypadki, liczba pojedyncza i mnoga oraz, innym tekstem przed i po. Linkowanie mam w stalinku, seomatiku, prolinku, livelinku i linkolo (wszędzie po troszku) z częstą obserwacją gdzie są linki.
    Linków nie ma dużo. A więc pkt. 1 i 2 artykułu raczej nie jest przyczyną. Prędzej podejrzewam pkt. 3 (rzeczywiście spadek miał miejsce po 4.10.2013 r.) choć jak poczytać komentarze to odpowiedzi jednoznacznej nie ma. Najwięcej filtrów dostałem za linki na stronach nie tematycznych oraz za linki na stronach z systemów które nagle oberwały od Google (spadek site, PR itd).
    Chętnie podyskutuję z fachowcami (sam przecież laikiem jestem) jak po ostatnim Pingwin należy linkować w SWL-ach.

  32. Chciałbym zadać pytanie na temat linków. Pisze Pan o katalogach stron – czy Pana zdaniem, do katalogów stron warto jeszcze dodać stronę? Bo coraz częściej słyszę, że to strata czasu a można sobie zaszkodzić. Wiem, że można ale chodzi mi teraz o te katalogi, które wydają się zadbane, mają wysokie notowania. I drugie pytanie – czy warto dodać stronę do całkowicie nowego katalogu, który ledwo co powstał i wydaje się również dobrze zadbany?

  33. Dodając do swli dodajemy na ślepo linki, pochodzą one z różnych dziwnych stron. Czasami dodadzą się linki do stron już przez google napiętnowanych, wiec nasza strona leci, a czasem doda się do grupy której jeszcze google nie dokopała, więc nasza strona trzyma poziom. To mogę wywnioskować na swoim przypadku – bardzo dobry duży sklep linkowany naturalnie + swle i filtr na swle. Natomiast inna strona tylko ma swle – filtr ma w monitorze, ale spadków nie odnotowano. generalnie swle już nie przejdą jeśli na google złapie – filtr będzie trzymać dopóki nie wykasujemy wszystkiego (ale mogę się mylić – obym się mylił – opisuje swój przypadek)

  34. Ja natomiast zgodziłbym się co do różnorodności anchorów, muszą to być jak najbardziej organiczne anchory, a nie tylko ilość. Nie zgodziłbym się z wnioskiem na temat ilości linków. Wydaje mi się że połączenie jakości linków i użytych anchorów może mieć tutaj znaczenie.

  35. Witam! mam takie pytanie otóż pozycjonuję strony internetowe swojej firmy poprzez dodawanie artykułów do blogów oraz katalogów stron, od 2008 roku szło mi to całkiem nieźle nie były to jakieś trudne słowa (coś typu montaż anten Czestochowa itp) ale teraz dokładnie po 4 października wszystko ostro spadło w dół a strony które do tej pory służyły mi za zaplecze poszły w górę. Do pozycjonowania używałem w zasadzie tylko anchor tekstów w linkach raczej nie skupiałem się na ich zróżnicowaniu, teraz moje pytanie domyślam się że pingwin zrobił mi psikusa ale dlaczego nic nie mam w powiadomieniach GWT ???

  36. Na podstawie moich 13 stron mam dokładnie takie same wnioski. White Hat jest coraz bardziej skuteczny, a co najważniejsze – stabilny. 6 stron mocno oberwały po 4 X i były to strony pozycjonowane linkami z giełd. Reszta pozostała na pozycjach lub poszła w górę.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *