Co to są naturalne linki i jak je zdobywać? Co zrobi Google, aby dopaść Twoją stronę i jak się przed tym bronić?

Rafał Kuśnierczyk

„Kiedy spadają akcje Google wiedz, że będzie update.” – w ten oto przezabawny sposób na jednej z prezentacji w Katowicach zobaczyliśmy ciekawe podejście do tworzenia linków i dbania o to by Google ich nie znalazło. Pod koniec prezentacji Rafał wspomniał o „systemie” i pokazał kilka slajdów, natomiast w poniższym wywiadzie przeczytacie jak działa system i jakie posiada możliwości.

Artur Strzelecki: Gratuluje udanej prezentacji w Katowicach. Wasz występ i sposób prezentacji podejmowanej tematyki spotkał się ze sporym zainteresowaniem publiczności. Nie da się ukryć, że wzbudziliście ciekawość, pozostał jednak pewien niedosyt – stąd moje pytania. Wspominałeś coś o systemie, czy możesz powiedzieć coś więcej na ten temat?

Rafał Kuśnierczyk: Dziękuję. To była moja pierwsza prezentacja i zdaję sobie sprawę, że momentami była dosyć spiskowa, jednak oparłem ją na niezbitych dowodach. Szanuję zdanie ludzi, którzy nie podzielają moich poglądów i bardzo bym chciał, aby to oni mieli rację, jednak również zachęcam do refleksji nad moim punktem widzenia. Zasadniczo system wystartował już 2 miesiące temu. Dopinamy wszystko na ostatni guzik i nie potrwa to więcej niż tydzień czasu. Woleliśmy poczekać trochę, niż wystartować z czymś, z czego nie będziemy zadowoleni.

AS: Pokazaliście logo systemu, nie usłyszałem jednak jego nazwy?

RK: To było celowe – nazwę systemu użytkownicy poznają w momencie jego startu. Po prostu nie chcieliśmy, żeby ktoś widział wersję beta, próbował się tam logować itp.

AS: Podczas prezentacji przekonywaliście userów do nie korzystania z narzędzia disavow i konsekwencjach, które niszczą branżę SEO. Mówiliście też, że głównym założeniem systemu jest jego niewykrywalność. Jak macie zamiar tego dokonać ?

RK: O szkodliwości działania disavow nie musimy już chyba nikogo przekonywać – wystarczy popatrzeć w wyniki wyszukiwań. Najważniejszym i najtrudniejszym za razem założeniem systemu jest niewykrywalność. Opracowaliśmy szereg czynników, które powinny temu zapobiec, jednak – tak jak wspominałem kilku osobom po prezentacji – system tworzą 3 osoby, po drugiej stronie barykady jest kilkadziesiąt a może i kilkaset osób, których etatowa praca polega na tropieniu i usuwaniu takich systemów jak nasz. Mamy jednak ponad 8 lat doświadczenia w branży SEO, mamy za sobą setki testów, spalonych domen, wniosków i poskładaliśmy to wszystko w jeden mechanizm, który – odważę się stwierdzić – powoduje, że jest to najbezpieczniejszy system wymiany linków na rynku.

AS: Czy możesz wymienić któreś z tych czynników?

RK: Jest ich kilkadziesiąt, niestety nie mogę zdradzić zbyt wiele szczegółów. Założenie jest takie, że czym mniej wie użytkownik systemu tym będzie bezpieczniej. Podam jednak taki przykład: w klasycznych systemach wymiany linków zasady są jasne – czym więcej podstron i backlinków oraz czym wyższy pagerank tym więcej punktów. U nas to tak w ogóle nie działa. Wyobraźmy sobie, że ktoś tworzy zaplecze pod klasycznego SWL-a: w miesiąc czasu zdobywa 500 backlinków oraz sztucznie generuje 3k podstron. Liczba linków wychodzących jest wielokrotnie większa niż liczba podstron takiego zaplecza. Dodatkowo systemy automatycznie nadużywają komendy „site:” sprawdzając w ten sposób ilość zaindeksowanych podstron. Gdybym pracował w Google i chciał zrobić z tym porządek wystarczyłoby przefiltrować bazy jedną prostą regułą: usuń wszystkie domeny, które: przez miesiąc były sprawdzane komendą site: raz na dobę, mają przyrost podstron powyżej 2k w miesiąc, w tym czasie opublikowały 2 razy więcej linków niż posiadają podstron. Ciach i nie ma zaplecza! Gwarantuję, że po takiej akcji nie ucierpi żadna wartościowa strona – znikną tylko strony służące do wymiany linków. Zwróciłbym również uwagę na to, że w procesie nie trzeba było nawet analizować contentu co wymaga sporych zasobów serwerowych, których Google w praktyce nie używa, ponieważ nie dysponuje tak zaawansowaną technologią analityczną. U nas takie coś nie przejdzie ponieważ: komenda site: nie jest używana w ogóle, nie da się „nabić” punktów ani za pomocą backlinków ani za pomocą nabijania liczby zaindeksowanych podstron. Linków wychodzących też nie będzie więcej niż podstron ani nawet tyle samo. Pagerank w ogóle nie jest brany pod uwagę.

Kolejny przykład dotyczy samej struktury stron – precle są bardzo w modzie. Problem w tym, że wszyscy umiłowali sobie WordPressa – jest prosty w obsłudze, idealny pod zaplecze. To jest pułapka – Google nie bez powodu lubi WordPressa. Wystarczy zajrzeć w źródło strony i co widzimy ? Każdy jeden wordpress ma w sekcji head taki oto ciąg znaków: /wp-content/themes/. I teraz moderator Google upatrzył sobie za cel stronę, która zajmuje pierwsze miejsce na bardzo konkurencyjną frazę. Pracownik moderacji Google wie, że właściciel strony ma potężne zaplecze w postaci WordPressów oraz korzysta z innych źródeł linków, które akurat są dozwolone. Chce on pozbyć się tylko zaplecza, sprawdza więc ręcznie kilka przykładów i widzi, że są to WordPressy posiadające tylko 10-14 podstron. Wystarczy wyciągnąć wszystkie domeny, które mają w sekcji head /wp-content/themes/ oraz w granicach 10-20 podstron i linkują do tej strony. Ciach! Nie ma zaplecza.

Robert Niechcial

A jak się tropi spamerów ? Google walczy z frazą „pożyczki”, gdzie często linkuje się z drupali. Komenda intitle:pożyczki inurl:node + niektóre z wymienionych wcześniej parametrów i jednym przyciskiem pozbywamy się całej puli drupali. 

U nas takie coś nie będzie miało miejsca. Dlaczego? System oparty jest o autorski CMS – sprawdzało go kilku testerów i nie udało im się w żaden sposób znaleść w nim 2 takich samych stron. Każda jest inna – ma inne elementy pliku CSS, inne url-e i inne… ok – wystarczy – więcej nie powiem 🙂 Tropienie stron pod względem ilości podstron, jakiś elementów html-a, plików styli, ich nazw lub po strukturze url-i w sposób zautomatyzowany mija się tutaj z celem.

AS: Czyli to będzie sieć precli?

RK: Też bym tak tego nie nazwał – głównym założeniem systemu jest tworzenie coraz to nowszych platform imitujących blogi ale również strony innego typu. Na razie tyle mogę powiedzieć.

AS: Nie obawiacie się reakcji konkurencji i innych osób, którym system będzie nie na rękę, jeżeli okaże się skuteczny?

O: Ludzie często zgłaszają do disavow linki konkurencji, bo sami nie mogą sobie poradzić swoimi metodami. Jesteśmy na to gotowi. Podczas festiwalu SEO podobała mi się prezentacja Krzysztofa Marca odnośnie wykrywania zaplecza – pokazuje, że wiele osób woli spędzać godziny tropiąc konkurencje, zamiast zająć się swoimi sprawami. Prezentację obserwowałem z zaciekawieniem, patrząc, czy system przejdzie dosyć rygorystyczny test autora prezentacji – system zdał wszystko na piątkę – nie popełniliśmy żadnego z błędów, o których wspominał Krzysztof.

Tak więc szukanie backlinków w narzędziach takich jak Majestic SEO, Ahrefs itp mija się również z celem – nic się tam nie pojawi. Nie będzie żadnego punktu zaczepienia. Po prezentacji rozmawialiśmy na ten temat z kilkoma uczestnikami festiwalu i doszliśmy do wniosku, że backlinki „wyciągnie” tylko autorski robot, którego nie zablokujemy, ponieważ nie znamy jego nazwy – jednak koszt stworzenia takiego narzędzia byłby większy niż zakup nowego samochodu. Tropiciel musiałby być naprawdę zdesperowany, jeżeli chciałby przeczesywać zasoby całego Internetu w poszukiwaniu naszej sieci.

AS: Nie wierzę, że system nie będzie miał żadnej słabej strony, wszystkiego przecież nie da się przewidzieć.

RK: Oczywiście – jesteśmy tylko ludźmi. Największą niewiadomą są zawsze użytkownicy systemu. Z tego powodu system będzie miał charakter zamknięty – może nie elitarny, jednak nie będzie on dla każdego. Jeżeli ktoś będzie miał zamiar korzystać z niego w sposób, który naraża innych użytkowników systemu zostanie z niego po prostu usunięty. Dziękujemy również osobom, które są fanami disavow. Jak to sprawdzimy ? Tego nie powiem – nad sposobem spędziliśmy kilka miesięcy. Nie jest to oczywiście prowokacja na zasadzie „próbujcie – i tak sobie z Wami poradzimy” – na pewno znajdzie się sposób, jednak budując społeczność użytkowników systemu musimy bazować na wzajemnym zaufaniu i liczę na to, że w naszym gronie nie pojawi się ktoś, kto będzie próbował zniszczyć wszystko od środka.

System będzie podzielony na 3 główne kategorie: system publiczny – tam wszyscy wymieniają się linkami jak w klasycznym systemie, system zaplecza – tutaj użytkownicy tworzą zaplecze w oparciu o nasz system dla własnych potrzeb oraz system zamknięty – tutaj użytkownicy łączą się w grupy tylko z zaufanymi osobami, które znają i tam mogą linkami wymieniać się bezpiecznie. Nikt z zewnątrz nie ma wglądu do ich podsystemu.

Pierwsza kategoria – system publiczny będzie najmniej bezpieczny, jednak bezpieczniejszy niż wszystkie istniejące dotąd systemy. W tym systemie użytkownicy dla dobra wszystkich nie będą widzieli swoich linków. Próby wplatania w tekst jakiś dziwnych wyrazów i ciągów znaków w celu sprawdzenia ich w wynikach Google będą wykrywane a użytkownicy usuwani z systemu. Nie będzie tam też stron linkowanych z innych źródeł narzędziami typu black hat ani stron o niskiej jakości. System zaplecza daje możliwość tworzenia własnych, ściśle tematycznych zasobów tylko do własnych potrzeb. Najciekawszy będzie system zamknięty – to będzie takie web 2.0 wśród systemów wymiany linków. Użytkownicy będą tworzyć własne struktury, których nie w sposób przewidzieć a tym bardziej trudno będzie je wykryć. Ten system jest jeszcze w fazie testów i będzie dostępny dopiero miesiąc po oficjalnej premierze.

AS: Czy za system będzie trzeba płacić?

RK: Tak, system będzie płatny. To jedyny sposób, aby zmniejszyć ryzyko – czym mniejszy system, tym bezpieczniejszy. Uprzedzając kolejne pytania – tak – chcemy na nim zarabiać. Dlaczego ? Ponieważ zdajemy sobie sprawę, że mniejsza liczba użytkowników wiąże się z tym, że w systemie będzie mniej domen. W system zainwestowaliśmy bardzo dużo domen oraz bardzo dużą ilość adresów IP. To wszystko kosztuje. My również zajmujemy się podlinkowywaniem domen – użytkownik niczego nie musi robić. Co miesiąc będą powstawały kolejne szablony stron oraz kolejne elementy jego rozwoju – nad tym non stop pracują ludzie. Jedyny sposób na przetrwanie w świecie SEO to ciągła praca nad systemem i jego rozwojem.

intruder2600

Moglibyśmy oczywiście system stworzyć darmowym i sprzedawać punkty, aby go utrzymać, jednak nie będziemy tego robić. Inwestujemy takie ilości domen, że punktów mamy pod dostatkiem. Wolimy takie rozwiązanie. Ceny udziału w systemie jeszcze nie podam, jednak nie będzie ona wygórowana. Będzie również zależna od funkcjonalności systemu, jakie dany user potrzebuje. Założenie jest takie, że system będzie alternatywą dla AdWords – będzie o wiele tańszy i – mam nadzieję – przez swoją skuteczność wiele bardziej opłacalny.

AS: Czy beta testy systemu przyniosły już rezultaty w postaci wysokich pozycji w Google ?

RK: I tak i nie. W przypadku stron, które nie były blokowane przez Google wszystko przebiegło zgodnie z założeniami – wysokie pozycje w szybkim czasie, stabilne efekty, których nie zachwiał ostatni panda update. Testowaliśmy system również na kilku domenach, które miały wcześniej nałożone różnego rodzaju kary – tutaj nie pomoże ani nasz system ani żadne inne narzędzie – a już na pewno nie disavow 🙂 W tym miejscu chciałbym uświadomić to użytkownikom – brak pozycji przy użyciu systemu oznacza zablokowaną domenę – lepiej ją zmienić niż tracić czas. Koszt domeny .pl to ok 10 zł, szablon z themeforest.net 15-30 dolarów, 3 godziny pracy nad tekstem i jesteśmy z powrotem na fali.

AS: Ponieważ jesteście utożsamiani ze środowiskiem typu black hat, czy Wasz system będzie narzędziem właśnie tego typu ? Myślę, że ta kwestia może zainteresować potencjalnych przyszłych użytkowników systemu.

RK: Nie, absolutnie nie. Tak jak mówiłem podczas prezentacji – nie ma złych linków – są tylko wykryte i oflagowane, oraz te nie wykryte. My chcemy tworzyć właśnie te drugie. Oprócz black hata, który traktuję jako wyzwanie zajmuję się również czymś co można nazwać white hatem – pozycjonowaniem zwykłych stron i z myślą o takich działaniach powstał ten system. Nie nazwałbym tego black hatem. Jak wygląda typowy precel każdy wie – wie również moderacja Google i gołym okiem rozpozna stronę, która jest preclem. Tego się nie da przeskoczyć. Dlatego też system tworzymy w taki sposób, aby nie prowokował moderacji do ręcznego sprawdzania. Po latach testów wiemy, jak tworzyć takie strony, co oczywiście nie oznacza, że bany się nie zdarzą, jeśli wzbudzimy większe zainteresowanie korporacji. W systemie publicznym dbamy również o „towarzystwo” – do głównych kategorii nie wpuszczamy stron, które prowokują Google, czyli ogólnie afiliacje, sprzedaż środków odchudzających, wszelakich medykamentów, erotyki, hazardu itp. Do tego będą osobne kategorie w systemie publicznym oraz systemy wewnętrzne – zupełnie nie powiązane ze zwykłymi użytkownikami, pozycjonującymi zwykłe strony.

AS: Czego konkretnie userzy mogą się spodziewać w momencie startu systemu?

RK: Mam nadzieję, że sposobu na ostatnie zmiany w algorytmie Google. Jak widać na forum PiO moje poglądy na temat Google zmieniły się w ostatnim czasie, kiedy korporacja pokazała swoje prawdziwe oblicze. Celem systemu jest stworzenie kontrofensywy – to jest nasze podwórko, nasze zabawki i nie damy się pokonać tak łatwo. Powstaje narzędzie (disavow) – powstaje kontr narzędzie, dlatego userzy mogą już szykować artykuły z synonimami – jednak dobrej jakości – oraz domeny: krajowe, globalne i regionalne. Nie potrzeba nic więcej. Użytkownik inwestuje 3-4 domeny i otrzymuje w zamian 700-900 linków. Taka liczba powinna wystarczyć na zdobycie wysokich miejsc na średnio konkurencyjne słowa kluczowe, jeśli to za mało kolejne 3-4 domeny załatwią sprawę. Userzy niczego nie podlinkowują – nawet domen, które dodają – zrobimy to sami. Nie ma kombinowania, nie ma nabijania punktów, są tylko linki i pozycje. Za rok, czy dwa przyjdzie kolejny update ? Nie ma problemu – system znowu ewoluuje i dostosuje się do kolejnych zmian algorytmu.

Został on stworzony modułowo i możemy zmieniać go w każdy sposób jaki tylko przyjdzie nam do głowy. Zamiast korzystać z disavow użytkownicy kupią kolejne domeny, postawią kolejne strony i znowu będą mogli cieszyć się pozycjami przez następny rok, czy też dwa. A może system okaże się strzałem w dziesiątkę i w ogóle nie damy się wytropić ? Oby tak właśnie było! Mam nadzieje, że dostatecznie zrozumiale opisałem zasady działania naszego systemu. Więcej informacji na ten temat już się nie pojawi ze względu na bezpieczeństwo systemu. Dla każdego zarejestrowanego użytkownika przewidujemy udostępnienie specjalnej instrukcji, w której wszystko będzie jasno i wyraźnie opisane. Korzystając z okazji, chciałem podziękować wszystkim, którzy się pojawili na ostatnim evencie w Katowicach. Spotkaliśmy się naprawdę z mega pozytywnym przyjęciem. Organizatorom gratuluję dobrej organizacji oraz zebrania tylu osób z branży w jednym miejscu !

Pozdrawiam i życzę wysokich pozycji!

Rafał Kuśnierczyk – intruder2600

Adres systemu: autopresell.com

Prezentacja

The following two tabs change content below.

Artur Strzelecki

Niezależny specjalista SEM, który upowszechnia wiedzę o marketingu w wyszukiwarkach internetowych. W wolnych chwilach doradza jak odnaleźć własną ścieżkę w Google.

10 komentarzy do “Co to są naturalne linki i jak je zdobywać? Co zrobi Google, aby dopaść Twoją stronę i jak się przed tym bronić?

  1. Jedna z ciekawszych zapowiadanych narzedzi. Czekam z niecierpliwością. Dajcie znac tutaj jak bedą jakieś konkrety.

  2. Sama prezentacja Rafała była poprowadzona w bardzo „przystępny” sposób 🙂 Odnośnie systemu – na tę chwilę wszystko brzmi bardzo tajemniczo, ale zarazem obiecująco… Czekamy zatem z niecierpliwością na start i mamy nadzieję, że będziemy mieć szansę „załapania” się do grupy userów 🙂

  3. Panowie chciałem pogratulować NAJLEPSZEJ prezentacji na Festiwal Seo 2014! Naprawdę! Sposób przedstawienia, treść, rzetelne podejście było na najwyższym poziomie! 😉

  4. Ciekawie zapowiada się to narzędzie. Trochę szkoda, że będzie dostępne tylko dla nielicznych, chociaż to z drugiej strony dobrze, bo umożliwi to wysoką jakość oferty.
    Jestem tylko ciekaw na jakiej podstawie będą oceniać kogo przyjąć do systemu a kogo nie. Mam nadzieję, że znajdą się miejsca również dla dopiero startujących (Zwłaszcza jeżeli cena za korzystanie z systemu będzie leżała w granicach rozsądku) 😉
    A twórcom gratuluję pomysłowości i wytrwałości, oraz pewności co do skuteczności systemu. Mam nadzieję, że tutaj gwarancja rezultatów (a za nią uznaję stwierdzenie ” brak pozycji przy użyciu systemu oznacza zablokowaną domenę”) to nie tylko puste słowa.
    A bez względu na to czy będę mógł skorzystać z systemu, czy też nie – wszystkiego dobrego w jego realizacji 😀

  5. „…Zwróciłbym również uwagę na to, że w procesie nie trzeba było nawet analizować contentu co wymaga sporych zasobów serwerowych, których Google w praktyce nie używa, ponieważ nie dysponuje tak zaawansowaną technologią analityczną…” Dosyć odważny wniosek co do braku zaawansowanej technologii analitycznej w Google. Myślę, że jest on sporo na wyrost.

  6. @Robert 😀 nie ma to jak poprawić sobie humor z samego rana 😀 Łykaj dalej jak pelikan!

  7. Oczekiwania napewno są duże i wszystkich ciekawi jak będzie ze skutecznością systemu – pytanie, czy udostępnianie systemu publicznie (mimo moderacji) nie będzie szybkim końcem projektu – mam nadzieję, że nie…

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *