Główny rzecznik Google, Matt Cutts wystąpił na konferencji PubCon 2013 i w ciągu 30 minut powiedział o tym co wkrótce w Google się zmieni oraz dlaczego wykonali swoje aktualizacje, które miały miejsce do tej pory.
Matt rozpoczął od przedstawienia olbrzymich kamieni milowych, które niedawno Google pokonało. Jak powiedział, sam Larry Page go zachęcał, aby patrzeć globalnie na zadania, które mogą pomóc wielu osobom. Należą do nich następujące usługi:
- Knowledge graph (Graf wiedzy) to nie tylko sposób na przedstawienie danych z Wikipedii, ale także na rozumienie obiektów i związków miedzy nimi.
- Voice search (Wyszukiwanie głosowe) – można w google.com z użyciem Chrome zadawać pytania głosem.
- Conversational search (Wyszukiwanie kontekstowe) – po pierwszym zadanym pytaniu można zadać następne pytanie, Google będzie starał się je powiązać z poprzednim i jeśli znajdzie wspólny kontekst to udzieli lepszej odpowiedzi.
- Google now – to usługa, która sprawa, że wcale nie trzeba zadawać pytań do Google, ponieważ to Google za nas będzie pamiętać co mamy zrobić teraz.
- Deep Learning – to jest powiązanie ze sobą zalezności pomiędzy różnymi wyrazami. Google stara się odkryć, jakie połączenia panują miedzy obiektami takimi np. jak stolica-państwo.
Deep Learning w wyszukiwania zwykłym i głosowym
Następnie podał przykład, jak Google stara się rozumieć wyszukiwanie głosowe, szczególnie gdy użytkownik nadal zainteresowany jest tym samym tematem. Podał przykład prognozy pogody. Najpierw Google poda wynik w zależności od miejsca, gdzie szukający się znajduje. Następnie, przy modyfikacji zapytania poprzez podanie nowej lokalizacji, Google dalej domyśla się, że chodzi o prognozę pogody. Zmiana kontekstu czasowego, czyli pytanie o następny dzień, także będzie dotyczyć już wybranego miejsca i prognozy pogody.
Hummingbird, Panda i Authorship
Na temat algorytmu Hummingbird wypowiedział się bardzo jasno, że jest to zmiana sposobu rozumienia zadawanych pytań do wyszukiwarki. W zapytaniach czasem pojawiają się słowa, które nic do niego nie wnoszą. Hummingbird co prawda dotyka ponad 90% zapytań, ale tylko w niewielkim zakresie je modyfikuje, bo przecież jak zauważył, algorytm był już od miesiąca aktywny, a nikt nie spostrzegł zmian w wynikach. Mimo tego, co na blogach można przeczytać, ma on niewielki wpływ na SEO.
W zakresie aktualizacji Panda, chcą ją trochę osłabić. Zauważyli, że Panda oznacza strony jako słabe, te które takie być nie powinny. Stworzyli tzw. szarą strefę i próbują teraz na nowo opracować Padnę, aby te strony ponownie mogły dobrze rankować.
Kolejną zmianą jest podniesie wartości Autorshipu. Jeśli ktoś jest dobrym autorytetem w zakresie jakiegoś tematu, Google będzie podsuwało w wynikach wyszukiwania, treści na ten temat od tego autora. To jest kierunek w którym Google podąży.
Mobilne SEO
Następnym punktem wystąpienia było omówienie jak Google postrzega strony internetowe przeznaczone dla urządzeń mobilnych. Mobilne SEO dla takich stron musi być dobrze dopracowane. Strony, które są mobilne, ale nie są przyjazne użytkownikom, będą słabo postrzegane przez Google. Google następująco zadziała w poniższych sytuacjach:
- Jeśli Twój smartfon nie obsługuje Flash, to Google nie pokaże Ci stron, które go zawierają.
- Jeśli strona zawiera dużo Flasha, to warto rozważyć zmianę technologii lub upewnić się, że nie ma go w wersji mobilnej.
- Jeśli wszystkie podstrony w wersji mobilnej przekierowują do strony głównej, Google obniży jej pozycje.
- Jeśli strona wolno działa na urządzeniu mobilnym, Google nie będzie chciało pokazywać jej w wynikach wyszukiwania.
Google Pingwin i działania antyspamowe
W tej części, rozpoczął trochę żartobliwie od stwierdzenia, że przy wprowadzeniu Pingiwna 2.0 obawiali się krachu w internecie, krzyku i płaczu webmasterów. Okazało się wręcz odwrotnie, bowiem blackhatowcy śmiali się z Google na forach, że Pingwin 2.0 ich wcale nie dotknął. Dlatego podkręcili suwaki i wyszedł Google Pingwin 2.1, który już taki delikatny nie był o czym przekonało się wielu webmasterów. Będą dalej pracować nad rozwojem Pingwina.
Przez ostatnich kilka miesięcy, pracowali też nad bardzo zaspamowanymi branżami jak np. „payday loans” czy „car insurance” lub „mesothelioma” gdzie widać odciski rosyjskiej mafii. Opracowali kilka nowych algorytmów, które pilnują wyników wyszukiwania w tych obszarach.
Przypomniał także, jak Google postrzega artykuły prasowe o charakterze reklamowym. W ostatnim czasie podjęli kilka działań wobec gazet w USA i Wielkiej Brytanii, które w żaden sposób nie oznaczały artykułów sponsorowanych, że jest to reklama, mimo iż była ona nią w 100%. Już od roku 2006 nie zgadzają się na sprzedawania linków przekazujących PageRank.
Dalej zwalczają sieci stron (grupy) o charakterze spamerskim i upewnia ich to, że dobrze im idzie, jak widzą wypowiedzi zawiedzionych blackhatowców na forach, pałających nienawiścią do Matta i jego zespołu. Mają aktualnie listę sieci stron, które w najbliższym czasie planują zdjąć z indeksu.
Komunikacja z Google
Google stara się zwiększyć kanały komunikacji z webmasterami. Publikują nowe materiały filmowe nt. bezpieczeństwa stron i tego co im zagraża, ponieważ tu widzą najczęściej pojawiające się problemy. Wspomniał, że jako firma odwiedzają ok. 100 eventów rocznie na których mają prezentacje, wprowadzili Webmaster Office Hours, gdzie można zadawać pytania i na żywo usłyszeć na nie odpowiedzi.
Podał także adres strony (http://www.google.com/insidesearch/howsearchworks/fighting-spam.html), która jak się okazuje nie jest jeszcze powszechnie znana, gdzie Google publikuje informacje na temat wychwytywanego spamu oraz pokazuje na żywo przykłady stron spamerskich usuwanych z indeksu. Znajduje się tam też wiele innych, cennych informacji np. o liczbie wysyłanych powiadomień.
Co nowego w wyszukiwaniu? Uczenie maszynowe, Mobile i Authorship
W 2011 roku udział ruchu mobilnego na Youtube wynosił 6%, w 2012 roku było to już 25% a w 2013 roku wynosi 40%. Są kraje w których ruch na urządzeniach mobilnych zrównał się z ruchem pochodzącym z urządzeń stacjonarnych. Google nie chce być kojarzony wyłącznie jako wyszukiwarka, a jako usługa która daje konkretne odpowiedzi na zadane pytania.
Podkreślił, że Facebook zrobił bardzo dobry ruch, opierając wszystko na rekomendacjach społecznościowych, ponieważ wśród zaufanych osób nie powinno być spamerów. Ale, gdyby strona pozyskała dużo sygnałów społecznościowych z Twittera, Google+ i Facebooka, to jeszcze w krótkim okresie czasu nie będzie to miało znaczenia dla Google. Przeszkodą nie są problemy w indeksowaniu Twittera, docieranie do stron na Facebooku czy uwzględnianie +1. Jednak w długim okresie czasu sygnały społecznościowe będą świadczyły, że ktoś jest autorytetem.
Przez najbliższe 6 miesięcy zespół do walki ze spamem, skupi się na stronach, które padają ofiarami hackerów i są wykorzystywane do pozycjonowania trudnych słów kluczowych. Będą także, coraz lepiej się zabezpieczać przed zapytaniami o dziecięcą pornografię, tak aby nikt tego w Google nie mógł znaleźć.
PageRank
Potwierdzają się przypuszczenia w zakresie aktualizacji PageRank. Google normalnie aktualizuje wewnętrzną wartość PageRank codziennie, natomiast eksportuje jego wartość zewnętrzną co 3-4 miesiące do zielonego paska. Niestety na początku tego roku ten eksport uległ uszkodzeniu i nie mają pracowników aby to naprawić, także do końca roku na pewno nie będzie aktualizacji a potem zobaczą czy będzie to jeszcze miało sens.
Wskazówki dla Webmasterów
- Mobilne SEO – webmaster powinien mieć plan, jak dostosować się do urządzeń mobilnych, jeśli jeszcze tego nie zrobił.
- Obsługa formularzy – to najmniej lubiana część korzystania z internetu, dlatego do Chrome wprowadzili autouzupełnianie pól, które często są wypełniane.
- Następna wersja algorytmu będzie także skierowana przeciwko stronom, których główną treścią są wyłącznie reklamy. Nie tego oczekuje użytkownik, po wejściu na stronę.
- Authorship będzie usprawniany, byc może zredukują jego znaczenie o jakieś 15%, usuwając z równania mniej zaufanych autorów.
- Podobnie będzie z Rich Snippetami, strony które są słabe jakościowo, przestaną mieć dodawane Rich Snippety w wynikach wyszukiwania.
- Google lepiej będzie sobie radziło z renderowaniem JavaScriptu, ale nie należy przesadzać z tworzeniem całej strony w JS, wystarczy używać najpopularniejszych technik.
Całe wystąpienie razem z sesją pytań i odpowiedzi obejrzycie na YT dzięki +Andre Alparowi
Zapisz się do newslettera wypełniając pola poniżej. Będziesz na bieżąco ze wszystkimi wydarzeniami związanymi z Silesia SEM i informacjami o marketingu internetowym w sieci. Nie spamujemy.
Zostanie wysłany do Ciebie e-mail potwierdzający: przeczytaj zawarte w nim instrukcje, aby potwierdzić subskrypcję.
Zdjęcie: @aknecht
Dzięki za zebranie tego w przejrzysty artykuł. Jakoś nie miałem jeszcze czasu obejrzeć filmiku z wypowiedzią Mada Catza 😉
Idealny artykuł na weekend 🙂
Dzięki za streszczenie tego wystąpienia.
Oglądałem ten filmik od razu jak pojawił się w sieci. Matta jak i innych pracowników Google można lubić albo i nie, ale nie można ich lekceważyć i nie wsłuchiwać się w to co mówią. O dziwo wielu w polskiej branży SEO tak właśnie robi…
Matt wyraźnie pokazuje jakie kierunki obiera Google, a to przekłada się na nasz biznes SEO czy tego chcemy czy nie.
I wreszcie wszystko zebrali [z G] w jednym miejscu zamiast rozdrabniać się na tysiące drobnych, mniej lub bardziej istotnych, przekazów.
Dzięki za informację, nie muszę dzięki niej oglądać filmów 🙂
Czyli że co? Wystarczy być specjalistą w swojej dziedzinie i mieć wianuszek wielbicieli? 😛
Heh… może za kilka lat, teraz jednak ciągle opłaca się sam spam…
Dzięki za streszczenie filmu. Jak napisał Paweł Rabinek, Matta i pracowników Google nie można lekceważyć i nie słuchać. Pocieszne jest to, że Google martwi się o branżę SEO i rozłożyło Pingwina na dwie tury. Jednak czy historia o tym, że eksport wartości PageRank uległ uszkodzeniu i nie ma pracowników aby to naprawić nie wydaje wam się ściemą? Czy nie jest to teoria tłumacząca rezygnację z podawania wartości PR? Czytając kolejne wypowiedzi byłych i obecnych pracowników Google obalających mity SEO i „wskazujących drogę” coraz częściej wydaje nam się, że podawane informacje są pobieżne. Pewnie informacje podawane na zamkniętych szkoleniach 🙂 są bardziej dogłębne. Matt Cutts potwierdza ważność personalizacji, dostosowania stron do urządzeń mobilnych oraz planowane uwzględnienie czynników społecznościowych i jest to zgodne z naszą logiką dotyczącą kierunku podążania branży.
Dobrze, ze ktos skraca to dla nas 🙂
Temat warty uwagi. Czytac, analizowac i pozycjonowac 😉
Taki morał z tego wszystkiego. Wciąż trzeba zważać na co rusz nowe algorytmy. Page rank przestaje mieć już takie znaczenie, wazne są inne dane (np. BL) na które wciąż mała ilość osób zwraca uwagę. Większość patrzy na PR jako wyznacznik jakości, a juz tak do końca nie jest. Aktualizacje nie są robione jak dawniej i w oczach wielkiego brata już też słabnie z miesiąca na miesiąc. Trzeba pożucić dawny styl, stawiać na jakość profili. Aktualizować treść i przyciągnąć większą ilość odwiedzających, którzy docenią nasz wysiłek. Wiem, że to jest czasochłonne i nie przynosi takich szybkich rezultatów jak dodanie nowej serii back linkow z automatu, ale o wiele bezpieczniejsze i skuteczniejsze w dłuższej perspektywie. Serwisy społecznościowe coraz bardziej nabierają na sile, warto wsadzic na kazda strone kilka skryptow laczacych witryne z przynajmniej kilkoma pozycjami najbardziej popularnych społecznościówek.Pozdrawiam