Jak aktualizacje algorytmu Google mogą wpłynąć na Twoje rankingi

  1. Luty 2011 - styczeń 2016: Aktualizacje „Panda”
  2. Maj 2012 r. Począwszy od aktualizacji „Pingwina”
  3. Wrzesień 2012 - październik 2014: Aktualizacje „Pirate”
  4. Sierpień 2013: Aktualizacja „Hummingbird”
  5. Czerwiec 2014: Aktualizacja „Payday Loan”
  6. Lipiec 2014 - grudzień 2014: Aktualizacje „Gołąb”
  7. Lipiec 2014 -: Aktualizacja „HTTPS”
  8. Kwiecień 2015 r. - styczeń 2017 r .: Aktualizacja „Przyjazna dla urządzeń mobilnych”
  9. Kwiecień 2015: Aktualizacja „Indeksowania aplikacji”
  10. Kwiecień 2015: Aktualizacja „Drzwi”
  11. Maj 2015: Aktualizacja „jakości”
  12. Październik 2015: Aktualizacja „RankBrain”
  13. Styczeń 2016: Podstawowa aktualizacja algorytmu
  14. Wrzesień 2016: Aktualizacja „Possum”
  15. Luty 2017: Świstak
  16. Marzec 2017: Fred
  17. Grudzień 2017 r
  18. Marzec 2018: Aktualizacja jakości
  19. Lipiec 2018: Mobile Speed ​​Update
  20. Sierpień 2018: Aktualizacja „Medyk”
  21. Październik 2018: Aktualizacja wyszukiwania obrazów
  22. Styczeń 2019: Aktualizacja „Newsgate”
  23. Wniosek

Każda aktualizacja algorytmu Google (sposób, w jaki decyduje o tym, jak wysoko ocenia się witrynę pod kątem wyszukiwanego hasła), ma na celu rozwiązanie konkretnego problemu, który Google postrzega jako wpływający na wyniki wyszukiwania w sposób, którego nie chce

Każda aktualizacja algorytmu Google (sposób, w jaki decyduje o tym, jak wysoko ocenia się witrynę pod kątem wyszukiwanego hasła), ma na celu rozwiązanie konkretnego problemu, który Google postrzega jako wpływający na wyniki wyszukiwania w sposób, którego nie chce. Na przykład, jeśli Google stwierdzi, że określony zestaw stron internetowych ma wyższą pozycję niż strony internetowe, które uważa za bardziej jakościowe, może sprawdzić, co te witryny mają wspólnego i wydać aktualizację, aby położyć większy lub mniejszy nacisk na inną zmienną . „Celem wielu zmian w rankingu jest pomoc użytkownikom wyszukiwania w wyszukiwaniu witryn, które zapewniają doskonałe wrażenia użytkowników i spełniają ich potrzeby informacyjne” - powiedział Matt Cutts Google'a . Oto przegląd aktualizacji algorytmów Google i ich wpływu na wyniki wyszukiwania:

Luty 2011 - styczeń 2016: Aktualizacje „Panda”

Począwszy od lutego 2011 r. Aktualizacja Panda została zaprojektowana w celu kierowania na strony o niskiej jakości treści, takie jak dynamicznie tworzone strony, gdzie jedyną różnicą było kilka słów kluczowych lub artykuły zawierające tekst o bardzo niskiej jakości. Oznacza to, że Google chciał poprawić jakość wyników wyszukiwania, które zwrócił, i zaprojektować aktualizację, używając „Ratowników jakości”, aby odpowiedzieć na takie pytania, jak „czy zaufałbym tej stronie za pomocą mojej karty kredytowej?” przy rozróżnianiu między stronami o niskiej i wysokiej jakości.

Podczas gdy Matt Cutts z Google powiedział, że witryny objęte tą aktualizacją „angażują się w taktykę spamowania w celu manipulowania rankingami wyszukiwarek”, istnieją wystarczające dowody, aby wykazać, że niektóre legalne witryny, takie jak portale nieruchomości, które nie mogą uniknąć wyświetlania tych samych ofert nieruchomości co inne strony internetowe były mocno karane. Według wielu źródeł, aktualizacja Google Panda 4.0 w maju 2014 r. Spowodowała, że ​​niektóre główne witryny, takie jak eBay, odnotowały znaczny spadek rankingów, prawdopodobnie w wyniku zautomatyzowanego charakteru stron internetowych, które nie spełniają wymogów jakościowych Google. Aby pomóc właścicielom witryn, których dotyczy problem, Google wydało lista sposobów, dzięki którym właściciele witryn mogą upewnić się, że ich witryna jest uważana za wysokiej jakości .

We wrześniu 2014 r. Google zaczęło wprowadzać kolejną aktualizację Pandy - taką, którą Google opisał jako „zawierającą kilka dodatkowych sygnałów, aby pomóc Pandzie dokładniej identyfikować treści o niskiej jakości”. Według SearchMetrics , niektóre strony internetowe ucierpiały w wyniku aktualizacji do 79% w zakresie widoczności wyszukiwania w Stanach Zjednoczonych.

Pod koniec lipca 2015 r. Google ogłosił rozpoczęcie aktualizacji Pandy, która będzie wprowadzana na rynek przez kilka miesięcy i która dotyczyć będzie nawet 3% stron w języku angielskim. Według Kraina wyszukiwarek , ta aktualizacja zacznie powoli usuwać kary nałożone przez poprzednie aktualizacje Pandy, zakładając, że właściciele tych stron przestali próbować manipulować rankingami wyszukiwarek.

W styczniu 2016 r. Google zintegrował aktualizacje Panda z jego „podstawowym” algorytmem, sygnalizując, że zmiany w sposobie, w jaki zapobiegają słabej jakości stronom internetowym z dobrego rankingu, teraz będą się pojawiać w sposób ciągły. Jest to zamiast znaczących zmian w rankingach wielu stron internetowych występujących jednocześnie w tym samym dniu.

W październiku 2016 r. Powiedział Gary Illyes z Google Kraina wyszukiwarek że algorytm Panda przeanalizuje wszystkie strony witryny i może zdecydować o obniżeniu pozycji w rankingu wyszukiwarek jako całości, w oparciu o ogólną jakość witryny. Powiedział, że jeśli Google zorientuje się, że witryna z powodzeniem „gra w nasze systemy”, dostosowałaby jej pozycję i „wypchnęła witrynę z powrotem, aby się upewnić, że już nie działa”.

Maj 2012 r. Począwszy od aktualizacji „Pingwina”

Aktualizacja Penguin rozpoczęła się w kwietniu 2012 r. I miała na celu zapewnienie, że strony internetowe ze sztucznymi linkami przychodzącymi były karane. Witryny internetowe, które płaciły innym stronom, aby łączyły się z nimi lub były zaangażowane w systemy linków, w których wykorzystano ogromną liczbę wzajemnych linków, zostały mocno ukarane przez tę aktualizację. Według Google Ta aktualizacja dotyczyła około 3% wyników wyszukiwania.

W maju 2012 r. Wydano Penguin 1.1. Podczas gdy oryginalna aktualizacja koncentrowała się na samych linkach, ta aktualizacja koncentrowała się na tekście kotwicy używanym w linkach. W scenariuszu, w którym nawet jeśli łącząca strona internetowa i strona z linkami były wysokiej jakości, a link nie został uznany za sztuczny, strona z linkami spadła w rankingu wyszukiwarek, jeśli zbyt wiele linków przychodzących użył tego samego tekstu zakotwiczenia. Doskonałym przykładem stron, których dotyczy problem, są strony obsługiwane przez projektantów stron internetowych, którzy zazwyczaj mają wiele linków przychodzących zawierających ten sam tekst zakotwiczenia. Ta aktualizacja Google służyła do dewaluacji takich linków.

Około połowy października 2014 r. Google zaczęło wydawać kolejną aktualizację Penguin, która trwała kilka tygodni. Pierre Far Google potwierdzony na jego Google+ strona, na której ta aktualizacja dałaby stronom, które zostały ukarane wcześniejszymi aktualizacjami, szansę na odzyskanie swoich rankingów po oczyszczeniu ich sztucznych linków (proces zwany „wyrzeczeniem się”), dodając, że będzie to również karać strony internetowe z sztucznymi linkami, które wcześniej były nieodkryte . Według Google ta aktualizacja dotyczyłaby mniej niż 1% zapytań w języku angielskim.

W grudniu 2014 r. Google ujawniło, że strony internetowe, które zostały ukarane za posiadanie linków przychodzących o niskiej jakości, mogą w rzeczywistości odzyskać od wszelkich kar wynikających z Penguin bez faktycznego „odrzucenia” wszystkich swoich słabych linków. „Patrzymy na to na poziomie zagregowanym we wszystkim, co mamy z twojej strony. A jeśli zobaczymy, że rzeczy się podnoszą i wszystko idzie w dobrym kierunku, to jest to coś, co nasze algorytmy będą mogły wziąć pod uwagę” powiedział John Mueller na Kanał YouTube dla webmasterów Google . Oznacza to, że jeśli Twoja strona internetowa została w przeszłości ukarana za posiadanie sztucznych linków przychodzących, nawet jeśli nie udało Ci się ich zastosować, rankingi w Google poprawią się, jeśli Twoja witryna zacznie zawierać wysokiej jakości linki przychodzące.

Odzyskiwanie z kary związanej z pingwinem, bez względu na to, czy jest to „odrzucenie” sztucznych linków, czy zwiększenie liczby linków przychodzących o wysokiej jakości, z których korzysta Twoja witryna, wymaga czasu. Będziesz musiał poczekać na kolejną aktualizację algorytmu Penguin lub na odświeżenie danych przez Google. Proces ten nie jest zautomatyzowany i nie jest przeprowadzany zgodnie z harmonogramem. W czerwcu 2015 r. Gary Illyes z zespołu Google Webmaster Trends Analyst powiedział, że odświeżenie nastąpiło „ jeszcze kilka miesięcy „, ale ostatecznym celem było nieustanne aktualizowanie Penguina i powiązanych danych.” Pingwin przenosi się do bardziej ciągłych aktualizacji. Chodzi o to, aby kontynuować optymalizację, tak jak teraz ”- powiedział rzecznik Google. Potwierdza to, że Google nieustannie dąży do lepszej identyfikacji stron internetowych, które są zaangażowane w sztuczne praktyki łączenia i karania ich.

We wrześniu 2015 r. Google wydało ostrzeżenie właścicielom witryn internetowych, którzy po pomyślnym przejściu procesu rozpatrywania wniosków przyciągają nowe kary - na przykład webmaster, który usunął sztuczny link, złożył wniosek o ponowne rozpatrzenie, a następnie po pomyślnym ponownym rozpatrzeniu, ponownie wprowadził sztuczny połączyć. Rzecznik Google powiedział, że takie „ powtarzające się naruszenia mogą utrudnić osiągnięcie pomyślnego procesu ponownego rozpatrzenia & quot, co wydaje się poważnie sugerować, że kary długoterminowe będą stosowane wobec powtarzających się przestępców.

Po prawie dwóch latach Google opublikował nową aktualizację algorytmu Penguin we wrześniu 2016 r. Jest to ostatnia aktualizacja, która zostanie wydana w ten sposób, ponieważ algorytm Panda został zintegrowany z podstawowym algorytmem wyszukiwania Google i będzie dlatego należy je przetwarzać w czasie rzeczywistym. Wszelkie witryny, które wcześniej zostały ukarane przez Penguin, będą musiały poczekać do teraz, aby się od nich uwolnić. Gary Illyes z Google powiedział Kraina wyszukiwarek że Penguin teraz „dewaluuje lub ignoruje linki do spamu”, co ma na celu dostosowanie rankingu strony.

Wrzesień 2012 - październik 2014: Aktualizacje „Pirate”

Ta aktualizacja, wydana po raz pierwszy we wrześniu 2012 r., Ma pomóc Google w podjęciu działań przeciwko piractwu w Internecie poprzez karanie witryn naruszających prawa autorskie lub będących przedmiotem zgłoszeń w procesie Google DMCA (ponad 15 milionów adresów URL było przedmiotem Żądania DMCA ). Pirate Update 2 została wydana w październiku 2014 r. I była niezwykle skuteczna w kierowaniu na strony internetowe, które na przykład udostępniają filmy z materiałami chronionymi prawami autorskimi, takimi jak filmy i programy telewizyjne, przy czym niektóre witryny internetowe mają 98% spadek widoczności wyszukiwania, zgodnie z SearchMetrics .

Sierpień 2013: Aktualizacja „Hummingbird”

Około sierpnia 2013 r. Google opublikowało prawdopodobnie największą aktualizację w swojej historii. Google nazwała tę aktualizację „Hummingbird”, aby odzwierciedlić fakt, że spowoduje to szybsze i dokładniejsze obliczenie wyników wyszukiwania, które są najlepsze dla danego wyszukiwanego hasła. Ta aktualizacja została zaprojektowana w celu faworyzowania zapytań „konwersacyjnych”, częściowo po to, by odzwierciedlić fakt, że wiele zapytań jest teraz werbalnie przesyłanych za pośrednictwem smartfonów, co skutkowało mniejszym naciskiem na słowa kluczowe i większy nacisk kładziony jest na takie czynniki, jak kontekst, lokalizacja i zamiar. Na przykład wyszukiwane hasło „gdzie kupić bazy do pizzy” może dostarczyć wyników wyszukiwania lokalnych sklepów spożywczych (jeśli urządzenie jest ustawione tak, aby Google wiedziało o Twojej lokalizacji), gdzie poprzednie wyszukiwanie mogło koncentrować się tylko na słowo kluczowe „pizza” i oferowane strony internetowe sprzedające pizzę.

Czerwiec 2014: Aktualizacja „Payday Loan”

W czerwcu 2014 r. Google ogłosił nową aktualizację swojego algorytmu, nazywaną aktualizacją „Payday Loan” w branży. Matt Cutts z Google powiedział, że ta aktualizacja wpłynęła na mniej więcej 0,3% zapytań w USA i ukierunkowanych witryn internetowych związanych z tym, co nazwali „zapytaniami spamowymi”, takimi jak pożyczki na dzień wypłaty, viagra, pornografia i inne zapytania, które cierpią z powodu wielu wyników wyszukiwania spamu. Od tego czasu opublikowano kilka dodatkowych aktualizacji.

Lipiec 2014 - grudzień 2014: Aktualizacje „Gołąb”

Pod koniec lipca 2014 r. Zaczęły krążyć raporty informujące, że Google zaktualizowało swój algorytm dla wyników wyszukiwania za pomocą zlokalizowanego elementu, co ma wpływ zarówno na zwykłe wyniki wyszukiwania, jak i wyniki wyszukiwania na mapie (od sierpnia 2014 r. Ta aktualizacja ma wpływ tylko na wyniki w języku angielskim i dla wyników w Stanach Zjednoczonych). Ta aktualizacja dotyczy przede wszystkim strony internetowe, które chcą wysoko oceniać wyszukiwanie lokalne , na przykład jeśli ktoś szuka „włoskiego jedzenia w Londynie”. W wyniku tej aktualizacji wydaje się, że większą wagę przywiązuje się do stron z katalogami, które wymieniają lokalne firmy - w niektórych przypadkach, np. W branży hotelarskiej, witryny katalogowe, które wymieniają lokalne firmy, wydają się być wyższe niż rzeczywiste firmy lokalne że wymieniają. Jednak w innych kategoriach, takich jak dostarczanie pizzy, lokalne firmy o wysokiej jakości witrynach internetowych wydają się być wyższe niż wcześniej.

Pod koniec 2014 r. Google potwierdził, że aktualizacja „Pigeon” została teraz wprowadzona do wszystkich anglojęzycznych miejsc z wyjątkiem Indii.

Lipiec 2014 -: Aktualizacja „HTTPS”

Pod koniec lipca 2014 r. Google ogłosiło, że rozpoczną się jego algorytmy nieznacznie faworyzuje strony zabezpieczone za pomocą HTTPS (HTTP przez TLS lub Transport Layer Security). Gary Illyes Google'a opisał HTTPS jako „łącznika” - gdy dwie strony są praktycznie identyczne we wszystkich innych sygnałach rankingowych, strona korzystająca z HTTPS zostanie uszeregowana wyżej. Google ogłosił również plany zwiększenia znaczenia HTTPS i chciałby „zachęcić wszystkich właścicieli witryn do przejścia z HTTP na HTTPS, aby wszyscy byli bezpieczni w sieci”.

Kwiecień 2015 r. - styczeń 2017 r .: Aktualizacja „Przyjazna dla urządzeń mobilnych”

W lutym 2015 r. Google ogłosiło, że zacznie się zastanawiać czy strona była przyjazna dla urządzeń mobilnych zwracając wyniki wyszukiwania na urządzeniach mobilnych, w zmianie, którą sam Google określił jako „znaczącą”. Począwszy od końca kwietnia 2015 r. Oczekuje się, że tylko strony internetowe, które Google uzna za przyjazne dla urządzeń mobilnych, będą w stanie osiągać wysokie wyniki w wynikach wyszukiwania przeprowadzanych na urządzeniach mobilnych, przy czym wyszukiwania wykonywane na innych urządzeniach pozostaną nienaruszone. W czerwcu 2016 r. Na Search Marketing Summit Sydney, Gary Illyes również potwierdził Google planuje uczynić szybkość stron ważniejszą dla wyszukiwań przeprowadzanych na urządzeniu mobilnym, sugerując, że prawdopodobnie wejdzie w życie do końca 2016 r. W styczniu 2017 r. Google ogłosiło zmiana, która skutkuje gorszymi rankingami dla stron internetowych, które zasłaniają treści za pomocą pełnoekranowych na urządzeniach mobilnych.

Kwiecień 2015: Aktualizacja „Indeksowania aplikacji”

Do kwietnia 2015 r. Google twierdzi, że zaindeksował 30 miliardów linków w aplikacjach z włączonym „Indeksowaniem aplikacji”. Jeśli korzystasz z urządzenia z systemem Android, zauważyłeś już, że linki do aplikacji, które zainstalowałeś, zostały uwzględnione w wynikach wyszukiwania, jeśli to konieczne. Począwszy od 16 kwietnia 2015 r. Indeksowanie aplikacji zacznie być używane jako sygnał rankingowy, a wyniki wyszukiwania na urządzeniach z Androidem, w tym odpowiednie linki związane z dowolną aplikacją, w tym te, które nie zostały zainstalowane.

„Jeśli zaimplementowałeś indeksowanie aplikacji, gdy indeksowana treść z aplikacji jest odpowiednia do wyszukiwania w Google na urządzeniach z Androidem, ludzie mogą zacząć widzieć przyciski instalowania aplikacji dla Twojej aplikacji w wynikach wyszukiwania. Stuknięcie tych przycisków przeniesie je do Sklep Google Play, w którym mogą zainstalować aplikację, a następnie przejść do właściwej treści ”- powiedział rzecznik Google. Celem tej zmiany jest pomoc twórcom aplikacji w pozyskaniu nowych użytkowników i ponownym zaangażowaniu istniejących.

Kwiecień 2015: Aktualizacja „Drzwi”

W marcu 2015 r. Google ogłosił że zacznie podejmować więcej działań przeciwko stronom internetowym, które zawierają strony „doorway” (strony, które istnieją wyłącznie w celu uszeregowania wyników wyszukiwania bez wyraźnej, unikalnej wartości). „Od dawna uważamy, że strony internetowe tworzone wyłącznie dla wyszukiwarek mogą zaszkodzić jakości wyszukiwania użytkowników” - powiedział rzecznik Google. Dodali, że to dostosowanie rankingu może mieć „szeroki wpływ” na wszystkich stronach internetowych z dużą liczbą stron przejściowych. Google potwierdził w a Hangout Google+ w kwietniu 2015 r. wprowadzono tę zmianę algorytmu.

Maj 2015: Aktualizacja „jakości”

Po pogłoskach, że wiele stron internetowych odnotowało zmiany w swoich rankingach na początku maja 2015 r., Google potwierdziło to Kraina wyszukiwarek że zmienił swój podstawowy algorytm rankingu pod względem sposobu przetwarzania sygnałów jakości - czyli jak określa jakość strony internetowej. Niektóre główne strony internetowe, w tym Strony Hub spadły w rankingach, ale Google podkreślił, że zaktualizowany nie jest ukierunkowany na żaden konkretny typ strony.

Październik 2015: Aktualizacja „RankBrain”

W listopadzie 2014 r. Opisaliśmy, jak wyglądały algorytmy wyszukiwania Google dostosowanie się do rosnącej tendencji do zapytań obejmujących „język naturalny” zamiast konkretnych słów kluczowych (praktyka zwana „wyszukiwaniem semantycznym”). Prawie rok później Google potwierdziło Bloomberg obecnie korzysta z systemu sztucznej inteligencji, nazywanego „RankBrain”, aby zrozumieć 15% zapytań, których jego systemy nigdy wcześniej nie widziały - kwerend, które na przykład zawierają złożone pytania w języku naturalnym, takie jak „Jaki jest tytuł konsumenta w najwyższy poziom łańcucha pokarmowego? ”

Google ma potwierdzone na SearchEngineLand RankBrain zaczął się rozwijać na początku 2015 r. i od kilku miesięcy ma wpływ na wyniki wyszukiwania globalnego. Google potwierdziło również, że RankBrain nie tylko zajmuje się interpretacją zapytań, ale także przyczynia się do tego, jak wysoko oceniają strony dla konkretnych wyszukiwań. Greg Corrado, starszy naukowiec z Google, opisał RankBrain dla Bloomberga jako „trzeci najważniejszy sygnał przyczyniający się do wyniku zapytania”, ale w tej chwili firma nie ujawnia dokładnego charakteru tego wkładu.

Styczeń 2016: Podstawowa aktualizacja algorytmu

Od początku stycznia 2016 r. Zmiany w sposobie, w jaki Google plasuje witryny niskiej jakości (wcześniej znane jako aktualizacje „Panda”), stały się częścią jego „podstawowego” algorytmu, który może zmieniać się często iw czasie rzeczywistym. Duża zmiana w rankingach wyszukiwarek zgłaszana przez wielu specjalistów w tym samym miesiącu została przypisana przez Google wielu drobnym aktualizacjom ich algorytmu Core, które zostały wydane w tym samym czasie, ponieważ wolą nie wypuszczać ich w okresie świątecznym.

Wrzesień 2016: Aktualizacja „Possum”

Na początku września Google opublikowało najbardziej kompleksową aktualizację wyników wyszukiwania z zlokalizowanym elementem od czasu aktualizacji „Pigeon” w lipcu 2014 r. Ta aktualizacja została nazwana przez specjalistów SEO pozycją „Possum” ze względu na sposób, w jaki wiele firm wydaje się mieć zniknęły z zlokalizowanych wyników wyszukiwania, gdy w rzeczywistości są ukryte przez filtry.

Przed tą aktualizacją firmy, które znajdują się poza granicami miasta, często uważają, że trudniej jest ustalić słowa kluczowe, które zawierały tę nazwę miasta, ale teraz wiele z nich ma odnotowano znaczący wzrost w rankingach . W rezultacie inne firmy odnotowały spadek swoich rankingów. Kolejnym celem tej aktualizacji wydaje się być próba odfiltrowania większej liczby informacji o firmach, które mają ten sam adres i kategorię. Na przykład, gdy wielu dentystów ma ten sam adres fizyczny, zlokalizowane wyniki wyszukiwania Google będą teraz pokazywać mniej z nich w tym samym zestawie wyników.

Istnieje również raporty że ta aktualizacja ma większe znaczenie dla rzeczywistej lokalizacji wyszukiwarki, jeśli chodzi o zwrócone wyniki. Na przykład osoby szukające „pizzy w Londynie”, które fizycznie znajdują się w Londynie, zobaczą różne wyniki dla tych, którzy przeprowadzają wyszukiwanie z Nowego Jorku. Jednak ten i inne aspekty zmiany nadal wydają się podlegać wahaniom, tak jakby Google nie ukończył jeszcze tej aktualizacji.

Luty 2017: Świstak

Uważa się, że ta aktualizacja została wydana w celu ukierunkowania na szeroko stosowany schemat łączenia w sieciach prywatnych blogów. Takie sieci są zazwyczaj własnością tego samego podmiotu i mają na celu zwiększenie rankingu stron członkowskich.

Marzec 2017: Fred

Aktualizacja algorytmów Google miała miejsce na początku marca 2017 r., Ale nie została potwierdzona przez Google do 23 marca. Ta aktualizacja otrzymała nazwę po tym, jak urzędnik Google zażartował, że wszystkie aktualizacje powinny być nazywane „Fred”. Według raporty z SearchEngineLand , większość stron, które otrzymały niższe rankingi po tej aktualizacji, była zaangażowana w tzw metody „czarnego kapelusza” i zawierała głównie treści, które były spamem, nieistotne, powielone, niskiej jakości lub nieaktualne. Według Wiadomości z serwisu Pro Witryny, których dotyczy ta aktualizacja, odnotowały 50% -90% spadek ruchu z wyników wyszukiwania Google.

Grudzień 2017 r

Google potwierdził, że kilka „drobnych ulepszeń” ich algorytmów zostało wydanych między 13 a 18 grudnia 2017 r. Raporty sugerują, że te zmiany dotyczyły głównie stron internetowych, które używają wielu permutacji słów kluczowych i stron przejścia dla treści, które są w dużej mierze takie same. Rzecznik Google dodał, że te aktualizacje były częścią „regularnych i rutynowych działań mających na celu poprawę trafności”.

Marzec 2018: Aktualizacja jakości

Google potwierdziło 7 marca, że ​​opublikowano poważną aktualizację podstawowego algorytmu, a zmiany związane z tą zmianą doświadczyli właściciele witryn przez cały marzec. Ta aktualizacja ograniczyła ranking witryn uznanych za niskiej jakości, w tym witryn, które zawierają wiele błędów, zawierają agresywną reklamę lub składają się głównie z treści źle napisanych lub nieistotnych.

Według John Mueller z Google , Google indeksuje witryny o niskiej jakości znacznie rzadziej niż inne witryny, więc Google może upłynąć wiele miesięcy, aby potwierdzić poprawę jakości w witrynie. Zaleca również, aby właściciele stron internetowych starali się poprawić jakość istniejących treści o niskiej jakości, zamiast je usuwać, ponieważ „zawsze istnieje możliwość, że niektóre z usuniętych treści rzeczywiście dodały wartości stronie”.

Lipiec 2018: Mobile Speed ​​Update

W styczniu 2018 r. Google ogłosiło to od lipca 2018 r szybkość strony będzie brana pod uwagę kiedy Google ocenia strony dla dowolnego wyszukiwanego hasła na urządzeniach mobilnych. Zgodnie z zapowiedzią Google, nowy sygnał rankingowy „będzie dotyczył tylko tych stron, które dostarczają użytkownikom najwolniejsze doświadczenia i będą miały wpływ tylko na niewielki procent zapytań”.

Sierpień 2018: Aktualizacja „Medyk”

Od 1 sierpnia do 8 sierpnia Google wprowadziło dużą aktualizację podstawowego algorytmu rankingu. Ta aktualizacja dotyczyła głównie stron internetowych zwanych „twoimi pieniędzmi lub życiem” (takich, które mogą mieć wpływ na twoje finansowe lub fizyczne samopoczucie), takich jak strony finansowe i medyczne. Google zwrócił na to uwagę że strony internetowe, które spadły w rankingach, nie zostały ukarane, tylko że inne strony są teraz wysoko oceniane. Będą to zazwyczaj strony internetowe, które mają większą wiedzę, autorytet i zaufanie, które można zwiększyć, upewniając się, że strony internetowe zdać testy jakości Google .

Październik 2018: Aktualizacja wyszukiwania obrazów

W październiku 2018 r. Google ogłosiło, że w ciągu ostatniego roku było modyfikowanie algorytmu rankingu obrazu aby nadać większą wagę do obrazów stron, a nie tylko samego obrazu. Oznacza to, że na przykład wyszukiwanie zdjęć psów jest obecnie bardziej prawdopodobne, aby zwracać obrazy ze stron internetowych dotyczących psów niż wcześniej. Ta zmiana oznacza również, że obrazy, które są niezgodne z ogólną zawartością strony internetowej, będą teraz działać gorzej w wyszukiwaniach.

Styczeń 2019: Aktualizacja „Newsgate”

W pierwszych tygodniach 2019 r. Google wydało aktualizację algorytmu, która jest skierowana do witryn publikujących treści wiadomości Google , który obejmuje przede wszystkim strony z wiadomościami i blogami niszowymi. Aktualizacja zaowocowała gorszymi rankingami wyszukiwania witryn internetowych, które publikują treści, które są w dużej mierze kopiowane lub przeredagowywane bez dodawania wartości dodanej, a także witryny, które nie są przejrzyste w odniesieniu do źródła lub autora wiadomości. I jakby chciał potwierdzić aktualizację, kilka dni później Google opublikowało wskazówki aby umożliwić wydawcom skuteczne publikowanie w Google News, w tym zalecenie, aby wszelkie treści skopiowane lub przeredagowane zostały zablokowane przed publikowaniem w Google News.

Wniosek

Ogólnie rzecz biorąc, jeśli Twoja strona używa legalne techniki SEO i unikasz używania Metody SEO „Black-Hat” Twoja witryna nie powinna być pod negatywnym wpływem jakichkolwiek aktualizacji algorytmów Google. Jeśli jednak Twoja witryna doświadczyła znacznego spadku ruchu, który zbiegł się z datami tych aktualizacji, nadszedł czas na ponowne przeanalizowanie struktury witryny, treści i metod SEO.

Ostatnia aktualizacja: 23 stycznia 2019 r