Fünf Suchmaschinen-Vermarkter haben ihre Meinung zum Core Update von Google für Dezember 2020 abgegeben. Die Beobachtungen bieten interessante Rückmeldungen darüber, was möglicherweise passiert ist.

Meiner Meinung nach, Google-Updates wurden zunehmend weniger über Ranking-Faktoren und mehr darüber, wie Abfragen und Webseiten besser verstanden werden.

Einige haben die Meinung vertreten, dass Google Suchergebnisse randomisiert, um diejenigen zu täuschen, die versuchen, den Google-Algorithmus rückzuentwickeln.

Ich teile diese Meinung nicht.

Bestimmte Algorithmusfunktionen sind in den Suchergebnissen schwer zu erkennen. Es ist nicht einfach, auf ein Suchergebnis zu zeigen und zu sagen, dass es aufgrund der Rangfolge rangiert BERT-Algorithmus oder neuronale Übereinstimmung.

Aber es ist leicht, auf Backlinks zu verweisen, ESSEN oder Benutzererfahrung als Gründe, um zu erklären, warum eine Website ein Ranking aufweist oder nicht, wenn dies der Fall ist, auch wenn der eigentliche Grund möglicherweise eher mit BERT zusammenhängt.

Also die Suchmaschinen-Ergebnisseiten (SERPs) kann für diejenigen, die die SERPs auf der Suche nach traditionellen Ranking-Faktoren der alten Schule untersuchen, verwirrend und zufällig erscheinen, um zu erklären, warum Seiten rangieren oder warum sie in einem Update Rankings verloren haben.

Natürlich scheinen die Google-Updates unergründlich zu sein. Die Gründe für den Rang von Webseiten haben sich in den letzten Jahren aufgrund von Technologien wie der Verarbeitung natürlicher Sprache dramatisch geändert.

Was ist, wenn Google Updates und niemand sieht, was sich geändert hat?

Es ist in der Vergangenheit passiert, dass Google etwas geändert hat und die SEO-Community es nicht bemerkt hat.

Als Google beispielsweise einen Algorithmus wie BERT hinzufügte, konnten viele nicht erkennen, was sich geändert hatte.

Was wäre, wenn Google so etwas wie den SMITH-Algorithmus hinzufügen würde? Wie würde die SEO-Community das erkennen?

SMITH ist beschrieben in a Google Research Paper veröffentlicht im April 2020 und überarbeitet im Oktober 2020. SMITH erleichtert das Verständnis einer langen Seite mit Inhalten und übertrifft BERT.

Hier ist, was es sagt:

„In den letzten Jahren haben Modelle mit Selbstaufmerksamkeit wie Transformers und BERT bei der Aufgabe des Textabgleichs eine Leistung auf dem neuesten Stand der Technik erzielt.

Diese Modelle sind jedoch aufgrund der quadratischen rechnerischen Komplexität der Selbstaufmerksamkeit in Bezug auf die Länge des eingegebenen Textes immer noch auf kurzen Text wie einige Sätze oder einen Absatz beschränkt.

In diesem Artikel gehen wir auf das Problem ein, indem wir den siamesischen SMITH-Encoder (Multi-Depth Transformer-based Hierarchical) für den Langform-Dokumentenabgleich vorschlagen.

Unsere experimentellen Ergebnisse mit mehreren Benchmark-Datensätzen für den Langform-Dokumentenabgleich zeigen, dass unser vorgeschlagenes SMITH-Modell die bisherigen Modelle des Standes der Technik übertrifft, einschließlich hierarchischer Aufmerksamkeit, auf Aufmerksamkeit basierenden hierarchischen wiederkehrenden neuronalen Netzwerks mit mehreren Tiefen und BERT.

Im Vergleich zu BERT-basierten Baselines kann unser Modell die maximale Länge des Eingabetextes von 512 auf 2048 erhöhen. “

Ich sage nicht, dass Google den SMITH-Algorithmus eingeführt hat (PDF) oder dass es mit dem verwandt ist Passagen-Algorithmus.

Ich möchte darauf hinweisen, dass das Kernupdate vom Dezember 2020 die Qualität von scheinbar nicht beobachtbaren Änderungen enthält.

Wenn Google eine neue AI-basierte Funktion hinzufügt oder eine vorhandene Funktion wie BERT aktualisiert, kann die Suchmaschinen-Marketing-Community diese erkennen? Wahrscheinlich nicht.

Die Qualität nicht beobachtbarer Änderungen kann darauf hinweisen, dass Änderungen möglicherweise damit zu tun haben, wie Google Webabfragen und Webseiten versteht.

Wenn dies der Fall ist, kann dies bedeuten, dass es nützlich sein kann, einen Schritt zurückzutreten und dies in Betracht zu ziehen, anstatt die üblichen leicht zu beobachtenden Rangfolgenfaktoren (Links von Schaberstandorten, Standortgeschwindigkeit usw.) zu drehen etwas tiefer sein als die üblichen Ranking-Faktoren, die sich geändert haben.

Einblicke in das Google Core-Update vom Dezember 2020

Ich danke denen, die Zeit hatten, ihre Meinung einzubringen. Sie haben hervorragende Informationen geliefert, die Ihnen helfen können, den Dezember von Google zu veröffentlichen Kernalgorithmus-Update in die Perspektive.

Dave Davies (@oohloo)
Beanstalk Internet Marketing

Dave stellt dieses Update in den Kontext dessen, was Google in Kürze für den Algorithmus angekündigt hat und wie dies bei den Schwankungen eine Rolle spielen könnte.

Dave bot an:

„Das Core Update vom Dezember 2020 war einzigartig. Viele Websites, mit denen wir arbeiten, begannen mit Verlusten und endeten mit Gewinnen und umgekehrt.

Es hatte also eindeutig etwas mit einem Signal oder Signalen zu tun, die kaskadieren. Das heißt, wo die Änderung ein Ergebnis verursachte, aber sobald diese neue Berechnung ihren Weg durch das System fand, erzeugte sie ein anderes. Wie die Neuberechnung von PageRank, obwohl diese wahrscheinlich nichts mit PageRank zu tun hatte.

Alternativ hat Google möglicherweise im laufenden Betrieb Anpassungen vorgenommen oder andere Änderungen während des Rollouts vorgenommen, aber ich finde das weniger wahrscheinlich.

Wenn wir über das Timing nachdenken und darüber, wie es mit der Einführung der Indizierung von Passagen zusammenhängt und ob es sich um ein Kernupdate handelt, vermute ich, dass es mit Inhaltsinterpretationssystemen zusammenhängt und nicht mit Links oder Signalen in dieser Richtung.

Wir wissen auch, dass Core Web Vitals im Mai 2021 in den Algorithmus eintreten, sodass es möglicherweise Elemente gibt, die dies im Update unterstützen, aber diese würden nicht die Auswirkungen haben, die wir alle derzeit gesehen haben, da Web Vitals technisch inert sein sollten Als Signal in dieser Phase würde das Update zumindest mehr als das beinhalten.

Was die allgemeine Reaktion der Community angeht, war es schwierig, diese über „es war groß“ hinaus einzuschätzen. Wie in jedem Nullsummenszenario zu erwarten ist, lächelt eine andere Person, wenn sie sich über einen Verlust beschwert, die SERPs ganz nach oben.

Ich vermute, dass vor Ende Januar genau klar wird, was sie eingeführt haben und warum. Ich glaube, es hat mit zukünftigen Funktionen und Fähigkeiten zu tun, aber ich bin schon lange genug da, um zu wissen, dass ich mich irren könnte, und ich muss genau hinschauen. “

Steven Kang (@SEOSignalsLab)

Steven Kang, Gründer der beliebten Facebook-Gruppe von SEO Signals Lab, stellt fest, dass nichts in Bezug auf Gemeinsamkeiten oder Symptome zwischen Gewinnern und Verlierern auffällt.

„Dieser scheint schwierig zu sein. Ich finde Gewinne und Verluste. Ich müsste mehr auf diesen warten. “

Daniel K Cheung (@ Danielkcheung)
Teamleiter, Prosperity Media

Daniel ist der Ansicht, dass es hilfreich ist, einen Schritt zurückzutreten und Google-Updates aus der Gesamtansicht des Waldes und nicht aus dem Baum des neuesten Updates anzuzeigen und diese Updates in den Kontext dessen zu stellen, was wir in der Suche wissen.

Ein Beispiel ist der offensichtliche Rückgang der Berichte über manuelle Aktionen in Google Search Console. Die Implikation ist, bedeutet das, dass Google besser in der Lage ist, Websites dort zu bewerten, wo sie hingehören, ohne auf manuelle Strafmaßnahmen zurückgreifen zu müssen?

So sieht Daniel das neueste Update des Kernalgorithmus von Google:

„Ich denke, wir als Such- / Erkennbarkeitsleute müssen aufhören, Core Updates als einzelne Ereignisse zu betrachten, und stattdessen Core Updates als Kontinuum laufender Tests und ‘Verbesserungen’ an dem betrachten, was wir in den SERPs sehen.

Wenn ich mich also auf das Kern-Update vom Dezember beziehe, möchte ich betonen, dass es nur ein Ereignis von vielen ist.

Beispielsweise haben einige Affiliate-Vermarkter und Analysten festgestellt, dass sich Websites, die zuvor vom Update vom Mai 2020 betroffen waren, im Dezember-Rollout erholt haben. Dies war jedoch nicht konsistent.

Und hier ist das Problem: Wir können nicht über Websites sprechen, die gewonnen oder verloren haben, weil es nur um einzelne URLs geht.

Ein Blick auf die reine Sichtbarkeit einer gesamten Website gibt uns also keine wirklichen Hinweise.

Es gibt Gemurmel von 301 Weiterleitungen, PBNs, Backlinks von geringer Qualität und schlechten Inhalten, die Gründe dafür sind, dass einige Websites von Seite 1 auf Seite 6-10 der SERPs verschoben wurden (praktisch unsichtbar).

Diese Praktiken waren jedoch immer anfällig für die täglichen Schwankungen des Algorithmus.

Was im Laufe des Jahres 2020 wirklich interessant war, ist, dass es nur sehr wenige Berichte über manuelle Strafen innerhalb von GSC gab.

Dies wurde unheimlich durch Impression- und Klick-Diagramme ersetzt, die von einer Klippe springen, ohne dass die Site deindiziert wird.

Meiner bescheidenen Meinung nach geht es bei Kernaktualisierungen weniger darum, auf eine bestimmte Auswahl von Praktiken abzuzielen, sondern vielmehr darum, dass der Algorithmus inkrementell ausgereift ist.

Nun, ich sage nicht, dass Google es 100% der Zeit richtig macht – der Algorithmus tut dies eindeutig nicht und ich glaube nicht, dass dies jemals der Fall sein wird (aufgrund der Neugier der Menschheit). “

Cristoph Cemper (@cemper)
CEO LinkResearchTools

Cristoph Cemper betrachtet das neueste Update als Einfluss auf eine Vielzahl von Faktoren.

Folgendes teilte er mit:

„Auf hohem Niveau passt Google Dinge an, die globale Auswirkungen auf Kernaktualisierungen haben.

Das ist:

a) Gewichtsverhältnisse für verschiedene Arten von Verbindungen und deren Signale

Ich denke, der NoFollow 2.0-Rollout vom September 2019 ist noch nicht abgeschlossen, aber optimiert. Dh wie viel Leistung für welche NoFollow in welchem ​​Kontext.

b) Antwortfelder, viel mehr. Google erhöht seine eigenen Immobilien

c) Massenabwertung von PBN-Verbindungsnetzen und ganz offensichtliche Spuren des „Aufbaus von Kontaktverbindungen“.

Nur weil jemand eine Kontakt-E-Mail gesendet hat, wird ein kostenpflichtiger Link nicht natürlicher, selbst wenn er mit “Inhalten” oder “Austausch von Diensten” bezahlt wurde.

Michael Martinez (@seo_theory)
Gründer von SEOTheory

Michael Martinez bot diese Einblicke:

„Basierend auf dem, was ich in Online-Diskussionen gesehen habe, sind die Leute verwirrt und frustriert. Sie wissen nicht wirklich, was passiert ist, und nur wenige scheinen Theorien darüber zu haben, warum sich die Dinge geändert haben.

Im Allgemeinen scheint es mir, als hätte Google eine Reihe seiner Algorithmen zur Durchsetzung von Qualitätsrichtlinien neu geschrieben.

Nichts Bestimmtes im Sinn, aber die Websites anderer Leute, die ich mir angesehen habe, schienen mir in Ordnung zu sein, nicht großartig. Einige der Websites in unserem Portfolio sind gestiegen, andere sind gesunken.

Wieder kam es mir nur so vor, als würde es um die Durchsetzung oder algorithmische Interpretation von Signalen gehen, die ihren Richtlinien zugeordnet sind.

Es geht nicht darum, etwas zu bestrafen, sondern vielleicht darum, verschiedene Ansätze zur Lösung von Fragen auszuprobieren. “

Was ist in Google Dezember 2020 Core Update passiert?

Die Perspektiven für das Kernalgorithmus-Update von Google sind unterschiedlich. Die meisten Beobachter scheinen zuzustimmen, dass keine offensichtlichen Faktoren oder Veränderungen auffallen.

Und das ist eine interessante Beobachtung, weil es bedeuten könnte, dass etwas mit KI oder Verarbeitung natürlicher Sprache wurde verfeinert oder eingeführt. Aber das ist nur Spekulation, bis Google dies ausdrücklich aus- oder einschließt.



Quelle