absturz

Google Update im Februar 2017 – Bewegung in den SERPs

In den letzten zwei Wochen, also etwa seit Anfang Februar, hat sich in den Google-SERPs einiges an Verschiebungen ergeben. Wer Kennzahlen wie den Sistrix-Sichtbarkeitsindex im Auge hat, stellt teilweise gravierende Veränderungen fest – positive für die einen, negative für andere. Und das quer durch alle Themenbereiche.

Beobachtungen zum Google-Update im Februar 2017

Schaut man ein wenig über den eigenen Tellerrand, und verschafft sich einen größeren Überblick, drängt sich der Verdacht auf, dass es sich um ein Qualitäts- und »Authority«-Update handelt. Wahrscheinlich wirkt sich hierbei die KI von RankBrain mit aus.

Relativ klare Tendenzen erkennbar

Betrachtet man beispielsweise die direkten Wettbewerber chefkoch.de und eatsmarter.de stellt man bei chefkoch.de einen Anstieg von 11% in der Sistrix-Sichtbarkeit fest, während eatsmarter um 15% an Sichtbarkeit verloren hat. Legt man nun die Sichtbarkeitsverläufe der letzten 14 Tage übereinander, ergibt sich ein interessantes Bild:

Erstaunliche Parallelen: chefkoch.de gewinnt was eatsmarter.de verliert
Erstaunliche Parallelen: chefkoch.de gewinnt was eatsmarter.de verliert

Das könnte nun natürlich ein purer Zufall sein. Deswegen gleich ein weiterer Vergleich. Ebenfalls direkte Wettbewerber: tintenalarm.de und toner-dumping.de

Auch hier erstaunliche Übereinstimmung - wenn auch in unterschiedliche Richtungen
Auch hier erstaunliche Übereinstimmung – wenn auch in unterschiedliche Richtungen

Schlussfolgerungen – gute Zeiten für Vorreiter

Man könnte hier jetzt auch noch eine Reihe weiterer Beispiele aufführen, aber ich will es bei diesen beiden belassen, die schon recht gute Rückschlüsse auf die Intention des Updates haben. Wer sich ein wenig im Netz auskennt, der weiß natürlich, dass chefkoch.de das »Original« ist. Absolut betrachtet kommt eatsmarter.de nicht im entferntesten an die Sichtbarkeit von Chefkoch heran. Allerdings konnte man in den letzten Monaten einen deutlichen Anstieg der Sichtbarkeit feststellen.

Dabei ergibt es sich, dass eatsmarter Inhalte ins Netz stellt, die jenen von Chefkoch ähneln. Dabei geht es weniger darum etwas zu kopieren. Aber wenn man etwa die Nährwerte und Zubereitung einer Süßkartoffel erklärt, dann ergeben sich recht ähnliche Inhalte.

Betrachtet man nun die Auswirkungen des letzten Updates bei einer Reihe von Beispielen, stellt man fest, dass Google den Platzhirschen zugeneigter zu sein scheint. Kommt hier womöglich die KI von RankBrain zum Zuge, die einer Seite die die jeweilige Inhalten schon deutlich länger im Netz eine höhere »Authority« zuweist? Das wäre ja nur menschlich – und das ist ja das Ziel von RankBrain.

Der Champions-Bonus

In vielen Sportarten in denen eine zumindest teilweise subjektive Bewertung über Sieg und Niederlage entscheidet, hat der amtierende Champ einen Bonus. So wird ein Boxer der nur genau so gut ist, wie der Weltmeister diesen schwer nach Punkten schlagen. Denn im Zweifel entscheiden sich die Kampfrichter für den amtierenden Champ – der seinen Bonus ja in gewisser Weise auch verdient.

Ähnlich scheint Google nun auch zu ticken. Denn alles in allem ist die klare Tendenz erkennbar, dass das Februar-Update die Seiten aufwertet, die auf ihrem Gebiet als erste hochwertige Inhalt ins Netz gestellt haben, und jene abstraft, die deren Beispiel nur folgen.

Dabei werden nach meinem Eindruck sogar OnPage-Faktoren deutlich vernachlässigt.

Vorreiter auf dem Smartphone – und dort weniger Verlust

Gestützt wird diese These auch durch Beobachtungen hinsichtlich der Sichtbarkeit auf dem Smartphone. Wir von Tonerdumping haben 2016 vor unseren Wettbewerbern auf ein responsives Design umgestellt. Hier waren wir also der Vorreiter. Interessanterweise ist hier kein Einbruch bei der Sichtbarkeit zu beobachten. Auch hier kann man natürlich einen Zufall annehmen. Dafür sind die Indizien aber doch ein bisschen zu eindeutig.

Fazit: abwarten, originäre Inhalte schaffen

Ziel von Google ist es Inhalte aus Nutzersicht zu bewerten. Da läge es nur nahe, jene Inhalte zu bevorzugen die zuerst da waren – so lange neuere Inhalte nicht deutlich umfangreicher oder hochwertiger sind. Das tun wir Menschen ja auch so – ob wir wollen oder nicht.

Im Grunde ist das auch alles nichts neues: »content is king«, und Content sollte originär sein, und nicht nur eine Nachahmung bereits vorhandener Inhalte. Denn, was hat der Nutzer denn davon? Natürlich nutzt man Vorbilder, aber man sollte diese nicht einfach nur kopieren.

Read More

serps

Google Penguin 4.0 und seine Folgen – Massive Bewegung in den SERPs

Wer berufsbedingt oder auch nur rein interessehalber die Daten von Sistrix, OnPage, XOVI und Co. im Blick hat, der hatte in den letzten Tagen unter Umständen ordentlich zu staunen. Gut zwei Wochen nachdem Google seinen vierten Pinguin auf das Web losgelassen hat, gibt es jetzt teilweise dramatische Auswirkungen in den SERPs zu beobachten.

Wer von Googles Pinguinen verprügelt wurde, bekommt endlich wieder eine Chance

Seitenbetreiber die von den bisherigen Pinguin-Updates seit Mitte 2013 betroffen waren, hatten es verdammt schwer sich davon zu erholen. Selbst wer sich heftigst ins Zeug legte, kam aus dem Tal der Tränen bisher nicht so recht wieder raus. Wer also beispielsweise Opfer von untauglichen SEO-Maßnahmen irgendwelcher Dienstleister war, oder womöglich sogar selbst Mist gebaut hat – Cloaking, Schrottlinks etc. – der hatte darunter seither immer noch massiv zu leiden.

Ich kann hier selbst ein Lied davon singen wie bei einem Projekt bei dem in der Vergangenheit schlechte SEO betrieben wurde bisher seit den Pinguin-Updates selbst State-of-the-Art SEO nur bescheidene Erfolge brachte. So manche Domain war so verbrannt, dass die Anbieter sich zum Namens- oder zumindest Domainwechsel durchrangen.

Warum erholen sich manche Seiten dank Penguin 4.0 jetzt so deutlich

Um zu verstehen, warum es zu diesen massiven Auswirkungen kommt, muss man sich nur kurz damit befassen, was genau Penguin 4.0 ausmacht – Google erklärt es:

  • Penguin is now real-time. Historically, the list of sites affected by Penguin was periodically refreshed at the same time. Once a webmaster considerably improved their site and its presence on the internet, many of Google’s algorithms would take that into consideration very fast, but others, like Penguin, needed to be refreshed. With this change, Penguin’s data is refreshed in real time, so changes will be visible much faster, typically taking effect shortly after we recrawl and reindex a page. It also means we’re not going to comment on future refreshes.
  • Penguin is now more granular. Penguin now devalues spam by adjusting ranking based on spam signals, rather than affecting ranking of the whole site.

Quelle: https://webmasters.googleblog.com/2016/09/penguin-is-now-part-of-our-core.html

Kurz zusammengefasst: Google macht sich bezüglich des Spam-Verdachts jetzt nicht mehr nur alle paar Wochen oder Monate ein Bild von einer Website, sondern in jedem Durchlauf. Real-Time. Man wirft den Pinguinen also nicht mehr die SERPs zum Fraß vor und lässt sie aussortieren, sondern schickt sie zusammen mit der restlichen Ranking-Faktoren-Mannschaft dauerhaft und kontinuierlich durchs Netz. Die Folgen schlechter oder falscher SEO sind also schneller auszubügeln – was so mancher Idiot unter den SEOs jetzt natürlich gleich wieder zum Anlass nehmen wird zu experimentieren, so manch einer begreift das mit der heißen Herdplatte halt nie.

Was mindestens genau so wichtig ist: Google straft Spam gezielter ab. Hat man also auf seiner Website Content der als Spam gewertet wird, ist nun nicht mehr gleich die ganze Seite von Strafmaßnahmen betroffen.

Sprünge in den SERPs machen deutlich wie massiv eine Penguin-Abwertung sich ausgewirkt hat

Eine Penguin-Abwertung ließ nur sehr bescheidene Aufwärtstendenzen zu - selbst bei erstklassiger SEO
Eine Penguin-Abwertung ließ nur sehr bescheidene Aufwärtstendenzen zu – selbst bei erstklassiger SEO

Wer in den letzten Jahren beauftragt wurde die Altlasten einer von den Pinguinen zerfleischten Website zu beseitigen, und das jeweilige Projekt wieder auf respektables Niveau zu heben, der weiß wie unglaublich schwer es war, hier überhaupt irgendwelche relevanten Erfolge zu erzielen. So unfassbar schwer und mit minimalen Erfolgen belohnt, dass man da mitunter schon mal an seiner Kompetenz zweifeln konnte.

Die Sprünge in den SERPs machen nun aber deutlich, wie enorm sich eine Pinguin-Abwertung einer Website bis heute ausgewirkt hat. Bei einzelnen Seiten sind am Sonntag bei Sistrix Sprünge von über 200% festzustellen gewesen. Was das in der Sichtbarkeit, und damit in der Anzahl der potentiellen Besucher ausmacht, das mag man sich mitunter gar nicht vorstellen.

Frust und Freude liegen dicht beisammen

Gerade wenn man selbst von den Auswirkungen der Pinguin-Updates betroffen war, freut man sich nun natürlich, dass es jetzt wieder aufwärts gehen kann. Frust macht sich jedoch breit, wenn man sich vor Augen führt wie nachhaltig falsche Entscheidungen in der Vergangenheit – oftmals nicht die eigenen – oder die handwerklich grottenschlechte SEO irgendwelcher Dienstleister sich über Jahre so auswirken, dass man trotz größter Anstrengungen kaum voran kommt.
Mindestens ebenso viel Frust kommt auf, wenn man jetzt schon wieder von den ersten “SEOs” erfährt, wie diese erste Experimente starten den Anschlag der Spam-Schraube zu finden. In der Regel baden nicht diese Pseudo-SEOs die Folgen aus, was es noch viel frustrierender macht.

Aber vielleicht zieht ja so manches Pinguin-Opfer nachhaltig richtige Schlüsse.

 

 

Read More

Nach Umstellung auf HTTPS: Disavow-File neu hochladen!

disavow_nach_umstellung_auf_https
Bei der Auswertung einiger Daten fielen mir heute einige Ungereimtheiten auf. Es geht um ein Projekt, bei dem in der fernen Vergangenheit, vor meiner Zeit, massiv Links eingekauft wurden. Was damals vielen noch als legitime Methode des Linkaufbaus erschien, fiel all jenen die es entweder selbst gemacht, oder von einer unfähigen SEO-Agentur dazu getrieben wurden, vor zwei Jahren endgültig auf die Füße.

Googles Qualitätsoffensive machte aus toxischen Links akute Entzündungsherde

Wer regelmäßig die Sichtbarkeitswerte von Sistrix, Seolytics oder OnPage im Auge hat, konnte damals beobachten, wie Sichtbarkeiten regelrecht in sich zusammenkrachten. Neben dem händischen Entfernen der Links – mühselig, und mitunter auch gar nicht möglich – half dann nur noch die Disavow-Datei für Google, mit der man Links für ungültig erklären konnte.

Bei der Umstellung auf HTTPS muss die Disavow erneut eingereicht werden!

Jetzt habe ich kürzlich ein Projekt begleitet, bei dem die Umstellung von HTTP auf HTTPS erfolgte. Was mir allerdings auch neu war: eine eventuell bestehende Disavow-Datei muss erneut eingereicht werden. Quelle? Google selbst: http://seo.at/wechseln-von-http-auf-https-disavow-file-muss-erneut-eingereicht-werden/

Hat man nun also in der Vergangenheit für eine Domain wie denic.de toxische Links über eine Disavow entwertet, und stellt dann auf HTTPS um, mit den entsprechenden Umleitungen alter URLs, dann poppen all die alten, toxischen, moddrig stinkenden Links wieder auf – und es muss erneut eine Disavow eingespielt werden.

Read More

Redirects bei neuen URLs: kleine Fehler, große Wirkung

seo_basics_fuer_relaunchOk, so groß waren die Wirkungen, bzw. Folgen nun erstmal nicht, da der Fehler noch innerhalb eines großen Umbruchs auffiel und behoben werden konnte. Wäre dem nicht so, würden die Folgen garantiert größer ausfallen. Worum geht es?

Großer Shop-Relaunch bei TONERDUMPING, inklusive neuer URL-Struktur

Saubere, sprechende URLs sind heute so selbstverständlich geworden, dass man gerne mal vergisst, wie das früher aussah. Das irgendwo unter all den individuellen Modifikationen noch im Shop von TONERDUMPING versteckte OSCommerce zum Beispiel, produzierte ursprünglich nette URLs mit Parametern höchster Merkfähigkeit.

Beispiel: https://demo.oscommerce.com/product_info.php?products_id=28&osCsid=of23evlmgpqrc1e71unb0dmp51

Damit ist heute nicht nur aus SEO-Sicht kein Blumentopf mehr zu gewinnen, es wirkt in Zeiten sauberer, lesbarer URLs auf weniger technikaffine Nutzer auch schnell unseriös und wenig vertrauenerweckend. Verständlich, denn wer keine Kenntnis des technischen Hintergrunds dieser Parameter hat, der fragt sich natürlich, was sich hinter diesem kryptischen Code verbirgt, und ob da alles mit rechten Dingen zugeht. Womöglich tauchen gleich Scully und Mulder auf, weil man unbewusst eine Einladung zum Picknick an die Bewohner des Planeten X³51-E versendet hat. Oder aber Edward Snowden kommt zum Frühstück, um einem zu erklären, dass man mit dieser URL gerade seine persönliche Krankengeschichte an die NSA übermittelt hat.

Die neue URL-Struktur bei TONERDUMPING – sauber und lesbar

Im Onlineshop meines Arbeitgebers war vor einigen Jahren – vor meiner Zeit dort – bereits eine Anpassung erfolgt, und einigermaßen saubere URLs eingeführt worden. Allerdings immer noch mit einer Reihe Parameter, die einfach angehängt wurden.

Beispiel: https://www.toner-dumping.de/canon-pixma-ip-canon-pixma-ip1600-c-2_204_1764_3402.html

Das war zwar schon bedeutend besser, als die standardmäßig von OSCommerce vorgesehenen URLs, aber eben auch nur suboptimal. Daher war ein wichtiges Thema beim Shop-Relaunch die Realisierung sauberer URLs, die kürzer, SE-optimiert und vertrauenweckend clean sind. Auf die Details der technischen Umsetzung will ich nun gar nicht eingehen – Eigenentwicklung, Betriebsgeheimnis mit überragender Performance 😉  . o O (hier stinkts nach Eigenlob) -, aber auf jeden Fall sehen die neuen URLs nochmal ein gutes Stück besser aus.

Beispiel: https://www.toner-dumping.de/canon/canon-pixma-ip/canon-pixma-ip1600

Gerade wenn es um die Hersteller geht, z.B. also wenn jemand nach HP-Druckerpatronen sucht, macht sich eine saubere URL wie https://www.toner-dumping.de/hp natürlich besser, als irgendwelche kryptischen Zeichenfolgen.

Alte URLs umleiten – aber richtig!

Nun schwirren noch tausende Links nach altem Schema durchs Web, und diese galt und gilt es natürlich sauber umzuleiten. Auch hier will ich nicht auf technische Details eingehen, nur soviel, für die technisch sachkundigen: header() wurde genutzt. Dabei wurde allerdings etwas wichtiges vergessen. Die URLs werden zwar korrekt umgeleitet, als Statuscode wird jedoch 302 (found – temporary redirect) übergeben. Das bedeutet: die URL wird zwar vorübergehend umgeleitet, die URL bleibt jedoch gültig. Ist natürlich Unsinn, denn zu unserer alten URL-Struktur werden wir wohl kaum zurückkehren.

Dauerhaft neue URLs? Dann immer eine 301 Weiterleitung

Der korrekte, sinnvolle und einzig richtige HTTP-Statuscode der in unserem Fall übergeben werden sollte ist 301 – moved permanently. Nur so signalisiert man Google und Co – wer auch immer diese ominösen anderen Suchmaschinen sein mögen… -, dass man die Seite dauerhaft unter einer neuen URL findet, und eben diese auch zu nutzen ist. Die Lösung in diesem Fall war eine simple Ergänzung des Codes: header(“HTTP/1.1 301 Moved Permanently”); – fertig!

Hervorragende Umzugs-Checkliste bei Sistrix

Die SEO-Profis von Sistrix – ja, auch wir nutzen deren geniale Toolbox – haben in ihrer Artikelreihe zum Thema SEO-Basics einen Artikel zum Thema Website-Relaunch nie ohne Weiterleitungen online. Lesenswert!

Read More