SEO Marketing anhand Google Algorithmus Updates

SEO Marketing is the name of the game. Deshalb ist es Zeit, sich einen Überblick über die ersten Google Algorithmus Updates, namentlich Florida, Austin und Brandy, zu machen. Diese Namen mögen Dir noch nicht viel sagen, nach der Lektüre dieses Beitrages solltest Du aber in der Lage sein, deren Wirkungsschwerpunkt für das SEO Marketing einzuordnen. Indem Du Dich mit diesen Updates auseinandersetzt, wirst Du auch sehen, welche schlechten SEO Praktiken damit bekämpft werden sollten und – noch wichtiger -, welche dieser Massnahmen Du bei Deinen Bemühungen unbedingt vermeiden musst. Umgekehrt wirst Du sehen, welche SEO Best Practices sich daraus für deine Seite ergeben.

Der erste Paukenschlag: Florida

Lasst uns das Rad der Zeit auf 2003 zurückdrehen. In diesem Jahr veränderte sich die SEO-Landschaft dramatisch, nachdem Google seinen Algorithmus Update Florida releast hat. Der Begriff Suchmaschinenoptimierung resp. SEO Marketing war damals relativ unbekannt. SEOs konnten eine Seite ohne viel Aufwand auf die erste Google-Ergebnis-Seite bringen. Dafür mussten sie lediglich einige zusätzliche Keywörter (keyword stuffing) auf der Seite unterbringen und einige externe Links mit einem aus einem Keywort bestehenden Ankertext einbetten. Damals entwickelten Webmaster fast beliebig viele Themen-Seiten und generierten ein gutes Einkommen mit den Werbe- und Affiliate-Einnahmen.

Dann, im November 2003, genau vor der Feriensaison, hat Google «Florida» lanciert. Unzählige Seiten verschwanden von der Landkarte. Geschäftsinhaber und Webmaster, die ihren Lebensunterhalt mit diesen Seiten bestritten, waren ausser sich. Viele Seiten standen plötzlich ohne Traffic da.

Spam-Taktiken, die es zu vermeiden gilt

Einige Theorien besagten, dass Seiten, bei denen die Verantwortlichen zwielichtige Suchbegriffe optimierten wie zum Beispiel «Diät Pillen» oder «Online Poker», durch «Florida» viel härter getroffen wurden als andere. Das schien auch der Fall zu sein, da diese Seiten viel mehr von ihrem Ranking verloren. Man hätte diese Tatsache auch dem Umstand zuschreiben können, dass viele dieser Seiten Spam-SEO-Taktiken einsetzten, die von Florida unschädlich gemacht wurden. Diese Techniken waren:

  • Repetitiver Einsatz von Suchwörtern in Ankertext-Beschreibungen
  • Repetitiver Einsatz von Suchwörtern in Linktexten zu externen Seiten
  • Keyword-Stuffing (unsinniger Einsatz von Suchbegriffen) in den Seiten Titeln oder im Seitentext
  • Fehlender Zusammenhang zwischen dem Linktext und dem thematischen Inhalt des Ziels
  • Keine konsistentes Thema einer Webseite, z.B. eine einzige Seite mit dem ausschliesslichen Fokus, Uhren zu verkaufen, oder umfassendere Seiten, die willkürlich Kaufempfehlungen geben von Uhren bis Hundefutter.

Dieser Update brachte SEO eigentlich das erste Mal richtig ins Spiel. Es war zugleich der erste Suchalgorithmus Update, der SEO Marketing anspruchsvoll machte. Dies galt vor allem, weil dieser Algorithmus dazu überging, bessere Resultate für die Nutzer hervorzubringen und nicht mehr leichtfertig die Resultate lieferte, die einfach manipuliert werden konnten. Das bildete auch die Grundlage für kommende Google Algorithmus Updates, die gleichermassen die SEO Welt auf den Kopf stellten. In der Folge wurden Strategien breiter abgestützt und die SEOs mussten ihren Fokus auf zusätzliche Massnahmen legen.

Austin und die Konsequenzen für das SEO Marketing

Einige Monate später, im Januar 2004, erschien der Algorithmus Austin. Dieser fegte den grössten Teil der verbleibende Spam-Webseiten weg, die Florida noch nicht wirksam bekämpft hatte. Die betroffenen Taktiken waren:

  • Nicht lesbarer Text (z.B. weisser Text auf weissem Hintergrund), womit Webmaster versuchten, zusätzliche Keywörter unterzubringen.
  • Auch bei den Meta Keyword Tag hat Austin aufgeräumt. Dieser Tag wurde zum Teil missbraucht, indem hunderte Keywörter darin untergebracht wurden

Danach verlor der Meta Keyword Tag an Gewicht. Heute hat dieser für Google keine Wirkung mehr.

Nach den beiden Google Algorithmus Updates Florida und Austin musste sich die SEO Industrie neue Wege finden, um sinnvolles SEO Marketing im Hinblick auf die Zukunft zu betreiben.

Der Google Algorithmus Update Brandy

Der nächste Update namens Brandy kam nur einen Monat später. Brandy brachte nicht nur eine massive Ausweitung von Googles Indexes, sondern auch einen signifikanten Wechsel in der Funktionsweise des Algorithmus. Der bemerkenswerte Wechsel war LSI (Latent Semantic Indexing). Mit LSI hat Google eine Seite konzeptionell besser erfasst, bevor sie für einen bestimmten Suchbegriff gerankt wurde. Dies basierte auf natürlichen Sprachmustern, die eine mathematische Annäherung in Bezug auf den Sinn und Zweck einer Seite verfolgten. Das Schema tützte sich stark auf die Verwendung von Synonymen, womit Google unterscheiden konnte, ob ein Artikel einen Mehrwert zu einem bestimmten Thema lieferte oder einfach einen zweitklassig zusammengestellten Spamming-Artikel darstellte.

Die Funktionsweise von LSI stellt man sich folgendermassen vor: Wenn ihr zum Beispiel eine Seite über Fussball entwickelt, wird Google den Text auf der ganzen Seite hinsichtlich der verwendeten Schlüsselwörter einschätzen, und zwar speziell derjenigen, die mit dem Thema Fussball zusammenhängen. Das heisst, dass ein Artikel, der zum Beispiel die Begriffe Tor, Freistoss, Halbzeit enthält, als relevanter eingeschätzt wird als einer, der lediglich den Begriff Fussball wiederholt einsetzt.

Eine andere erwähnenswerte Änderung von Brandy ist die Bewertung von inbound Links zur Seite aus der direkten thematischen Umgebung. Einfach gesagt: Wenn Deine Seite das Thema Fussball behandelt, würde es Sinn machen, dass einige mit dem Thema Fussball verbundene Seiten auf Dich linken. Dabei ist zu beachten, dass die Links von Seiten mit gleicher oder höherer Autorität stammen sollten. Das hilft Google, die Relevanz deiner Seite besser einzuschätzen.

Next Generation Algorithmus Updates

In der Folge werden wir Google Algorithmus Updates noch aus einer etwas anderen Perspektive betrachten, nämlich in Kombination mit Googles Funtionserweiterungen. Wir werden uns insbesondere mit der personalisierten Suche und dem allgemeinen Fortschritt befassen.Genauer werden wir uns mit Updates wie Vince und Caffeine beschäftigen.

Die Jagd nach mehr Relevanz: eine Chance für das SEO Marketing

Wenn wir die personalisierte Suche betrachten, kommen wir nicht umhin, uns mit der Frage der Privatsphäre zu beschäftigen. Was ist wichtiger: individuelle und auf mich zugeschnittene Suchresultate oder der Schutz meiner persönlichen Daten? Mach dir deine eigenen Gedanken zu diesem scheinbar unauflösbaren Widerspruch. Nach Brandy gab es eine Vielzahl von Google Algorithmus Updates, die scheinbar nur kleine Anpassungen bei den Ranking Algorithmen machten.

Der nächste Big Bang kam im Jahr 2005. Google hatte schon früher versucht, Suchresultate zu personalisieren. Allerdings war das noch nicht sehr erfolgreich. Das lag auch daran, dass die Nutzer ihr Profil und ihren Browser entsprechend konfigurieren mussten, um die Funktionen nutzen zu können. Im Juni 2005 war Google imstande, dies mit dem Rollout der Personalized Search zu überwinden. Damit wurden einmalige Suchresultate, basierend auf der Suchhistorie, der Sprache, des Standortes oder anderer proprietärer Informationen geliefert. Anfangs war die Wirkung noch nicht sehr gross, aber seit dieser Zeit hat sich der Algorithmus stark entwickelt und in einer Vielzahl von Applikationen Anwendung gefunden.

Chrome als Steigbügelhalter für die Personalisierte Suche

Eine Technik, die heute von Google für die personalisierte Suche verwendet wird, ist die Aufzeichnung der persönlichen Suchhistorie im Browser. Googles eigener Browser Chrome sammelt eine Vielzahl von Daten, die Nutzer identifizieren. Das heisst also, dass die Suchseite nicht alle Daten für eine personalisierte Suche sammelt. Je öfter Du eine bestimmte Seite besuchst, umso mehr geht Google davon aus, dass Du diese Seine als nützlich und relevant einstufst. Somit berücksichtigt Google bei Deinen künftigen Suchanfragen Deine Präferenzen und wird die von Dir oft besuchten Seiten höher ranken. Dies passiert sogar dann, wenn Du Dich aus Google ausloggst. Die personalisierte Suche nutzt dann gesetzte Cookies und angeklickte Links, um Dein Präferenzprofil zu erstellen.

Sitzen wir in einer Blase fest?

Dieses Vorgehen hat viele Fragen rund um die personalisierte Suche aufgeworfen. Einige glauben, dass dieses Verfahren die Möglichkeit einschränkt, neue Informationsquellen zu finden, da Google nur die Resultate anzeigt, die schon einmal als relevant eingeschätzt wurden. Die personalisierte Suche bietet auch ein grosses Unbehagenspotenzial hinsichtlich der Privatsphäre der Nutzer. Dies gilt umso mehr, seit Google nicht mehr nur eine Suchmaschine, sondern und vor allem auch eine Firma ist, die ihren Aktionären Gewinn ausschütten muss. Dieser Konflikt führt uns zu einer globalen Auseinandersetzung, bei dem sich pragmatische Nutzer und Verfechter der Privatsphäre einen erbitterten Kampf liefern.

Im August 2008 führte Google schließlich die Autovervollständigung Google Suggest ein. Damit wurde die Popularität sogenannter Longtail Keywords eingeläutet.

Vince liebt Brands

Der nächste Algorithmus Update war Vince. Er kam im Februar 2009. Vince favorisierte bei den Suchergebnissen die grossen Brands und stufte weniger bekannte Seiten in der Folge zurück. Ich klassifiziere Vince als einer der wenig bedeutenden Google Algorithmus Updates. Tatsache war, dass seine Auswirkung für kleinere Geschäfte gross, sogar sehr gross war. Wir wissen heute, dass Google Brands als Lösung und nicht als Problem einschätzt. Der damalige CEO von Google, Eric Schmidt, meinte 2006, dass das Internet zu einem Sumpf aus falschen Informationen verkomme. Er führte dann später aus, dass die grossen Marken die Lösung und nicht die Ursache dieses Problems seien. Marken sind das Mittel, diesen Sumpf trockenzulegen. Die Meinungen zu dieser Aussage waren gespalten. Viele in der SEO Marketing Industrie waren gegen die Bevorzugung von Marken, wogegen andere mit Eric Schmidt die Richtungsänderung begrüssten.

Im Mai 2010 mussten viele Seitenbetreiber einen spürbaren Traffic-Verlust verzeichnen. Der sogenannte May-Day-Update betraf vor allem Longtail-Suchanfragen von Seiten, die aus Google Sicht minderwertigen Content boten. Matt Cutts von Google äusserte sich im folgenden Video zu diesem Update:

Caffeine

Aus der Vielzahl der Google Algorithmus Updates ist Caffeine einer der wichtigsten. Auch dieser war nicht so sehr ein Google Algorithmus Update, als vielmehr eine Verbesserung von Googles Indexingsystem. Wie Du vielleicht errätst, war der Fokus bei dieser Änderung auf Geschwindigkeit gerichtet. Es handelte sich um einen gewichtigen Infrastruktur Update im Hause Google. Das neue System erlaubte es, dass Websites viel schneller indexiert und in den Suchresultaten dargestellt wurden. Dies ermöglichte es Google, Änderungen in Echtzeit zu berücksichtigen und die zur Zeit aktuellsten Resultate den Suchern anzuzeigen. In der Vergangenheit bestand ein grosser zeitlicher Unterschied zwischen der Änderung auf der Webseite und deren Berücksichtigung in den Suchergebnissen. Der Caffeine-Update hat es Google ausserdem erlaubt, auch sehr umfangreiche Seiten schneller in den Index zu integrieren. Somit verbesserte sich die Aktualität der angezeigten Resultate markant.

SEO Best Practice hinsichtlich Panda

Beim Panda Update kann man auch nicht von einem jener traditionellen Google Suchalgorithmus Updates sprechen, da Panda vielmehr ein Filter ist. Trotzdem hat dieser in der SEO Marketing Gemeinde für viel Aufsehen gesorgt. Ein Filter findet nicht einmalig Anwendung, sondern wird wiederholt, wenn auch nicht regelmässig angewendet. Der Suchmaschinengigant entwickelte diesen Update, um zu verhindern, dass Seiten mit minderwertigem Content eine gute Platzierung innerhalb der Suchergebnisse erlangen können.

Die Seiten, die Panda abstrafte, können bei Behebung der Unzulänglichkeiten ihre gute Platzierung wieder zurückerarbeiten. Auf der anderen Seite besteht die Gefahr, dass eine Seite, die Googles Contentanforderungen nicht gerecht wird und bei einem vorgängigen Rollout von Panda noch nicht erfasst wurde, bei einem wiederholten Panda Einsatz abgestraft wird. In jüngerer Vergangenheit haben wir beobachtet, dass Panda nicht mehr wie eine Flutwelle während einiger Tage das Internet bereinigt, sondern sehr viel langsamer über einige Monate hinweg seine Arbeit verrichtet.

Wenig Gehalt und mangelnder Mehrwert

Wir wissen über Panda, dass dieser Seiten mit wenig Inhalt und mangelndem Mehrwert angeht. Das heisst zum Beispiel:

  • Seiten haben wiederholt den gleichen Inhalt
  • es gibt Seiten ganz ohne Inhalt
  • Seiten, die ausschliesslich ein Formular beinhalten
  • Seiten, die lediglich Inhalt aus fremden Seiten darstellen

Um noch besser zu verstehen, was Google unter Seiten mit dünnem Inhalt versteht, kann man das folgende Video anschauen (in englischer Sprache):

Eine andere Funktion von Panda ist das Auffinden von sogenanntem «Duplicate Content», also Inhalt, der in gleicher oder ähnlicher Form auf der eigenen oder auf fremden Seiten besteht. Duplicate Content auf der eigenen Seite hat bewirkt, dass sich der doppelte Inhalt gegenseitig kannibalisiert. Somit bekommt Dein Content nicht die Aufmerksamkeit, die er verdient. Generell gilt: Wenn Du Content von einer anderen Seite verwendest, bekommt die Information den Kredit (Wert) zugeordnet, die zuerst publiziert wurde. Wenn Du also den Content kopiert hast, wird Panda Dich nicht gut ranken lassen und Dich in krassen Fällen abstrafen.

Ein weiterer Umstand, den Panda auf den Plan rufen könnte, sind exzessive Werbeeinblendungen auf einer Seite. Wenn Du eine Seite mit wenig Content und verhältnismässig viel Werbung hast, läufst Du Gefahr, dass Panda Dich erfasst. Google prüft mit Panda auch die Navigation Deiner Seite darauf, dass alle Inhalte über die Navigation erreichbar sind. Ihr tut also gut daran, darauf zu achten, dass die User Experience Eurer Seite gut ist.

Content ist King im SEO Marketing

Der ursprüngliche Panda Rollout (Einführung) überraschte viele Webmaster und SEO Marketing Profis. Wir wussten, dass der Trend von Google Algorithmus Updates in eine neue Richtung lief, und zwar in Richtung qualitativ besseren Contents, der mehr Nutzen stiften sollte. Dennoch traf der erste Rollout einige Seiten so hart, dass sie sich nie mehr richtig erholen konnten. Die Webseite pandalized.com zeigt auf, welche grossen Seiten betroffen sind. Einige Seiten, die Panda ins Visier genommen hat, waren Seiten, die automatisch Content aus dem Web generierten. Automatisch generierte Inhalte sind meist zusammenhangslos und schlecht geschrieben, damit für den Leser schlecht verständlich und meist nicht mit grossem Nutzen für die User verbunden.

Eine andere Contentform, die angegangen wird, ist Inhalt in sogenannten Squeeze-Pages. Solche Seiten kann man sich wie eine Landing Page vorstellen, bei der der ganze Content auf einer Seite ist und man lange scrollen muss, um die erhofften Informationen zu erhalten. Normalerweise wird der Inhalt noch von Formularen oder Call to Action Buttons unterbrochen. Manchmal findest Du Dich auf einer solchen Seite wieder, und es ist Dir dann fast unmöglich, die Seite zu verlassen, da derart viele Popups aufgehen.

Doorway Pages

Ein weiterer Fokus von Panda sind sogenannte Doorway Pages. Solche Seiten werden mehr für die Suchmaschine als für die Nutzer erstellt. Sie ranken in der Regel für ein spezifisches Thema gut. Wenn der Besucher auf die Seite gelangt und den Aufforderungen darauf folgt, wird er ungewollt auf eine andere Seite weitergeleitet. Damit Suchmaschinen solche Seiten richtig darstellen, wird oft ein sogenannter Meta-Refresh verwendet. Das heisst: Wenn Du auf der Seite gelandet bist, wirst Du auf eine andere Seite weitergeleitet, bevor Du den Back Button drücken konntest. Früher hatten Suchmaschinen Mühe, eine solche Weiterleitung zu erkennen. Heute ist das problemlos möglich. Google hat begonnen, diese Technik zu bestrafen. Später wurde von Webmastern Javascript eingesetzt, um Besucher auf eine neue Seite zu bringen. Aber auch diese Technik bekämpft Google.

Guestposts

Panda hat ausserdem qualitativ minderwertige Guestposts bestraft. Links, die damit gewonnen werden, helfen dem Ranking der verlinkten Seite. Diese Technik wurde als Gast-Posting bekannt. Immer, wenn solche Taktiken bekannt werden, können leider auch solche Posts bestraft werden, die dem Leser einen Mehrwert bringen.

Grundsätzlich ist es ratsam, seine Seite aus der Perspektive des Besuchers zu betrachten. Damit kann man kritisch beurteilen, ob die Seite Mehrwert liefert oder nicht. So lassen sich Abstrafungen durch Panda am einfachsten verhindern.

Penguin Update und Dos und Don’ts für das SEO Marketing

Penguin und seine Konsequenzen für das SEO Markeing

Mit der Einführung von Penguin führte Google die Tradition fort, gegen Spam-Webseiten vorzugehen. Wir werden uns dazu einige «Vergehen» ansehen, gegen die Google auch heute noch vorgeht. Dazu werden wir uns noch mit dem Begriff Negativ-SEO befassen. Wichtig ist, dass ihr nachher wisst, was zu beachten ist, um nicht unter Verdacht zu geraten, von solchen Praktiken Gebrauch zu machen.

Wie vorgängig erwähnt, sind Backlinks für SEO Marketing von grosser Bedeutung. Daran haben auch die vielen Google Algorithmus Updates nichts geändert. Dies hat aber zu einer Vielzahl von kreativen Wegen geführt, wie man sich solche Links beschaffen kann. Lange Zeit wurden diese Backlinks als heiliger Gral betrachtet und viele SEO Marketing Profis haben Backlinks ohne Rücksicht auf Verluste gesammelt. Natürlich sind Links von Seiten mit hoher Autorität auch heute noch sehr gut, aber damals haben viele Webmaster auch viele Backlinks von qualitativ minderwertigen oder sogar dubiosen Seiten gesammelt.

Hier ein Beispiel: Wenn ich in der Vergangenheit für das Keyword «Wirtschaftsanwalt Zürich» ranken wollte, musste ich lediglich viele ausgehende Links mit dem Ankertext «Wirtschaftsanwalt Zürich» setzen, und schon bekam ich eine Top-Platzierung. Google releaste Pinguin 2012. Damit sollten genau solche Praktiken innerhalb der SEO Marketing Industrie unterbunden werden. Genau wie Panda, ist Penguin ein Filter, was bedeutet, dass er periodisch von Ingenieuren ausgerollt wird. Auch Seiten, die Penguin bestraft, haben die Möglichkeit, sich zu rehabilitieren.

Penguin fokussierte sich auf Seiten, die ein hohesAaufkommen manipulativer Links aufweisen. Solche Praktiken sind z.B.

Linknetzwerke

Solche Netzwerke schaffen einen Verbund von Seiten, die gegenseitig aufeinander verlinken. Manchmal werden diese Seiten auf verschiedenen Servern gehostet und von verschiedenen Personen registriert in der Absicht, das Google Netzwerk zu umgehen.

Linkhandel beinhaltet einen normalen Linkaustausch à la «Hey, wenn Du auf mich linkst, dann werde ich umgekehrt auf Dich verlinken.» Untr Linkhandel fallen auch auch etwas schwieriger zu findende Links, wie zwischen Personen, die über mehrere Seiten verfügen mit genau dem einen Grund, unter dem Radar aufeinander verlinken zu können.

Spammige Kommentare

Kommentare auf einem fremden Blog zu setzen, nur um einen Link auf die eigene Seite zu generieren, ist auch heute noch eine beliebte Praxis. Oft sind solche Kommentare überfreundlich und lobend geschrieben. Der Autor schreibt oft, wie toll er das entsprechende Thema findet und dass er es kaum erwarten könne, neue Blogbeiträge dazu zu lesen. Nonchalant wird er dann auf seine eigene Seite mit einem Link verwiesen. Zu 99% handelt es sich dabei um automatisierte Kommentare, die von Bots abgesetzt werden, und zwar allein aus SEO Marketing Überlegungen. Leider veröffentlichen Blogbetreiber, die erst begonnen haben und noch entsprechend unerfahren sind, diese Kommentare in der Hoffnung, es handle sich um echte Wertschätzung.

Keyword Ankertext

Dies ist die Taktik, die wir schon in unserem Beispiel mit dem «Wirtschaftsanwalt Zürich» kurz angesprochen haben. Dabei werden eine Vielzahl von Links gesetzt, die als Ankertext genau den Begriff verwenden, wofür die Seite ranken soll. Google begann diese zu bestrafen, weil es sich dabei offensichtlich nicht um eine natürliche Verlinkung handelt.

Penguin bestraft auch Seiten, die gekaufte Links einsetzen. Solche Links können schwierig zu finden sein. Google schaut dabei auf einige Merkmale. Wenn sich ein Link in der Sidebar befindet und er ausserdem von Inseraten umgeben ist, handelt es sich vermutlich eine gekauften Link. Das gilt auch für Begriffe, von denen ein Link umgeben ist, so zum Beispiel «Sponsoren» oder «gesponsert» von oder «mit freundlicher Unterstützung». Das gleiche gilt für Bewertungen von Produkten oder Geschäften, weil davon ausgegangen werden kann, dass der Betreiber eine Gegenleistung dafür erhält.

Qualitativ schlechte Links

Der Filter sucht auch nach Links qualitativ minderwertiger Seiten. Das bedeutet: Die Ursprungsseite, von der ein Link kommt, hat keinerlei Relevanz für die eigenen Leser. Bei unserem «Wirtschaftsanwalt Zürich» wäre das zum Beispiel ein Link von einem Blumengeschäft. Google geht dann davon aus, dass es sich dabei um einen bezahlten oder manipulierten Link handelt.

In der Vergangenheit konnten potenziell betroffene Seitenbetreiber einer Bestrafung entgehen, indem Sie die Seite temporär auf eine andere URL weiterleiteten. Schon nach kurzer Zeit transferierte Google jedoch die Bestrafungen auf die neuen URLs. Während Google immer mehr frt dubiosen Techniken erkannte, hat sie diese mit jedem neuen angepassten Rollout ausgemerzt.

Linkbuilding, das nicht mehr funktioniert

Linkbuilding wird zusehends komplexer und riskanter. Einige Methoden, wie SEO Marketing Berater viele Backlinks sammeln konnten, werden heute von Google nicht mehr anerkannt und manchmal sogar abgestraft. Hier noch einige dieser Taktiken:

  • Links aus Verzeichnissen
  • Gratis Widgets mit ausgehenden Links, z.B. ein Hypothekarrechner o.ä.
  • Links aus gratis Templates
  • Profile mit Links resp. Signaturen

Aufgrund der Tatsache, dass es meist nur eine Frage der Zeit ist, bis Google die Praktiken erkennt, kann ich nur empfehlen, auf solche oder andere unlautere Methoden zu verzichten.

Aufgrund der vielen Kommentare und Anfragen über Foren hat Google das sogenannte Link Disavow Tool geschaffen. Dies ist heute Teil der Google Search Console (ehemals Webmastertool). Diese Funktion erlaubt es Nutzern, spammige Links zu verleugnen.

Im weiteren werden wir die Algorithmen Hummingbird, Pigeon und Mobile andiskutieren. Diese haben viel neue Funktionalität im Reich der Internetsuche eingeführt, darunter zum Beispiel die sogenannte „Conversational Search“, die es dem Nutzer ermöglichen soll, sich mit Google zu unterhalten, die lokale Suche und mobiles Suchen. Dabei schauen wir uns vor allem Fakten an, die die Welt der SEO Marketing Profis und der Seitenbetreiber tangieren.

Erkenntnisse im SEO Marketing aus Hummingbird

Hummingbird ist ein sogenannter Core Suchalgorithmus Update, was soviel heisst, dass dieser den existierenden Algorithmus oder Teile davon permanent ersetzt. Ungleich den Google Algorthmus Updates Pengiun und Panda war das Ziel bei Hummingbird, die Usablility und nicht unbedingt die organischen Suchergebnisse zu verbessern. Demzufolge blieb auch der Aufschrei der SEO Marketing Gemeinde aus, als dieser ausgerollt wurde. Das Hauptziel von Hummingbird war das «Conversational Search», wonach Nutzer ihre Suchanfrage in gesprochener Sprache aufgeben konnten. Google hatte schon früher «Conversational Search» eingeführt, aber viele der Antworten, die geliefert wurden, kamen von der Wissensdatenbank «Knowledge Graph».

Die Suchmaschine lernt zu sprechen

Hummingbird eröffnete die Sprachsuche auch für organische Seiten und erlaubte es, die Suchanfragen mehr wie natürlich gestellte Fragen zu formulieren. Google präsentierte damals ein bemerkenswertes Beispiel: «Wie alt ist Barack Obama?». Nachdem man die Antwort erhalten hatte, konnte man fragen: «Und wie alt ist er?». Google konnte dann den Bezug zur vorgängigen Frage erstellen und wusste, dass sich die Frage wiederum auf Obama bezog. Somit war ein weitgehend natürlicher Dialog möglich.

…und auch zu antworten

Hummingbird lieferte auch bessere Antworten in Bezug auf den Standort des Nutzers. Zum Beispiel kannte man erstmalig fragen: «Wie wird das Wetter morgen?», worauf man Antworten bezogen auf den eigenen Standort bekam. Damit diese Funktion effektive Antworten lieferte, musste ein Upgrade vom reinen Erkennen von Synonymen zu Erkennen von Kontext eingeführt werden. Dies verbesserte die semantische Suche, die den Sinn von kontextuellen Anfragen erkannte, um noch relevantere Ergebnisse zu liefern. Semantische Suche hat auch die Analyse verschiedener Faktoren vorausgesetzt. Diese waren

  • Kontext
  • Standort
  • Absicht
  • Wort Varaitionen
  • Synonyme und
  • Konzept Übereinstimmung (concept matching)

Wenn wir die Konsequenzen daraus weiterverfolgen, müssen wir uns überlegen, was das für die Content Entwicklung bedeutet. Somit ist klar, dass wir uns über die Gründe Gedanken machen müssen, weshalb Nutzer nach etwas suchen. Wenn du Dir im Klaren über die Absichten eines Nutzers bist, kannst Du ihn besser zu einer Aktion ermuntern. Google wird dies mit einer positiven Relevanzeinschätzung und mit einem besseren Ranking belohnen. Dies hilft Seiten zusätzlich für mehr Longtail Anfragen zu ranken, anstelle eines Rankings mit ein oder zwei Suchwortanfragen.

Lokales SEO Marketing mit Pigeon

Der Pigeon Update im Juli 2014 hatte zum Ziel, die Lokale Suche zu verbessern. Vor Pigeon haben lokale Verzeichnisse, wie Yelp oder Tripadvisor, nicht besonders gut rangiert. Mit Pigeon bekamen solche Ergebnisse viel mehr Visibilität. Auch betroffen waren lokale Suchanfragen in Google Maps, und zwar dadurch, dass die Entfernungsparameter in den Suchergebnissen ersichtlich wurden. Suchte man zum Beispiel nach einem Coffee Shop, konnte Google jetzt leicht die Entfernung und den Weg zum nächstgelegenen Coffee Shop weisen. Viele Pigeon Updates machen vor allem dann Sinn, wenn es darum geht, eine Seite für die Lokale Suche zu optimieren.

Mobile Update – wegweisend im SEO Marketing

Früh im Jahr 2015 gab Google eine Warnung an Webmaster und Seitenbetreiber hinsichtlich eines bevorstehenden Google Algorithmus Updates heraus. Dieses Update sollte Seiten besser gewichten, die mobilfreundlich programmiert sind. Grosse Bedenken entstanden im Vorfeld hinsichtlich der Frage, ob auch die Suchresultate der Desktopsuche davon betroffen sein würden. Google gab die Warnung sehr früh heraus, damit sich die Seitenbetreiber und die SEO Marketing Manager gut auf das Update vorbereiten konnten.

Mobilegeddon

Durch die frühe Ankündigung entstand viel Klatsch – wie so oft bei der Ansage von Google Algorithmus Updates. Die News schaukelten sich auf, und der Update bekam den Übernamen «Mobilegeddon» im Blick auf die befürchteten Auswirkungen. Viele Leute rechneten mit katastrophalen Auswirkungen für Seiten, die noch nicht über eine mobiloptimierte Darstellungsvariante verfügten.

So gravierend waren die Konsequenzen letztendlich doch nicht. Innerhalb der mobilen Suchresultate konnten Veränderungen festgestellt werden. Die meisten Resultate in den Desktop Suchergebnissen blieben jedoch stabil. Auch wenn die Auswirkungen nicht den Befürchtungen entsprachen, so zeigte sich damit doch die Wichtigkeit mobiltauglicher Darstellung. Darstellungen nicht optimierter Seiten auf Mobilgeräten in den Suchresultaten wurden unterbunden. Umgekehrt führen mobiloptimierte Darstellungen nicht nur zu einer besseren User Experience, sondern auch zu mehr Visibilität in den Suchergebnissen.

Nach dieser Übersicht über die wichtigsten Google Algorithmus Updates lässt sich etwas festhalten: Es ist einfach, Top-Resultate bei Google zu erreichen. Man sollte ehrlich versuchen, den Sitebesuchern Mehrwert und Nutzen zu stiften. Es gibt Shortcuts nur solange, bis der Suchmaschinenbetreiber dahintergekommen ist – und dann wirst Du umso weiter zurückgeworfen. Erzeuge gute, wertvolle, krative und nützliche Inhalte: Dafür wirst Du von Google belohnt werden, vermutlich sogar nachhaltig.

Privacy Policy Settings

Warning: Undefined array key "privacy_services" in /home/httpd/vhosts/online-marketing-freelancer.ch/httpdocs/wp-content/plugins/gdpr-tools/public/class-gdpr-tools-public.php on line 147
Warning: Undefined array key "privacy_services" in /home/httpd/vhosts/online-marketing-freelancer.ch/httpdocs/wp-content/plugins/gdpr-tools/public/class-gdpr-tools-public.php on line 117