Author: Mario-Schwertfeger

by Mario-Schwertfeger Mario-Schwertfeger Keine Kommentare

SMX 2024 Rabattcode: vergünstigte Tickets für die Search-Konferenz

Die SMX München gilt seit Jahren als die größte und wohl bekannteste Suchmarketing-Konferenz in Deutschland. Auch 2024 wird die SMX wie gewohnt in München-Riem stattfinden, dieses Jahr am 12. und 13. März 2024. Am 11. März finden wie üblich wieder vorab diverse Workshops statt.

Der Verkauf der Tickets erfolgt dabei wie immer über mehrere Zeitfenster, wobei der Preis von Zeitfenster zu Zeitfenster ansteigt. Früh sein lohnt sich also!

Aktuell findet die noch deutlich preisreduzierte Early-Bird-Phase statt.

SMX 2024 Rabattcode: “24MARIO”

Mit dem Rabattcode 24MARIO gibt es auf die aktuellen Preise noch einmal 15% Rabatt.

 

 

by Mario-Schwertfeger Mario-Schwertfeger Keine Kommentare

SMX München 2021 – dieses Jahr virtuell

Nachdem ich letztes Jahr noch die Chance hatte live auf der SMX München zu sein, freue ich mich auch in diesem Jahr natürlich wieder auf die größte deutsche Suchmarketing-Konferenz.

Mit einem großartigen Hygiene-Konzept wurde trotz aller Widrigkeiten auch letztes Jahr eine tolle Konferenz auf die Beine gestellt. Verständlicherweise war aber nur eine sehr begrenzte Zahl an Besuchern auf dem Messegelände in München, so dass ein wenig der Flair der letzten Jahre gefehlt hat.

SMX München 2020

 

 

 

 

 

 

 

Virtuelle SMX 2021

So ist es absolut nachvollziehbar, dass das Event dieses Jahr absolut virtuell stattfindet.

Und wenn man einen Blick in das Programm wirft, dann verspricht die SMX auch dieses Jahr wieder ein Highlight der Online-Marketing Events werden.

Generell wird es auch dieses Jahr wieder 5 parallel stattfindende Tracks geben (SEO, SEA, Analytics, Disrupted and Beyond, UX, Content,…).

Wer sich einen Überblick über das Programm der SMX verschaffen möchte, findet den Plan für beide Tage hier: https://smxmuenchen.de/programm/

 

Das Programm der SMX 2021

Besonders freue ich mich, dass dieses Jahr Rand Fishkin wieder einmal dabei ist, welcher letztes Jahr definitiv mit seinen sonst immer genialen Keynotes gefehlt hatte. Dieses hält er zwar nicht die Eröffnungs-Keynote, doch dürfte sein Vortrag zum Thema “Stop Relying on the Facebook/Google Duopoly for all your Marketing” sicherlich ein krönender Abschluss von Tag 1 werden.

Sehr gespannt bin ich auch auf den Vortrag von Dr. Marie Haynes zum Thema “Leveraging the Quality Rater Guidelines for a Content Audit”. Der einzige Nachteil der parallelen Tracks ist, dass ich in diesem Fall den Vortrag des Director of SEO von Shopify Kevin Indig und von Marcus Tandler zum Thema “Finding Patterns in Your Data 2.0” verpasse. Allerdings muss man hier dazu sagen, dass es dieses Jahr die Möglichkeit gibt, sich auch die Aufzeichnungen aller Vorträge zu buchen, so dass man im Nachgang auch noch Tracks ansehen kann, die man “live” verpasst hat – meines Erachtens eine sehr gute Neuerung. Wer kennt das nicht, wenn man aus einem Track heraus kommt und dann erfährt, dass man im parallelen Track den Vortrag des Jahres verpasst hat? 🙂

Eine weiteres Highlight an Tag 1 dürfte sicherlich auch der Vortrag “Technische Qualitätskontrolle für deine Website” von Bastian Grimm werden.

Großen Anklang dürfte an Tag 2 sicher wieder der Vortrag von John Mueller von Google finden. Strömen die Besucher doch bei jeder Konferenz scharrenweise in den Vortrag des Webmaster Trends Analyst, um hier die neuesten Insight zu erhalten.

Persönlich sehr gespannt bin ich an Tag 2 auch auf den Vortrag von Olaf Kopp zum Thema Semantische Suche. Wenn man mitbekommt, mit welcher Leidenschaft er Blog-Artikel zu diesem Thema aufbereitet, dann kann man sicher sein, dass auch das ein Vortrag mit sehr viel Mehrwert sein wird.

Den Abschluss der Konferenz bildet dieses Jahr der Vortrag von Wil Reynolds über datengetriebenes SEO – mit Sicherheit auch ein krönender Abschluss.

 

Ich jedenfalls freue mich schon extrem auf die SMX dieses Jahr – wenn auch nur virtuell.

Wer sich noch für die Konferenz anmelden möchte, der bekommt mit dem Code MARIOSMX ganze 15% Vergünstigung.

 

SMX Muenchen 2021

 

by Mario-Schwertfeger Mario-Schwertfeger Keine Kommentare

Was können wir von den Google Quality Rater Guidelines lernen?

[Hinweis: dieser Beitrag stammt ursprünglich aus 2014 und wurde von mir damals auf dem früheren Catbird Seat Blog veröffentlicht]

Seit 2008 existieren im Hause Google sogenannte Google Quality Rater Guidelines. Diese richten sich an externe Mitarbeiter, welche bei der Bewertung von Websites mitwirken. Laut Google werden anhand dieser Bewertungen keine Websites abgestraft, sondern nur Verfeinerungen am Algorithmus vorgenommen. Zumindest bestreitet dies Matt Cutts – während interessanterweise Bing bestätigt, dass sie ihr Quality Rating durchaus für manuelle Maßnahmen verwenden. Also nur schwer vorstellbar, dass Google diese Erkenntnisse für manuelle Maßnahmen überhaupt nicht heranziehen soll. Aber da darf sich gerne jeder seine eigene Meinung bilden.

Neben der öffentlichen Version gibt es natürlich auch eine „geleakte“ offizielle Version mit 137 Seiten.

Da nicht jeder Lust und Zeit haben wird, diese 137 Seiten durchzuarbeiten, möchte ich in diesem Beitrag eine kurze Zusammenfassung der wichtigsten Schlüsse liefern. Dabei geht es mir nicht darum, den exakten Ablauf der Bewertungen und jede einzelne Methode im Detail darzustellen, sondern vielmehr herauszuarbeiten, was Google unter Top-Qualität versteht.

Nützlichkeit und Qualität

Die meines Erachtens interessantesten Guidelines für diesen Zweck sind die Utility Rating Guidelines als auch die Page Quality Rating Guidelines.

Beim Utility Rating müssen die Rater die Nützlichkeit eines Suchergebnisses (sprich Result Block plus dazugehörige Landingpage) hinsichtlich einer bestimmten Suchanfrage unter Beachtung der Nutzerabsicht, der User-Location und weiterer Faktoren berücksichtigen. Das Utility-Rating ist dabei „query-dependent“, d.h. es muss die Nützlichkeit des Ergebnisses hinsichtlich der jeweiligen Suchanfrage bewertet werden.

„query-independent“ ist hingegen das Page Quality Rating. Hier wird zum einen die Qualität der Landingpage bewertet, aber auch die Gesamtqualität der Website. Eine insgesamt als mangelhaft bewertete Webseite kann somit auch einen negativen Einfluss auf die Qualität der Landingpage haben.

Bei der Qualitätsbeurteilung gibt es dabei 5 Stufen:

  1. Lowest Quality
  2. Low Quality
  3. Medium Quality
  4. High Quality
  5. Highest Quality

Gliederung des Contents aus Google-Sicht

Für die Qualität der zu bewertenden Landingpages spielt der Content eine wichtige Rolle. Google unterscheidet hierbei zwischen Main Content (MC), Supplementary Content (SC) und Advertisements (Ads). Der Main Content ist der Grund, weshalb die Seite überhaupt existiert und trägt maßgeblich dazu bei, dass die Seite ihren angedachten Zweck erfüllt. Der Supplementary Content hingegen trägt zu einer guten User Experience bei, verfolgt aber nicht direkt die Zweckerfüllung. Je nach Inhalt und Zweck der Seite versteht man unter Supplementary Content bspw. Kommentare, Bewertungen, verwandte Beiträge, weiterführende Links, ergänzende Videos oder ähnliche Features.

Purpose of the Page

Ein Begriff der immer wieder in den Quality Rater Guidelines auftaucht ist „Purpose of the Page“. Die Quality-Rater sollen sich vor den jeweiligen Bewertungen immer erst den Zweck einer Seite bewusst machen. Anhand dieses Zweckes den eine Seite erfüllen will, muss der Quality Rater die Messlatte bei der Beurteilung anlegen. Eine Seite, die bspw. nur über die aktuellen Busverbindungen in einem Ort informieren will, muss andere Standards erfüllen als eine Seite deren Zweck es ist, täglich mehrmals über das internationale Weltgeschehen zu berichten. Unabdingbar für qualitativ hochwertige Seiten ist dabei, dass die Seite überhaupt einen Zweck hat, dieser erkennbar ist und mit hochwertigem Content erfüllt wird. Für die Erstellung von hochwertigem Content bedarf es dabei laut Google einer hohen Menge mindestens einer der folgenden Punkte: Zeit, Anstrengung, Expertise und / oder Talent.

Gesamtbewertung der Website

Bei der Qualitätsbewertung der Seite gibt es zusätzlich zur Bewertung der Landingpage eine Bewertung der gesamten Website, um aus beidem die Gesamtqualität abzuleiten. Ein Gesamt-High-Rating darf dabei nur vergeben werden, wenn sowohl das Page-Level als auch das Website-Level ein hohes Rating rechtfertigen.

Zur Bewertung der Website werden dabei folgende Punkte geprüft:

  • Ist die Homepage der Website auffindbar?
  • Ist der Zweck der Startseite konsistent mit dem der Website? Inkonsistenz wird hierbei als ein Indiz für Lowest Quality angesehen und die Rater sollen diese Seiten genau untersuchen. Fehlt der Zweck, ist er nicht ersichtlich oder gar täuschend bzw. schädlich, sollten alle Seiten von den Ratern als Lowest Quality eingestuft werden.
  • Ist ersichtlich, wer für den Inhalt der Website und der Landingpage verantwortlich ist?
  • Hat die Seite ausreichend Kontaktinformationen?
  • Welche Reputation hat die Website? Auszeichnung, Nutzerbewertungen etc. Seiten dürfen dabei durchaus ein paar negative Bewertungen haben, da dies natürlich ist.
  • Wird die Homepage der Website aktualisiert/gepflegt? Entscheidend ist wieder der Zweck der Seite. Newsseiten müssen deutlich häufiger aktualisiert werden als Hobbyseiten über Pyramiden in Ägypten.

Sonderfall YMYL

Einen Sonderfall in den Google Quality Rater Guidelines stellen die sogenannten YMYL-Seiten dar. YMYL steht dabei für: your money or your life. Für diese Art von Seiten stellt die Seitenqualität eine besondere Bedeutung dar. YMYL-Seite sind Seiten, welchen einen Einfluss auf das aktuelle oder zukünftige Wohlbefinden (physisch, finanzielle Sicherheit, usw.) des Nutzers haben. YMYL-Pages existieren im Normalfall auf Websites, welche eine hohe Reputation haben und deren Inhalt mit sehr hoher Expertise erstellt wurde. Kontaktinformationen, Reputation und Aktualisierung der Website sind im Gesamtkontext zudem extrem wichtig. Zur Reputation tragen z.B. Verlinkungen von Verbänden und anderen Expertenseiten bei. Überdies dürfen YMYL-Seiten bei keinem Punkt der Website-Beurteilung durchfallen.

Zu den YMYL-Seiten zählen bspw.

  • Seiten, die für monetäre Transaktionen genutzt werden
  • Seiten, welche medizinische oder gesundheitsrelevante Informationen bereitstellen, die das physische Wohlbefinden des Nutzers beeinflussen können
  • Seiten, die Rat bieten zu Themen welche das Leben maßgeblich beeinflussen können, z.B. Seiten über Geldanlage, Hochzeit, Kindererziehung, Immobilienkauf, etc.

Bevor ein Rater eine Seite beurteilt, muss er sich immer die Frage stellen, ob die Landingpage eine YMYL-Seite ist oder nicht.

Landingpage-Betrachtung

Bei der Beurteilung der Landingpage wird die jeweilige Seite von den Ratern auf folgende Kriterien überprüft:

  • Zweck der Seite identifizieren
  • Main Content, Supplementary Content und Advertisements identifizieren, v.a. ist Main Content sofort und eindeutig zu erkennen?
  • Main Content bewerten mit Hinblick auf den Zweck der Seite
  • Menge des hilfreichen Main Content bestimmen
  • Nutzen des Supplementary Content bestimmen
  • Bewertung des Layouts/der Platznutzung auf der Seite. Wichtig ist dabei nicht, dass das Design „schön“ ist, sondern das Layout und Platzaufteilung zur Zweckerfüllung der Homepage beitragen.

Wie sollte man seine Seite nicht gestalten?

Auch aus Negativbeispielen kann man viel lernen. Zum Beispiel wie man seine Seite nicht gestalten sollte. Darum lohnt sich ein Blick darauf, wie Google Lowest Quality Pages definiert. So sollte man keine Seite ohne definierbaren oder sogar mit täuschendem / schädlichen Zweck erstellen. Ebenso negativ bewertet Google Seiten, die zwar einen Zweck haben, diesen aber überhaupt nicht erfüllen. Als Lowest Quality Pages werden auch Seiten bewertet, welche unzureichend Main Content bereitstellen oder bei denen dieser sogar komplett fehlt. Sobald eine Seite durch die Website Level Checks fällt, also bspw. keine Kontaktinfos enthält, führt dies zu einer Lowest-Bewertung. Insgesamt tragen Lowest Pages wenig zum Internet bei, in vielen Fällen ginge es den Nutzern ohne diese Seiten besser.

Und wie sieht es dann mit Ads aus?

Solange eine Seite hilfreichen Main Content (MC) hat, werden Ads nicht als Spam betrachtet. Anders verhält es sich bei Seiten, die primär dazu existieren, dass man auf Anzeigen klickt. Folgende Seiten mit Ads werden als Spam klassifiziert: kein MC, täuschender oder unnützer MC, kopierter MC und automatisch-generierter MC.

Highest Quality Pages

Highest Quality Pages erfüllen nach Google hingegen folgende Kriterien und sollten dahingehend bei der Erstellung und Konzeptionierung von Websites betrachtet werden:

  • Haben einen offensichtlichen Zweck und erfüllen diesen Zweck sehr gut bzw. stellen den Nutzer in höchstem Maße zufrieden.
  • Der Main Content (MC) wird von Experten in diesem Thema erstellt. Dabei muss der Autor namentlich nicht unbedingt bekannt sein. Falls die Website von sehr hoher Qualität ist, wird angenommen, dass die Artikel von Experten geschrieben werden.
  • Haben eine sehr zufriedenstellende Menge an MC
  • Das Layout macht den MC sofort sichtbar
  • Der Platz wird sehr gut genutzt.
  • Der Supplementary Content (SC) ist hilfreich und führt zu einer sehr zufriedenstellenden UX
  • Haben nahezu professionell erstellten Qualitäts-Content
  • Erscheinen häufig auf high Quality Websites, welche eine sehr positive Reputation in ihrem Themengebiet haben.

Zusammenfassung

Orientiert man sich an den Google Quality Rater Guidelines, dann ist grundlegend für jede Website wichtig, dass insbesondere die Homepage regelmäßig gepflegt wird, dass Kontaktinfos und der Verantwortliche der Website leicht auffindbar sind. Besonders wichtig ist dies bei Online-Shops. Dabei ist nicht entscheidend, ob die Kontaktperson eine Einzelperson oder ein Unternehmen ist. Die dürfte ein Indiz dafür sein, dass auch das Thema Authorship in Zukunft immer mehr an Bedeutung gewinnen wird. Speziell natürlich auch bei YMYL-Seiten, bei welchen Google jetzt schon verlangt, dass die Inhalte von Experten bzw. Authoritäten auf der Seite stammen.

Ebenso ist bei Gesamtbetrachtung die Reputation der Website von hoher Relevanz. Je nach Zweck der Seite sind dies bei Shops z.B. zahlreiche Kundenbewertungen, bei Medizinseiten Links und Erwähnungen von anderen anerkannten Medizinern, Forschungseinrichtungen und dergleichen. Dabei darf die Reputation nicht mit geschäftlichem Erfolg verwechselt werden. Eine Seite kann viel Traffic haben, aber dennoch eine schlechte Reputation.

Auf Page-Ebene ist es extrem wichtig, dass der Zweck der Seite unmittelbar ersichtlich ist, dass man sofort den Main Content erkennen kann und der Supplementary Content zu einer guten User Experience beiträgt. Der Main Content sollte dabei die Probleme des Users lösen und professionell erstellt worden sein. Je nach Seitentyp und – Zweck sieht dies natürlich unterschiedlich aus. Dennoch braucht man nie Sorge haben, dass der eigene Content vielleicht zu gut ist. Selbst wenn es in einer Nische aktuell nur schwache Seiten gibt, wird selbst die beste dieser schwachen Seiten als schwach eingestuft, da davon ausgegangen werden kann, dass es irgendwann auch in dieser Nische eine qualitativ sehr hochwertige Seite geben wird. Daraus kann man folgern, dass es immer von Vorteil sein wird, wenn man qualitativ hochwertigen Content erstellt, egal wie schwach das derzeitige Marktumfeld noch ist. Bezüglich Supplementary Content sollte man immer versuchen den eigentlichen Hauptcontent mit nützlichem Zusatzcontent wie z.B. Videos bei Kochrezepten, Kommentaren bei Blogartikeln, weiterführende Produktempfehlungen bei Online-Shops usw. zu ergänzen. Interessant ist zudem, dass Anzeigen für Google auch offiziell nicht pauschal schlecht sind, solange sie nicht der eigentliche Zweck der Seite sind oder den Main Content in den Hintergrund rücken. Einfach gesagt, sollte man sich auf hochwertigen, nutzenbringenden Content und eine gute User-Experience fokussieren.

Wie sieht es bei Euch aus? Wer hat sich auch mit den Google Quality Rater Guidelines beschäftigt? Welche Schlüsse zieht Ihr daraus?

Weiterführende Quellen:

by Mario-Schwertfeger Mario-Schwertfeger Keine Kommentare

Schema.org: dances with the hummingbird – Warum wir Google helfen sollten Inhalte zu verstehen

Things not strings“. Mit dieser Aussage macht Google klar, wo die Zukunft der Suchmaschine hingehen soll. Google will nicht nur einzelne Keywords bzw. Zeichenketten verstehen, sondern die Inhalte welche dahinter stehen interpretieren können. Google will auf dem Weg von der Such- zur Antwortmaschine Texte, Inhalte und Zusammenhänge verstehen können und dem User auch ohne die „exakt richtigen“ Keywords in der Suchanfrage das „ideale“ und auf seine Bedürfnisse / Suchintention exakt passende Suchergebnis ausspielen. Wenn man dem Vortrag von Marcus Tandler auf der SMX 2014 in München Glauben schenken darf, dann hat Google jetzt schon Grundschulniveau erreicht wenn es um das Lesen und vor allem das Verstehen von Texten geht. Dieses Verstehen von Texten und nicht nur „Abscannen“ von Zeichenfolgen wird vor allem auch unter dem Aspekt der zunehmenden Bedeutung von Voice Search und Conversational Search wichtiger. Um dieses Verstehen von Suchanfragen zu beschleunigen wirft Google zahlreiche Patente, wie z.B. das Related Entities-Patent zur Interpretation der Beziehungen zwischen Entitäten in den Ring. Zudem gibt es eben auch die Möglichkeiten zur Auszeichnung von Daten im Quelltext um Google dabei zu helfen, dass die Suchmaschine versteht was sich hinter einem Begriff genau verbirgt – ob es sich bspw. bei Catbird Seat um eine Person, ein Produkt oder ein Unternehmen handelt.

So ist der Begriff Schema.org sicherlich schon vielen SEOs und Online-Marketern begegnet. In der Praxis wird diese Auszeichnungssprache jedoch trotz langer Existenz oftmals noch stiefmütterlich behandelt und es ist noch einigen Leuten unklar, was sich denn genau hinter Schema.org verbirgt. Dieser Artikel soll Licht ins Dunkel bringen, aufzeigen was Schema.org ist, wie man es einsetzt, welche nützlichen Tools es in diesem Bereich gibt, warum es ausgerechnet jetzt wichtig wird für die Suchmaschinenoptimierung ist und warum zur Hölle wir Google damit beim Lesen lernen helfen. (Hinweis: Da dieser Artikel einen ausführlichen Leitfaden darstellen soll, ist er doch etwas umfangreicher. Schnapp dir also ein kühles Bier, mach es dir bequem und dann viel Spaß beim Lesen).

1.Was ist schema.org?

Was ist Schema.org? Schema.org ist ein Auszeichnungsvokabular (keine Sprache wie oftmals behauptet), das offiziell am 2. Juni 2011 von Google, Bing und Yahoo initiiert wurde. Mittlerweile unterstützt aber auch Yandex offiziell dieses Tagging-System. Mit Schema.org lassen sich kurz gesagt Inhalte, welche auf einer Website zu finden sind, strukturiert auszeichnen, so dass die Suchmaschinen leichter verstehen können, was sich hinter diesen Inhalten konkret verbirgt und wie sie mit anderen Inhalten im Web in Verbindung stehen. Auszeichnungen signalisieren z.B. Google, ob es sich bei einem bestimmten Objekt um ein Produkt, eine Person, ein Rezept etc. handelt. Im Grunde ist Schema.org vergleichbar mit dem Open Graph Protocol von Facebook, wobei Schema.org hinsichtlich Auszeichnungstypen deutlich ausführlicher und umfangreicher ist als das Open Graph Protocol. In der Praxis empfiehlt es sich sowohl Schema.org (hierauf fokussieren sich die großen Suchmaschinen) als auch das Open Graph Protocol (Fokus von Facebook) zu nutzen, um diesen Systemen die Interpretation der Webseiten-Inhalte zu erleichtern.

Zur Auszeichnung von Webinhalten gibt es übrigens verschiedene Möglichkeiten:

  • Microdata
  • Microformats
  • RDFa (Ressource Description Framework in Attributes)

Schema.org ist dabei ein Auszeichnungsvokabular bzw. –system innerhalb der Microdata-Sprache. Bevor es Schema.org gab, unterstützten die Suchmaschinen dabei alle 3 Markup-Sprachen für strukturierte Daten um bspw. Rich Snippets darzustellen. Seit der Schema.org-Initiative wird allerdings nur noch Microdata von Google unterstützt (Punkt 3: Why microdata? Why not RDFa or microformats?).

Nun haben wir uns angesehen, was Schema.org überhaupt ist und wissen, dass es eine Auszeichnungssprache ist, welche im Quellcode der Seite hinterlegt wird, somit für den Nutzer im eigentlichen Inhalt nicht sichtbar, aber für Google sehr einfach zu lesen ist und dabei hilft, Inhalte zu verstehen.

Jetzt stellt sich uns auch schon die nächste Frage…

2.Warum wird schema.org so wichtig?

Wenn man schnell vorgreifen will, kann man diese Frage knapp mit zwei bekannten Begriffen beantworten: „Rich Snippets“ und „Hummingbird“.

Zum einen werden ausgezeichnete Daten seit 2009 teils in den SERPs in Form von Rich Snippets dargestellt. Sucht man bspw. in Google nach „rezept kaiserschmarrn“, so findet man u.a. folgendes Ergebnis:

schema-org-rich-snippet-kaiserschmarrn

Dank strukturierter Daten sieht man hier bspw. dass dieses Gericht zur Zubereitung wohl 20Minuten benötigt und man beim Verzehr 596 kcal in sich hinein isst. Des Weiteren bekommen wir dank der Auszeichnung noch ein Bild eines leckeren Kaiserschmarrns angezeigt und sehen, dass dieses Rezept von 15 Usern im Schnitt eine Bewertung von 4,1 Sternen erhalten hat. Abgesehen davon, dass diese Infos durchaus interessant sein können, erhöhen sie doch die Klickattraktivität des Ergebnisses. Vor allem wenn unser Ergebnis als einziges in den SERPs mit einem Bild ausgezeichnet ist.

Ein gutes Beispiel findet man bei der Suche nach Krafttraining (welches nach dem Verzehr von Kaiserschmarrn durchaus sinnvoll sein kann):

Krafttraining

Selbst wenn die Seite von Dr. Gumpert in den SERPs nicht an erster Stelle rankt, sticht sie aus allen Ergebnissen doch am meisten heraus. Das Ergebnis dürfte in Folge dessen recht klickattraktiv sein und sich somit die CTR dieses Ergebnisses nach der Einbindung des Autorenbildes stark erhöhen. Auch wenn die Einbindung von Schema.org laut Matt Cutts keine direkten Auswirkungen auf das Ranking hat, macht die Auszeichnung der Daten also durchaus Sinn. Denn zumindest die positiven Nutzersignale in Form einer erhöhten CTR könnten als Indikator für hohe Qualität und Relevanz zu Steigerungen in den Rankings beitragen. Zudem kann eine Steigerung der CTR natürlich auch in einem Trafficzuwachs in der organischen Suche münden. Diverse Case Studies aus den USA belegen hier bei einigen Firmen einen Trafficzuwachs von bis zu 30% nach der Auszeichnung der Online-Inhalte mittels Markups.

Doch der viel wichtigere Grund warum die Einbindung von Schema.org Sinn macht ist die zunehmende Bedeutung der semantischen Suche und des semantischen Web. Google (und sicherlich auch andere Suchmaschinen) wollen wie bereits angesprochen, Texte nicht nur maschinell auslesen können sondern diese auch interpretieren und die Zusammenhänge zwischen verschiedenen Objekten und Entitäten im Web erkennen. Die ersten Indizien hierfür sind das Hummingbird-Update als auch die Einführung des Knowledge Graphes. Das Hummingbird-Update, welches im 3. Quartal 2013 ausgerollt wurde, ist einer der größten Algorithmus-Änderungen der letzten Jahre – wenn nicht sogar die größte. Hierbei handelt es sich um kein penalty-basiertes Update, sondern eben um eine Algorithmus-Änderung von der laut Google ca. 90% aller Suchanfragen betroffen sind. Dabei sind nicht die Rankings einzelner Keywords betroffen, sondern komplexe Suchanfragen sollen so exakt wie möglich beantwortet werden. Bei dieser Beantwortung direkt in den SERPs spielen natürlich auch die Rich Snippets wieder eine gewichtige Rolle, da dem User hier bereits in den Snippets Antworten geliefert werden ohne, dass er auf das eigentliche Suchergebnis klicken muss. Zum anderen hilft schema.org aber nicht nur bei der Erstellung von Rich Snippets, sondern durch viele weitere Auszeichnungsmöglichkeiten, welche aktuell noch nicht direkt in den Ergebnissen angezeigt werden schon bei der Strukturierung und Aufbereitung der Inhalte.

So kann Google die Suchintention des Users besser erfüllen, wenn Inhalte aus dem Index entsprechend aufbereitet sind und Google klar machen, dass diese Inhalte genau die Suchabsicht des Nutzers abdecken (Bsp. Wo gibt es in München den Biergarten mit den meisten Weißbiersorten?) Hierbei muss man bedenken, dass sich zum einen das Suchverhalten dahingehend ändert, dass Suchanfragen immer länger werden und teils auch ganze Fragen in den Suchschlitz gehackt werden. Und zum anderen nehmen natürlich gerade im Mobile-Bereich gesprochene Suchanfragen zu. Übrigens nutzt auch Siri von Apple Schema.org. Viele Köpfe im Online-Marketing fürchten hier natürlich den Umstand, dass Google sich immer mehr zu einer Antwortmaschine a la WolframAlpha entwickeln wird, welche dem Nutzer sofort die passende Antwort ausgibt und ihm das durchklicken der Ergebnisse erspart.

Spätestens wenn Schema.org doch als Ranking-Faktor bekannt gegeben wird, werden sich auch die letzten SEOs darauf stürzen und ihre Inhalte mit Schema.org auszeichnen. Warum sollte man Google also nicht gleich dabei helfen das „Lesen“ (bzw. besser gesagt das Verstehen) von Inhalten zu erlernen? Schließlich ist es seit Anbeginn das erklärte Ziel von Google die besten Ergebnisse auszuliefern. Warum sollte Google es also nicht belohnen, wenn man seine Seite mit Schema.org aufwertet (vorausgesetzt die Seite bietet gute Inhalte)? Auch hat sich in der Vergangenheit schon öfter gezeigt, dass es möglich war Google-konform zu arbeiten, auch wenn es auf den ersten Blick keinen direkten Vorteil für den Webmaster oder den SEO bringt, sondern man in erster Linie erst einmal „nur“ Google die Arbeit erleichtert. Dies ist oftmals in positive Veränderungen beim Ranking gemündet. Beispiele hierfür sind das Bereitstellen einer XML-Sitemap oder das Einbinden von Canonicals.

3.Wie sieht es aktuell mit der schema.org-Verbreitung aus?

Betrachtet man Schema.org in Google Trends , lässt sich schnelle erkennen, dass das Thema zunehmend ins Bewusstsein der Online-Marketer vordringt (Der Peak in 2011 geht natürlich mit dem Launch und der Erklärung der drei Suchmaschinen einher).

Google-Trends-schema-org

Sieht man sich das regionale Interesse in Google Trends an, fällt auf, dass sich das Interesse momentan hauptsächlich noch auf USA, UK und Deutschland beschränkt.

schema-org-google-regionales-interesse

Searchmetrics hat zu diesem Thema 2014 eine Studie herausgebracht, in welcher unter anderem die Nutzung von Schema.org und die Verteilung in den SERPs untersucht wurden. So nutzen in Deutschland nur ca. 0,41% aller URLs aus dem Searchmetrics Pool aktuell Schema.org. Searchmetrics stellte – wenig verwunderlich – fest, dass bei großen Domains die Nutzung von Schema.org schon häufiger vorkommt als bei kleinen Domains. Bei den Webmastern und Seitenbetreibern ist schema.org also noch nicht wirklich durchgedrungen. Wie sieht es aber in den SERPs aus? Hier ergibt sich Searchmetrics zufolge ein anderes Bild, nach dem nur noch ca. 34% der Keywords kein einziges Rich Snippet in den dazugehörigen SERPs anzeigen. Zusammenfassend lässt sich anhand der Searchmetrics-Studie sagen, dass schema.org von Webmastern aktuell noch in geringem, aber zunehmendem Maße genutzt wird und auf der anderen Seite die Nutzung von schema.org seitens Google in den SERPs zunimmt. Auch weist Searchmetrics korrekterweise daraufhin, dass laut ihrer Untersuchung Seiten mit schema.org-Integration zwar durchschnittlich besser ranken, doch hierbei nicht unbedingt ein kausaler Zusammenhang bestehen muss. Schlecht rankende Seiten sind eben oftmals wenig aktualisiert und häufig auch technisch nicht mehr auf dem neuesten Stand, wohingegen aktuelle Webseiten oftmals nicht nur inhaltlich auf dem neuesten Stand sind sondern auch technisch. Und hierzu gehört eben die Einbindung von schema.org.

Anhand dieser Erkenntnisse und der anfangs aufgeführten Argumente für die Einbindung von schema.org, lässt sich also festhalten, dass schema.org in Zukunft wohl einen immer wichtigeren Faktor im Google Algorithmus und in den SERPs spielen kann und man angesichts der bisherigen Einbindungen durchaus noch die Chance hat, hier als Pionier voranzuschreiten.

4.Was sind die wichtigsten Markups und wie baue ich sie ein?

Zu den wichtigsten Markups gehören zweifelsohne die Auszeichnungen, welche laut Google auch in den Rich Snippets dargestellt werden. Hierzu zählen folgende Rich Snippet Typen:

  • Breadcrumbs
  • Events
  • Musik
  • Organisationen
  • Personen
  • Produkte
  • Rezepte
  • Review-Bewertungen
  • Software-Anwendungen
  • Videos

Schema.org hilft Personen (bspw. dabei) die Person als solche zu kennzeichnen und indes mit Merkmalen wie Geschlecht oder dem Geburtsdatum der Person zu verknüpfen. So merkt Google bspw. nicht nur, dass die Zeichenfolge „Arnold Schwarzenegger“ eine Person darstellen soll, sondern dass diese Entität auch noch männlich ist, am 30. Juli 1947 in Österreich geboren wurde mit Maria Shriver verheiratet war und als Job mal den Posten des Gouverneurs von Kalifornien inne hatte. Dabei sollte aber noch einmal betont werden, dass Google bei weitem nicht alle Auszeichnungen in den SERPs anzeigt und man bspw. in den Google Webmaster Tools mithilfe des Google Data Highlighters auch nur einige wenige Elementtypen auszeichnen kann.

Die schier endlose Anzahl an Schema-Typen welche man mittels schema.org auszeichnen kann und ihre Hierarchien findet sich hier: http://schema.org/docs/full.html

Hier macht es durchaus Sinn sich einmal durch die Typen durchzuarbeiten und die für die eigene Seite respektive das eigene Geschäft wichtigsten Schemas herauszupicken. Sieht man sich dann z.B. den Typ „Movie“ an, gibt es hierfür wieder eine eigene Seite mit welchen Properties (Eigenschaften) sich der Typ „Movie“ ausstatten lässt, wie „actor“, „director“, „producer“ uvm.

Wollen wir uns nun am Beispiel meines Lieblingsfilmes Pulp Fiction einmal anschauen, wie man für dieses Beispiel eine Auszeichnung im Quellcode vornimmt.

Grundsätzlich sind die Schemas wie bereits angesprochen in Typen (oft auch als Scopes bezeichnet) und dazugehörige Properties unterteilt. Die Schema-Typen sind dabei in Hierarchien aufgeteilt.

In unserem Beispiel – wir wollen einen Kinofilm auszeichnen – wäre die Hierarchie wie folgt:

Thing > Creative Work > Movie

Sehen wir uns den Type Movie nun an und wir finden die passenden Properties: actor, director, duration, musciBy, producer, productionCompany, trailer.

schema-org-movie-properties

Hier kommt nun der Clou: Sieht man sich das Beispiel Actor an, fällt auf, dass Actor nicht nur eine Property von Movie ist, sondern auch von Person. Hierdurch werden Verbindungen zwischen verschiedenen Typen geschaffen. Hinterlegt man bei Pulp Fiction als Property actor bspw. John Travolta versteht Google, dass John Travolta ein Schauspieler im Film Pulp Fiction ist. Doch wer oder was ist John Travolta. Dieses Rätsel löst sich für Google dadurch, dass John Travolta ja auch noch als Typ Person ausgezeichnet wird. Für den Typ Person gibt es dabei noch deutlich mehr Properties wie zum Beispiel das Geburtsdatum (Property: birthDate). Wenn man also John Travolta entsprechend auszeichnet, versteht Google auch, dass es sich um eine Person handelt welche am 18. Februar 1954 geboren wurde. Man sieht also wo die Reise hingeht…

Pulp FictionHätte man im Google Suchschlitz früher eingegeben „Wie heißt der Schauspieler aus Pulp Fiction der am 18. Februar 1954 geboren wurde?“, hätte man Ergebnisseiten ausgespielt bekommen, welche in etwa diese Frage auf ihrer Seite formuliert hätten. In Zukunft werden bei derartigen Suchanfragen aber Seiten ausgespielt, welche diese Fragen beantworten bzw. bei derart banalen Fragen die Antwort direkt in den Google Ergebnissen ausgespielt.

Nun aber zurück zum praktischen Teil. Dem Einbauen von schema.org für Pulp Fiction in den Quellcode.

Zwei wichtige Elemente sind hierbei <div>, ein sogenanntes Block-Element welches Bereiche des HTML-Codes gruppiert bzw. definiert und <span>, ein Inline-Element welches innerhalb eines Bereiches bspw. einen bestimmten Teil des Textes formatiert (z.B. Fettdruck).

Innerhalb unsers <div>s finden wir nun Infos zum Film als HTML:

schema-org-pulp-fiction-code-roh

Nun zeichnen wir Pulp Fiction als Movie aus. Hierzu müssen wir festlegen, dass wir das Objekt auszeichnen wollen, welches sich in unserem <div> befindet. Dazu ergänzen wir hier das Attribut itemscope: <div itemscope>

Anschließend legen wir fest um welchen Schema-Typen es sich handelt. Dies geschieht dadurch, indem wir als itemtype die entsprechende URL festlegen: <div itemscope itemtype=http://schema.org/Movie>

Anschließend können wir die Eigenschaften (Properties) des Movies festlegen, also Name und Schauspieler. Hierzu müssen wir die entsprechenden Eigenschaften mit einem itemprop-Attribut versehen um Google und den anderen Suchmaschinen zu signalisieren, welches die Eigenschaften in unserem Dokument sind. Da die Schauspielernamen in unserem Fall kein eigenes Element sind, sondern im Fließtext „Schauspieler: John Travolta“ bzw. „Schauspieler: Uma Thurman“ stehen müssen wir das itemprop-Attribut vor den Schauspielernamen noch um ein <span> ergänzen, um zu speziell diesen Teil im Fließtext auszuzeichnen. Damit hätten wir es auch schon geschafft.

schema-org-pulp-fiction-code-strukturierte-daten

Die Profi-Coder mögen es mir verzeihen, dass ich ein derart banales Beispiel genommen habe – aber zum einen bin ich selbst absolut kein Profi-Coder und zum anderen geht es eher darum das System hinter schema.org zu verstehen und schema.org im Code erkennen zu können.

Keine Angst, natürlich gibt es auch für diese Arbeiten schon zahlreiche schema.org Generatoren und Tester wie z.B. Googles Data Highlighter und das Rich Snippet Testing Tool in den Webmaster Tools oder den Schema Creator bzw. das entsprechende WordPress-Plugin von Raven Tools. Eine ausführliche Vorstellung aller Tools würde aber den Rahmen des Artikels deutlich sprengen… vielleicht schreiben wir hierzu ja mal einen eigenen Artikel.

Ein weiteres praktisches Hilfsmittel für die „eigenhändige“ Implementierung von schema.org im HTML-Code liefert das Cheat-Sheet von Ann Smarty.

Übrigens: Wer nun auf die Idee kommen sollte, dass er hier ja z.B. Ratings manipulieren könnte sei vorgewarnt. Google hat hier bereits ein eigenes Tool eingerichtet mit welchem man Spam in diesem Bereich melden kann und offiziell gab es auch schon die erste Abstrafung bzgl. Rich Snippet Spam.

5.Fazit

Auch wenn es einige Kritiker geben mag, welche noch gegen schema.org wettern, so bin ich der Meinung dass es in Zukunft doch sehr sinnvoll sein wird und Vorteile bringen wird, wenn man seine Inhalte mit schema.org auszeichnet. Somit hilft man nicht nur Google beim Lesen lernen sondern dürfte wohl bald auch einen Vorteil in der Auffindbarkeit gegenüber Seiten ohne Auszeichnung haben.

Man darf dabei nicht nur an Google denken. Wie Karl Kratz regelmäßig proklamiert wird Google vielleicht nicht ewig die einzige Suchmaschine bzw. das einzige Suchmedium sein. Man denke dabei nur an die Themen Voice Search und Conversational Search. Vor diesem Hintergrund kann es sicherlich nicht schaden, seine Daten für die verschiedenen Maschinen / Medien so perfekt wie möglich aufzubereiten. Wer hier fleißig ist, wird mit Sicherheit belohnt. Und wie die Searchmetrics-Studie zeigt, hat man aktuell noch die Möglichkeit, hier zu den Pionieren und Vorreitern zu gehören. Und diese bekommen ja bekanntlich meist das größte Stück vom Kuchen ab.

Wer also eine neue Seite startet bzw. seine bestehende Seite relauncht sollte die Auszeichnung der Inhalte mittels schema.org auf jeden Fall in Erwägung ziehen. Alle anderen sollten sich die wichtigsten Auszeichnungselemente für ihr Business heraussuchen und Schritt für Schritt mit der Auszeichnung beginnen, um für die Zukunft der Suche gewappnet zu sein.

 

Bilderquelle “Pulp Fiction”:©Flickr – Abraxas3d / CC BY-NC 2.0

[HINWEIS: diesen Blogbeitrag hatte ich ursprünglich auf dem früheren Catbird Seat Blog publiziert]

by Mario-Schwertfeger Mario-Schwertfeger Keine Kommentare

POST, GET & PRG-Pattern für Online-Shops

Die Nützlichkeit von POST- und GET-Request und des PRG-Patterns für die Navigation in Online-Shops aus SEO-Sicht

HTTP ist das Übertragungsprotokoll, mit welchem Web-Browser und Web-Server ihre Daten austauschen. Hierfür gibt es HTTP-Anfragemethoden. Zwei HTTP-Anfragemethoden sind im Hinblick der Übertragung von Formulardaten von Bedeutung: GET und POST!

Doch worin unterscheiden sich die beiden Methoden und was ist sinnvoll für die Anwendung bei Online-Shops? Welche Methode gewählt wird, liegt in den Händen des Entwicklers. Deswegen sollten einige Hintergrundinformationen zu den beiden Methoden vorhanden sein. Und was ist eigentlich das POST-REDIRECT-GET -Pattern? Werfen wir mal einen Blick darauf:

Faceted Navigation bei Online-Shops

Gerade Online-Shops arbeiten im Normalfall mit einer Faceted Navigation (auch bekannt als Filter-Navigation). Hierbei kann eine große Auswahl an Datenmengen (z.B. Produkte in einem Online-Shop) anhand verschiedener Kriterien auf eine oftmals übersichtlichere Anzahl an Daten beschränkt werden.

Ein Beispiel hierfür findet sich in nahezu jedem x-beliebigen Shop. Sehen wir uns das Ganze mal im Herren-Uhrenshop von otto.de an:

filternavigation-bei-otto

 

 

 

 

 

 

 

Hier kann ich die Auswahl an Uhren anhand verschiedener Filter wie Farbe, Marke oder auch Armband verfeinern, um schlussendlich eine für mich relevante Auswahl an Uhren zu erhalten. Das Problem bei dieser Art der Navigation dürfte schnell deutlich werden. Zum einen kann hierdurch zahlreicher (Near) Duplicate Content entstehen, zum anderen werden durch die unendliche Anzahl an möglichen URLs, welche durch die Filternutzung entstehen, in extremen Maße Crawl-Ressourcen verschwendet. Allgemein gibt es für diese beiden Probleme zahlreiche Ansätze wie bspw. die Maskierung der Links via JavaScript, die Verwendung eines # (Hash) in der URL, die Parametrisierung von URLs und der Einsatz von Canonical-Tags.

Bezüglich dem Einsatz von JavaScript sei angemerkt, dass diese Methode unter Umständen nur noch bedingt funktioniert, da Google JavaScript auslesen will und ausliest, auch wenn John Mueller in einem Hangout gestand, dass dies aktuell sehr schwierig sei und noch nicht wirklich optimal funktioniert [ab Minute 50:00] und man indexrelevante URLs daher auch in einer XML-Sitemap anbieten soll, falls diese URLs an anderer Stelle nicht über einen HTML-Link erreichbar sind.

Auch in der Praxis ist unsere Beobachtung, dass das Maskieren der Navigation mittels JavaScript durchaus noch effektiv ist. Sollte Google aber irgendwann tatsächlich auch mittels JavaScript maskierte Filter auslesen und den Links dort folgen können, dann ergibt sich natürlich wieder das Problem, dass gerade bei großen Shops eine schier unendliche Anzahl an zusätzlichen URLs gecrawlt wird. Mit der Empfehlung JS aufgrund von Mobile-Optimierung zukünftig nicht mehr in der robots.txt auszusperren steigt diese „Gefahr“ natürlich weiter an. Ebenso beweist Google ja auch in den Webmaster Tools, dass sie Seiten schon komplett rendern können.

Ein interessanter Ansatz diesen Problemen zu begegnen ist dabei der Einsatz von POST- und GET-Anfragen, welches die beiden gebräuchlichsten http Request-Methoden sind.

Merkmale und Einsatzmöglichkeiten der GET-Methode

Die GET-Anfrage ist eine HTTP-Request-Methode, mit deren Hilfe Daten vom Server angefordert werden können. Dabei entstehen dynamische Parameter-URLs, die wie folgt aussehen können:

  • http://www.zalando.de/herrenbekleidung-shirts/?order=price

Gehen wir also einmal auf Zalando, um uns die Entstehung dieser URL anzusehen. Befindet man sich im Bereich Herrenbekleidung und betrachtet dort die Shirts, dann gibt es dort eine „Sortieren nach:“-Funktion.

 

 

 

 

Wählt man hier Sortieren nach: Höchster Preis, dann werden diese Daten vom Server per GET-Request angefordert. Im Quellcode sieht man das an folgendem Ausschnitt:

Quellcode GET Request

Hierdurch werden die T-Shirts nun nach dem höchsten Preis sortiert und es entsteht eine neue parametrisierte URL (siehe oben). Durch die Erzeugung einer neuen URL bei GET-Formularen entsteht in diesem Fall natürlich (Near) Duplicate Content. Zalando löst das in diesem Fall dadurch, dass sie ein Canonical auf die ursprüngliche „Herrenbekleidung Shirts“ setzen und zudem die Seite auf noindex stellen.

Eine weitere besondere Eigenschaft, welche das GET-Formular gegenüber dem POST-Formular hat, ist der Umstand, dass Google Formulare, welche mittels GET-Methode übermittelt werden crawlen kann. Im Gegensatz zum POST-Formular, welchem Google nicht folgen kann und bei welchem keine neuen URLs erzeugt werden, wird daher in diesem Fall natürlich dennoch Crawl-Budget verbraucht.

Sehen wir uns also im nächsten Schritt einmal das POST-Parameter an.

Merkmale und Einsatzmöglichkeiten der POST-Methode

Im Unterschied zur GET-Methode, welche Daten anfragt, übermittelt die POST-Methode Daten an den Server. Wie bereits erwähnt kann Google den POST-Formularen in den meisten Fällen nicht folgen (seit 2011 führt der Googlebot teilweise POST Requests durch). Dadurch werden also schon einmal Crawl-Ressourcen geschont, wenn man POST bei diesen Filtern oder Sortierfunktionen einsetzt, welchen Google nicht folgen soll. Zudem werden durch die POST-Methode keine neuen URLs erzeugt. Es besteht also keine Gefahr hinsichtlich der Entstehung von Duplicate Content.

Klingt prinzipiell gut, hat aber dennoch einen Haken: Hat der User sich ein bestimmtes Ergebnis an Produkten zusammengefiltert und möchte dies evtl. seinen Freunden mailen oder auf diversen Plattformen sharen, dann ist das natürlich nicht möglich, da es für dieses Filterergebnis keine individuelle URL gibt.

Ebenso haben Shop-Betreiber das Problem, dass sie für Sonderaktionen (bei welchen vorher gewisse Produkte gefiltert wurden) keine Möglichkeit haben für diese gefilterte Seite eine URL bspw. per Newsletter zu verschicken.

Eine Möglichkeit wäre hier natürlich zum Beispiel das Erstellen einer eigenen Landingpage mit individueller URL für solche Aktionen. Doch wollen wir uns mal ansehen, was man in diesem Fall mit POST und GET machen kann.

Das Post-Redirect-Get Pattern (PRG Pattern)

Eine gute Methode, um oben benannte Probleme zu vermeiden, bietet das sogenannte Post-Redirect-Get Pattern, auch bekannt als PRG Pattern.

Hierbei wird durch einen Klick auf den Filter ein POST-Request an den Server geschickt. Diesem kann Google wie erwähnt im den meisten Fällen nicht folgen. Das Problem mit den verschwendeten Crawl-Ressourcen wird hierdurch also umgangen. In der Datenbank wird diese Anfrage nun verarbeitet.

Anstatt dass der Server aber nun sofort die Ergebnisseite ausspielt, löst er einfach gesagt einen Redirect aus und leitet auf die Ergebnisseite zurück. Hierdurch wird das POST zu einem GET. In Folge dessen hat unsere Ergebnisseite nun auch eine eigene URL, welche auch in E-Mail-Newslettern usw. genutzt werden kann.

Insgesamt verhindert das PRG-Pattern also das Crawling durch Google und schont somit gerade bei großen Filternavigationen wertvolles Crawl-Budget, erzeugt aber dennoch individuelle URLs, welche sich teilen und verbreiten lassen. Daher kann das PRG Pattern bei Faceted Navigation also durchaus geeignet sein. Ein kritischer Faktor ist natürlich immer die technische Umsetzbarkeit im CMS und im Unternehmen. Als Sicherheitsmechanismus sollte man das Ganze aber noch mit noindex oder dem Canonical Tag versehen.

zusammenfassung-prg-pattern

 

 

 

 

 

 

 

Ich hoffe, ich konnte hiermit einen simplen Überblick über die SEO-Aspekte von POST, GET & PRG-Pattern geben. Wer technisch noch mehr ins Detail gehen möchte, dem empfehle ich unten aufgeführte Quellen.

Was ist eure Meinung und eure Erfahrung zum PRG Pattern? Habt ihr es schon irgendwo im Einsatz? Wie handelt Ihr die Schonung des Crawl-Budgets bei facetierter Navigation?

Anbei noch ein paar weitere, nützliche Quellen zum Thema:

 

[Hinweis: diesen Beitrag hatte ich ursprünglich im ehemaligen Catbird Seat Blog veröffentlicht]

by Mario-Schwertfeger Mario-Schwertfeger Keine Kommentare

SMX 2020 Vorschau + 15% Rabattcode

Das Jahr 2020 hat gerade bekommen und traditionell steht damit auch die SMX München im Grunde schon wieder vor der Tür, welche dieses Jahr vom 18. bis 19. März im ICM München stattfindet. Auch dieses Jahr werde ich die SMX natürlich wieder besuchen und wieder einmal Blogpartner sein.

 

Tipp: Bis Freitag den 31.01.2020 gibt es hierbei noch die Early Bird-Tickets https://smxmuenchen.de/anmelden/

Und mit dem Rabattcode MARIOSMX gibt es auf die Early Bird-Tickets, aber auch noch danach, 15% Rabatt!

 

Das Programm der SMX 2020

Rand Fishkin
SMX Munich 2019
Munich, Germany
March 2, 2019
©Rising Media/Kurt Krieger/Hubert Bösl

Leider gibt es dieses Jahr keine der legendären Keynotes von Rand Fishkin. Dennoch bietet auch das diesjährige Programm wieder einige Highlights.

Generell werden die Themen dieses Jahr in folgende Slots unterteilt:

  • SEO und SEA Basics
  • SEO
  • SEA
  • Analytics & Data
  • Search Beyond Google (hier geht es um alternative Suchsysteme wie Youtube, Amazon & Co.)
  • SMX für E-Commerce

 

Auf solchen Konferenzen mache ich mir meist vorab einen Plan, welche Vorträge zumindest für mich in die engere Auswahl fallen. Teilweise wird dann aber auch direkt vor den Vorträgen noch spontan entschieden, in welchen Vortrag ich mich setze. Aber auch für die SMX 2020 habe ich hier schon ein paar Vorträge, welche ich mir auf keinen Fall entgehen lassen möchte.

Hier ein kurzer Überblick, auf welche ich mich bei der diesjährigen SMX schon besonders freue:

  • Keynote von Michelle Broderick: Von Brain Power statt Kaufkraft, Storytelling, das neu überdacht wird und warum wir keine Angst haben sollten anders zu sein
  • Markus Hövener: The Art of Crawling: Der optimale Crawl-Prozess von Anfang bis Ende
  • Dana DiTomaso: Personas und User-Centered Design
  • Fraggles, Mobile-First Indexing & wie sich SEO dadurch verändern wird
  • Mike Blumenthal – der “Local SEO Gott” aus den USA: Das richtige Google-Rezept für Local Businesses
  • Dr. Marie Haynes: Content Audit auf Basis der Quality Rater Guidelines
  • Nachdem ich auf der SEOkomm 2019 selbst einen Vortrag zum Thema Google Discover halten durfte – Valentin Pletzer: Google Discover Optimierung

Das komplette Programm der SMX 2020 findet ihr hier: https://smxmuenchen.de/programm/

Weitere Events der SMX 2020

Natürlich wird es auch dieses Jahr nicht nur das klassische SMX Tagesporgramm geben. Auch dieses Jahr gibt es wieder einige spannende Zusatz- bzw. Abendveranstaltungen:

 

Videos und Präsentationen der SMX 2019

Wer es gar nicht mehr abwarten kann bis zur nächsten SMX, der findet hier schon einmal eine Auswahl einiger der besten Vorträge (Video + Slides) der SMX 2019.

Videos

Viel Spaß beim Lesen und Ansehen! Bis zur SMX 2020!

by Mario-Schwertfeger Mario-Schwertfeger Keine Kommentare

Chiang Mai SEO Conference 2019 Recap

Nachdem ich die letzten Jahre regelmäßig die meisten großen SEO-Konferenzen im deutschsprachigen Raum besucht habe, war mein Plan dieses Jahr mal eine SEO Konferenz im weiter entfernten Ausland zu besuchen.

Meine Wahl fiel dabei auf die Chiang Mai SEO Konferenz in Thailand. Nachdem ich den Veranstalter Matt Diggity bereits auf der LRTcon in Wien bei einem Vortrag gesehen habe, interessierte mich einfach mal, welche Speaker und Themen auf seiner Konferenz in Chiang Mai auf der Agenda stehen. Beziehungsweise: wie wird auf der anderen Seite der Welt SEO gemacht?

Also machte ich mich über Singapur und Bangkok auf den Weg nach Chiang Mai.

Nachdem ich mir direkt nach der Ankunft am ersten Abend noch ein wenig das Lantern-Festival in der Stadt ansehen konnte, begab ich mich zurück ins Hotelzimmer, um nach über 25 Stunden Anreise mal wieder ein wenig Schlaf zu bekommen.

Am nächsten Tag war es also soweit und ich plante die paar Kilometer bis zum Veranstaltungshotel Le Meridien zu Fuß zurück zu legen. Aufgrund der Hitze um 9 Uhr morgens änderte ich diesen Plan aber bald und fuhr den Rest der Strecke mit dem Tuk-Tuk zum Hotel.

Dort angekommen drängenten sich bereits einige der insgesamt 700 Teilnehmer auf der Rolltreppe hoch zum Veranstaltungssaal.

Nun konnte es auch schon losgehen mit einer interessanten Eröffnungs-Keynote des Veranstalters Matt Diggity, in welcher er aufzeigte wie seiner Meinung nach 2020 Inhalte im SEO erstellt werden sollten. Und ob Linkbuilding noch relevant ist und wie es durchgeführt werden sollte.

Das größte Highlight am ersten Tag war für mich aber der Vortrag von Kyle Roof, welcher unter anderem aufzeigte, wie er mit einem Lorem Ipsum Text für ein umkämpftes Keyword wie “rhinoplasty plano” rankte. Vielen dürfte dieser Fall noch aus dem entsprechenden Bericht auf Search Engine Journal bekannt sein. Hierbei machte Kyle Roof auch noch einmal deutlich, dass Google noch lange nicht so gut lesen kann wie immer be

Neben den Vorträgen konnte diese Konferenz in Thailand natürlich auch mit köstlichem Essen aufwarten. Besonders frisches Obst gab es hier in jeder Vortragspause.

Weitere Vorträge an diesem Tag gab es von Victor Karpenko, welcher anhand eines Cases zeigte wie er Casino-Projekte erfolgreich aufzieht. Dieser Vortrag war mir im Grunde aber mehr oder weniger von der diesjährigen LRTcon in Wien bekannt.

Greg Elfrink von den Empire Flippers erklärte in seinem Vortrag wie wichtig es mittlerweile ist nicht nur eine Nischenseite, sondern eine Marke aufzubauen und wie eine Media Company zu denken, wenn man mit seinen Affiliate-Seiten langfristig Erfolg haben will oder gar einen Verkauf anstrebt.

Zudem erzählte Stacey MacNaught noch etwas zum Thema Outreach, Barry Adams verriet seine Tipps für den Technical SEO Erfolg, Jonathan Kiekbusch erzählte wie man mit SEO sein Geschäft skalieren kann und Charles Floate erzählte natürlich von seinen Linkbuilding-Erfahrungen.

Kleiner Tipp: wer sich insbesondere für technische SEO Themen interessiert, sollte auf jeden Fall auch den Blog von Barry Adams verfolgen.

vortrag-chiang-mai-seo-konferenz-2019-victor-karpenkoDer zweite Tag startete dann auch schon mit zwei absoluten Highlights an Vorträgen. Im ersten Vortrag zeigte Gael Breton auf, wie man Affiliate und Authority Seiten ausbauen und profitabler machen kann. Hier waren auf jeden Fall jede Menge Hands-on-Tipps dabei, die jeder für sich selbst direkt ausprobieren kann.

Ebenfalls genial war auch der zweite Vortrag von Travis Jamison, welcher erzählte, wie er sich vom Affiliate SEO zum Investor “empor gearbeitet” hatte, indem er immer wieder Projekte verkaufte und dieses Geld in neue Projekte reinvestierte, bis er letztlich ein Amazon-Tracking-Tool für 12 Millionen Dollar verkauft hatte und sich fortan nur noch als Investor betätigte.

Nach einem wieder einmal köstlichen Mittagsbuffet folgten noch Beiträge von Tim Soulo, Nick Nimmin und dem genialen Grant Simmons.

Insgesamt war die Chiang Mai SEO Conference eine sehr gelungene Abwechslung – einzig die Anreise war natürlich sehr aufwendig, so dass ich bei der nächsten Gelegenheit die Konferenz wohl doch lieber noch mit einem Strandurlaub kombinieren würde.

Bei den Vorträgen waren aber auf jeden Fall einige echte Gold-Nuggets dabei, die dabei auch sehr praxisorientiert waren und einige Tipps bereit hielten, die man im Grunde direkt selbst umsetzen kann. Ein Aspekt, den man bei deutschsprachigen Konferenzen immer seltener antrifft. Interessant war auch die Zusammensetzung des Publikums. Während auf den Konferenzen hierzulande vor allem Inhouse-SEOs und Agentur-SEOs aus Deutschland anzutreffen sind, waren auf dieser Konferenz hauptsächlich Affiliates aus allen Ecken der Welt vertreten.

Wer also einmal eine etwas andere Konferenz besuchen möchte und dabei vielleicht sogar noch ein neues Land kennenlernen will, dem kann ich diese Konferenz durchaus ans Herz legen.

 

 

 

 

 

 

 

Weitere Recaps:

by Mario-Schwertfeger Mario-Schwertfeger Ein Kommentar

SEOkomm Recap 2019

seokomm-2019-salzburg-seo-konferenzWenn es draußen kühler wird, man so langsam den ersten Glühwein und die Plätzchen riecht, dann freuen sich die meisten Leute auf eine ruhige Winterzeit und die SEOs aus dem deutschsprachigen Raum freuen sich über die SEOkomm von Oliver und Uschi Hauser in Salzburg. Wohl eine der schönsten vorzeitigen Bescherungen, die man sich als SEO wünschen kann.

Dieses Jahr war es am 22. November wieder soweit und in der Brandboxx in Salzburg wurde das 10. Jubiläum der SEOkomm gefeiert und zahlreiche SEOs aus Deutschland, Schweiz und Österreich trafen sich zum Know-How-Austausch.

Highlight der diesjährigen SEOkomm war aus meiner Sicht die Keynote des “Mediadonis” Marcus Tandler. Nachdem Marcus Tandler verkündete, dass diese 10. Eröffnungskeynote auch seine letzte SEOkomm-Keynote war, begeisterte er wieder einmal mit einem seiner wohlbekannten “Slidestorms” (über 400 Folien!) und zeigte in seiner Präsentation “Unspoken | Der Endgegner” auf wohin die Reise von Google und Search in Zukunft gehen wird – weg von der Suchmaschine, die über Queries bedient werden muss hin zum persönlichen Assistenten. Und weg von der “Jauchegrube” Internet hin zu einem Internet, welches komplett von Google gehostet wird.

SEOkomm-Keynote-Marcus-Tandler-MediadonisWer sich die Keynote nachträglich ansehen möchte, findet das entsprechende Video auf Facebook.

Über den Vormittag verteilt habe ich mir dann noch den Vortrag zur internen Verlinkung von Jens Altmann, die Präsentation über Local SEO bei Sixt von Izzi Smith und das Thema JavaScript & SEO von Martin Splitt von Google angesehen.

Vor dem Mittagessen lauschte ich dann noch dem Vortrag von Theresa Futh, in welcher sie aufzeigte, wie das Thema SEO in der t-online-Redaktion integriert wird. Wer bereits mit redaktionellen Portalen zusammengearbeitet hat, weiß das dies oftmals eine Herausforderung sein kann SEO & Redaktion zu verzahnen.

 

Im Anschluss gab es auch dieses Jahr wieder leckeres Mittagsbuffet mit den wohlbekannten, köstlichen Wiener Schnitzeln. Gerade diese Zeit konnte auch wieder genutzt werden, um mit alten Bekannten und Kollegen wieder nette Gespräche zu führen.

Gestärkt durch diverse Köstlichkeiten ging es im Anschluss weiter mit einem genialen Vortrag von Niels Dahnke zum Thema “13 solide Antworten auf politische SEO-Fragen vom C-Level”. Hier hat wohl jeder mindestens eine Frage gefunden, die ihm als SEO auch im echten Leben schon einmal begegnet ist.

Im Anschluss daran musste ich die schwere Entscheidung treffen, ob ich mir lieber den BERTology-Vortrag von Kai Spriestersbach oder den 500k SEO-Traffic-Vortrag von Jan Brakebusch ansehe. Da ich noch nie einen Vortrag von Jan Brakebusch gesehen habe, habe ich mich für diesen Vortrag entschieden, in welchem er vor allem auch zeigte, welche SEO-Taktiken seiner Erfahrung nach vor allem bei YMYL-Seiten funktionieren und warum gerade Youtube-Videos auch im SEO immer relevanter werden.

Wer sich den bestimmt wieder genialen Vortrag von Kai Spriestersbach über BERT ansehen möchte, findet hier die entsprechenden Folien: https://www.slideshare.net/seokai/bertology-seokomm-2019-kai-spriestersbach-eology-gmbh/1

SEOkomm-2019-Relaunch-Eventim-VortragInteressant war auch der anschließende Vortrag von Johan von Hülsen und Dominik Lay, welche insbesondere Herausforderungen, Probleme und Fehler beim Eventim-Relaunch sowie aber auch die entsprechenden Lösungen und Erfolge aufzeigten. Aus meiner Sicht sind diese Vorträge, welche auch Stolpersteine und Fehler aufzeigen, immer die Vorträge, aus denen man am meisten lernen und mitnehmen kann.

Im Anschluss sah ich mir noch die SEO Quickies mit Alexandra Porstner zum Thema Gambling, Justus Blümer über Textkategorisierung, Patrick Krebs von OBI über Bookmarklets, Andreas Stolze über Google Data Studio, Ivana Brcina über PWAs, Christoph Cemper über die neuen Linkattribute und Tobias Willman aus der Schweiz über News SEO Insights an. Hierbei durfte ich selbst auch einen Vortrag über das Thema Google Discover halten.

 

Wen es interessiert: meine Präsentation hierzu ist auch auf Slideshare zu finden.

 

Den Abschluss der SEOkomm bildete wieder einmal die Party im Kesselhaus, bei welchem auch dieses Jahr wieder köstliche Speisen und Getränke in einer beeindruckenden Location serviert wurden.

 

Weitere SEOkomm 2019 Recaps

 

 

 

by Mario-Schwertfeger Mario-Schwertfeger Keine Kommentare

Google Discover – Was ist das? Was bringt das? Wie optimiert man?

Ein Thema, welches gefühlt derzeit noch kaum Beachtung in der SEO-Branche findet, ist das Thema Google Discover.

Das mag vielleicht daran liegen, dass es aktuell eher einen kleinen Teil an Seiten betrifft oder aber vielleicht auch daran, dass es im Grunde ja gar kein wirkliches Search-Produkt ist. Damit wären wir auch schon bei der Frage angelangt, was denn Google Discover eigentlich genau ist?

Sucht man nach einer konkreten Definition von Google, findet man dabei vor allem folgende beide Aussagen:

“Discover shows users a mix of content based on their interactions with Google products or content that they choose to follow directly.”

“Discover content is algorithmically ranked by what Google thinks a user would find most interesting.”

 

Fürs uns lässt sich das an dieser Stelle also wie folgt zusammenfassen:

Was ist Google Discover?

Google Discover ist eine persönliche, AI-gestützte Content Recommendation Engine für mobile Endgeräte und Tablets, welche auf der Suchhistorie und dem Online Verhalten des Nutzers basiert.

 

Wichtig ist dabei auch der Punkt, dass Discover dem User die Informationen bereits liefert, selbst wenn dieser nicht proaktiv danach sucht. Dies stellt Google selbst auch im Google Webmaster Central Blog heraus: “Discover is a popular way for users to stay up-to-date on all their favorite topics, even when they’re not searching.” Hierbei kann der User auch gezielt Einfluss auf Discover nehmen und beispielsweise Themen abonnieren, Themen blockieren, gewisse Publisher blockieren oder auch die Frequenz wie oft ein gewisses Thema angezeigt werden soll regulieren und die aktuell ausgespielten Karten bewerten.

Konfigurationsmöglichkeiten-in-Google-Discover

Abbildung: Konfigurationsmöglichkeiten für den User in Google Discover

 

 

 

 

 

 

 

 

 

Letztlich ist Discover also ein weiterer Schritt hin zu Googles Vision, sich von der Suchmaschine hin zu einer Antwortmaschine und letztlich zu einem digitalen, persönlichen Assistenten zu entwickeln.

Google-Antwortmaschine-persoenlicher-Assistent

Abbildung: Googles Weg von der Suchmaschine zum persönlichen Assistenten

 

 

 

 

 

Das Discover also ein weiterer logischer Schritt in dieser Version ist, verdeutlicht auch der Beitrag “Improving Search for the next 20 years” von Ben Gomes (SVP, Search, News and Assistant) vom September 2018.

In diesem Beitrag blickt Ben Gomes zurück auf die letzten 20 Jahre Search und stellt die wichtigsten Prinzipien der letzten 20 Jahre dar:

– focus on the user

– most relevant, highest quality information

– algorithmic approach

– rigorously test every change

 

Zudem gibt er aber auch einen Ausblick auf die nächsten Jahre und welche Änderungen es aus Sicht von Google in Zukunft vor allem geben wird:

– The shift from answers to journeys

– The shift from queries to providing a queryless way to get information

– The shift from text to a more visual way of finding information

 

Google will dem Nutzer also nicht nur konkrete Antworten für einzelne Suchanfragen bereitstellen, sondern ihn entlang der kompletten Search Journey begleiten und mit Informationen versorgen ohne dass der Nutzer hierfür konkrete Suchbegriffe bedienen muss. Dabei soll der Fokus zukünftig nicht nur auf Texten liegen sondern auch das Thema visuelle Inhalte (also Bilder und Video) zukünftig verstärkt eine Rolle spielen. Auch letzterer Punkt dürfte nicht überraschen, da man gerade 2019 beobachten konnte, dass Google das Thema Bildersuche auf Vorträgen immer wieder stark hervorgehoben hat, wie bspw. Gary Illyes auf der PubCon 2019.

Genau diese Paradigmen-Wechsel spiegeln sich in Google Discover wieder.

 

Wo findet man Google Discover?

Abbildung: Google Search App auf dem Smartphone

Aktuell findet man Google Discover vor allem in der Google Search App auf mobilen Endgeräten und Tablets. Zukünftig soll Discover aber auch vermehrt in der mobilen Suche ausgespielt werden. Google DisAktuell findet man Google Discover vor allem in der Google Search App auf mobilen Endgeräten und Tablets. Zukünftig soll Discover aber auch vermehrt in der mobilen Suche ausgespielt werden. Google Discover für Desktop ist dabei aller Vorraussicht nach nicht geplant.

 

 

 

 

Wie relevant ist Google Discover?

Eine der wichtigsten Fragen ist natürlich auch, wie relevant Google Discover eigentlich ist. Laut einer Aussage von Google hatte Discover bereits 2018 weltweit 800 Mio. User. Das sind etwas mehr User als Europa an Einwohnern hat (741,4 Mio. Einwohner).

Für einige Publisher ist Google Discover dabei bereits auch ein extrem relevanter Traffic Lieferant. Konnte ich in eigenen Accounts schon alles von 1% – 40% des Traffics beobachten, wurde mir in Gesprächen mit Redakteuren einer Münchner Verlagsgruppe bestätigt, dass hier ca. 80% des Search Traffics über Google Discover kommen. Von diesem Erfahrungswert berichtet im Übrigen auch Jens Fauldrath, welcher einige große Publisher betreut, im Termfrequenz Podcast.

Hinzu kommt natürlich die Ansage von Google, dass Produkt neben der Google Search App auch generell in der mobilen Suche zu integrieren und neben News zukünftig auch vermehrt Evergreen Content auszuspielen.

 

Wie optimiert man als SEO für Google Discover?

Das Thema das die meisten SEOs mit Blick auf Google Discover wohl am stärksten interessieren dürfte, ist natürlich die Frage, wie man denn nun für Google Discover optimieren kann.

Google selbst gibt hier im Search Console Help Center bereits drei mehr oder weniger konkrete Tipps:

  1. Google News Richtlinien erfüllen
  2. Große, hochwertige Bilder nutzen (mind. 1.200 px)
  3. Content publizieren, der die Nutzer interessiert

Punkt 1 bedeutet dabei nicht, dass man tatsächlich für Google News gelistet sein muss. Der Content muss lediglich die Google News Content Richtlinien erfüllen. Punkt 2 ist ein Aspekt, den Beiträge sowieso schon erfüllen müssen, wenn man AMP nutzen will. Nutzt man aktuell noch kein AMP, muss man Google per Formular erlauben, dass es die mind. 1.200 Pixel großen Bilder auch dem Nutzer anzeigen darf.

Generell sind diese Tipps von Google sehr allgemein gehalten und das Optimieren für Google Discover gilt in der SEO Beratung derzeit eher noch als Blackbox, wenngleich auch schon einige Optimierungstipps in der Branche die Runde machen und getestet werden. Einige dieser Tipps werde ich in den nächsten Tagen noch in diesem Beitrag vorstellen.

 

Habt ihr bereits Erfahrungen mit Google Discover gemacht? Was sind eure Tipps? Lasst mir gerne hierzu in den Kommentaren eure Fragen oder Tipps zukommen.

 

Zukünftig mehr spannende SEO-Themen und Optimierungstipps direkt per E-Mail bekommen?

by Mario-Schwertfeger Mario-Schwertfeger Keine Kommentare

Mobile SEO Basics 1: Graceful Degradation vs. Progressive Enhancement und Mobile First

mobile-webentwicklung-graceful-degradation-vs-progressive-enhancementEs ist wohl kein Geheimnis mehr, dass man als SEO nicht mehr um das Thema Mobile SEO herum kommt. Hatte Matt Cutts 2014 auf der SMX West noch angekündigt, dass mobile Suchanfragen bald die Desktop-Suchanfragen übersteigen werden, war 2015 dann das Jahr in welchem Google im Inside AdWords Blog verkündete, dass dies nun in 10 Ländern der Fall ist: “In fact, more Google searches take place on mobile devices than on computers in 10 countries including the US and Japan.” Auch im Arbeitsalltag werden wohl schon immer mehr SEOs mit irgendwelchen Fragestellungen zum Thema Mobile konfrontiert worden sein, mussten bei der Konzeption von Websites ihre Meinung zum Thema Mobile abgeben oder durften erst einmal für den Kunden einen Mobile Audit machen.

(Wen es interessiert – auf der SEO Campixx 2015 habe ich schon einmal einen Vortrag zum Thema Mobile Site Audit gehalten: https://www.slideshare.net/MarioSchwertfeger/seo-campixx-2015-mobile-site-audit )

Jedoch ist das Thema Mobile umfangreicher als man zunächst denken mag: von Responsive Design über App Indexing hin zu AMP. Das Themenspektrum ist ziemlich breit und sowohl als SEO Berater als auch als Verantwortlicher auf Kundenseite wird man mit vielen neuen Themen und Begriffen konfrontiert. Um hier etwas Licht ins Dunkel zu bringen, möchte ich eine kleine Mobile SEO Basics-Serie starten, in welcher ich regelmäßig verschiedene Aspekte des Mobile SEO vorstellen werde: Welche Arten von Mobile Websites gibt es? Wie macht man einen Mobile Audit? Welche Tools kann man für Mobile Analysen nutzen? Auf was muss man im Bereich Apps achten? etc.

Starten will ich heute mit dem ersten Teil – die Klärung der Begriffe Graceful Degradation vs. Progressive Enhancement und das Thema Mobile First.

Was bedeutet Graceful Degradation?

Im Bereich Webentwicklung bedeutet Graceful Degradation, dass man eine Website zuerst auf Basis des aktuellsten Browsers (und einem leistungsfähigen Rechner) entwickelt. Im Anschluss daran wird die Website dann für ältere Browser und schwächere Systeme reduziert.

Auf älteren Browsern muss man dazu dann oft Einschränkungen der Website in Kauf nehmen. Genauso wird aber eben auch erst einmal für einen großen Desktop-Monitor designt, was dazu führen kann, dass man auf kleinen Mobile-Screens später Probleme hat den gesamten Content unterzubringen.

Das Gegenteil von Graceful Degradation stellt nun im Grunde das Progressive Enhancement dar.

Was bedeutet Progressive Enhancement?

Beim Progressive Enhancement geht man bei der Entwicklung des Internetauftritts vom schwächsten System aus und stellt eine Version bereit, welche auch auf diesem System funktioniert, so dass der Nutzer auch in diesem Fall den kompletten Content zur Verfügung gestellt bekommt. Für Nutzer mit moderneren Browsern, Endgeräten etc. stellt man dann eine fortgeschritterne Version mit mehr Funktionalität zur Verfügung.

Vom Progressive Enhancement zum Mobile First

Der Ausdruck Mobile First wird wohl den Meisten ein Begriff sein, nachdem Eric Schmidt schon 2010 auf dem Mobile World Congress in Barcelona die Maxime ausgab: “work on mobile first”.

Der Google Gründer Larry Page ging sogar noch weiter und sagte: “we are no longer in a mobile first world, we are in a mobile only world.” Über diese Aussage lässt sich sicherlich diskutieren, aber das soll nicht Bestandteil dieses Beitrags sein.

Was also bedeutet nun Mobile First?

Mobile First ist im Grunde eine Weiterentwicklung des Progressive Enhancement. Dabei werden die Inhalte im ersten Schritt mit Fokus auf Smartphone User erstellt, so dass man letztlich im Normalfall klare und übersichtliche Websiten als Resultat hat.

Dabei sollte man aber nicht das Thema Content vernachlässigen. Dies ist oftmals ein Kritikpunkt im Hinblick auf Mobile First, dass bei diesem Ansatz ggfs. relevanter Content wegreduziert wird.

Aus dieser Sicht sind noch die Konzepte Content Parity und Content First interessant. Letzteres besagt, dass man sich zuerst um attraktiven Content bemühen sollte. Ersteres besagt, dass jedem Besucher immer alle Inhalte einer Website zugänglich sein sollten, egal welches Endgerät er nutzt.

Ob dies wirklich nötig ist und welche Formen der Darstellung von mobilen Websites es gibt, sehen wir uns dann in Teil 2 der Serie an.

Top