Der aktualisierte SEO-Startleitfaden ersetzt sowohl den alten Startleitfaden als auch die Webmaster Academy. Die aktualisierte Version baut auf dem vorherigen Dokument auf und beinhaltet zusätzliche Abschnitte zur Notwendigkeit der Suchmaschinenoptimierung, zum Hinzufügen von Markup für strukturierte Daten sowie zum Erstellen von Websites, die für Mobilgeräte optimiert sind.
Der neue Leitfaden ist in 9 Sprachen verfügbar: Deutsch, Englisch, Französisch, Italienisch, Japanisch, Portugiesisch, Russisch, Spanisch und Türkisch. Weitere 16 Sprachen folgen demnächst.

Werft doch mal einen Blick hinein und sagt uns eure Meinung.

Fragen könnt ihr in unseren Webmaster-Hilfeforen stellen.

Post von Abhas Tripathi, Search Quality Strategist



AMP wurde eingeführt, um die Leistung im Internet drastisch zu verbessern und um eine schnelle und konsistente Nutzung von Inhalten zu gewährleisten. Aus diesem Grund werden wir bei Seiten, die in der Google-Suche als AMP-Seiten erscheinen sollen, eine starke Ähnlichkeit zwischen AMP und kanonischen Seiten durchsetzen.

Enthält eine AMP-Seite nicht dieselben grundlegenden Inhalte wie die entsprechende Nicht-AMP-Seite, werden wir unsere Nutzer an die Nicht-AMP-Seite weiterleiten. Dies hat keinen Einfluss auf das Suchranking. Die Seiten werden jedoch nicht für Suchfunktionen in Betracht gezogen, die AMP erfordern, z. B. für das Schlagzeilenkarussel mit AMP. Außerdem senden wir dem Webmaster über Search Console eine Benachrichtigung, dass manuelle Maßnahmen erforderlich sind, und geben dem Publisher Gelegenheit, das Problem zu beheben, bevor die AMP-Seite wieder bereitgestellt werden kann. Auf der Open-Source-AMP-Website stehen mehrere hilfreiche Anleitungen zur Verfügung, mit denen ihr auf schnelle Weise beeindruckende und leistungsstarke AMP-Seiten erstellen könnt.

Wir hoffen, dass wir Webmaster durch diese Änderung dazu ermutigen können, die Übereinstimmung der Inhalte zwischen kanonischen und AMP-Seiten zu gewährleisten. Dies führt zu einer angenehmeren Verwendung eurer Websites und somit zu zufriedeneren Nutzern.


Post von Ashish Mehta, Product Manager
Share on Twitter Share on Facebook



Da die Angaben irreführend sind, ergreifen wir in solchen Fällen unter Umständen manuelle Maßnahmen. Sollte Eure Website von solch einer Maßnahme betroffen sein, werdet Ihr über euer Search Console-Konto benachrichtigt. Wenn wir manuelle Maßnahmen ergreifen, kann das zur Folge haben, dass bei Suchergebnissen für die gesamte Website kein Markup zu strukturierten Daten verwendet wird. 

Auch wenn es in diesem Blogpost speziell um Gutscheine geht, gilt dies ebenso für alle anderen Dinge, die keine Veranstaltungen sind und trotzdem mit dem "Event"-Markup versehen wurden – bzw. für alle Fälle, in denen ein bestimmtes Markup für etwas anderes verwendet wird als die Art von Sache, die dadurch beschrieben werden soll.

Weitere Informationen findet Ihr in unserer Entwicklerdokumentation und wie immer könnt Ihr bei weiteren Fragen in unserem Webmaster-Forum vorbeischauen.

Gepostet von Sven Naumann, Trust & Safety Search-Team

Share on Twitter Share on Facebook

Post vom Google Webspam-Team
Share on Twitter Share on Facebook



Snippets von Suchergebnissen haben einen recht ähnlichen Zweck. Sie helfen den Nutzern zu entscheiden, ob sie die Zeit zum Lesen der Seite investieren wollen, zu der das Snippet gehört.




Je aussagekräftiger und relevanter ein Suchergebnis-Snippet ist, desto wahrscheinlicher werden Nutzer darauf klicken und mit der Seite zufrieden sein, auf die sie weitergeleitet werden. Bisher gab es drei Quellen für Snippets:

  1. Den Content der Seite
  2. Die Meta-Beschreibung
  3. Die DMOZ-Einträge
Der Content der Seite ist bei Suchergebnis-Snippets eine sehr naheliegende Option – die extrahierbaren Inhalte sind für die Suchanfragen der Nutzer oft am relevantesten. Manchmal liefert jedoch der Content nicht das beste Material für ein Snippet. Dies ist beispielsweise der Fall, wenn ein Nutzer ein Buch geschrieben hat und dafür einen Verlag sucht. Die Startseiten seiner Suchergebnisse enthalten dann unter Umständen nur ein paar Bilder, die den Verlag und seine Aktivitäten beschreiben, ein Logo und eventuell einige Links. Dies ist alles nicht besonders hilfreich für ein Snippet.


In Fällen, in denen der Content einer Seite nicht genügend Text für ein Suchergebnis-Snippet liefert, wird als logische Alternative die Meta-Beschreibung verwendet. Dabei handelt es sich um einen kurzen Text, der den Content treffend und präzise zusammenfasst.


Wenn eine Seite nicht genug Text für die Erstellung eines Snippets enthält und die Meta-Beschreibung entweder fehlt oder keinen Bezug zur Seite hat oder von geringer Qualität ist, haben wir bisher auf DMOZ (auch als Open Directory Project bekannt), zurückgegriffen. Wir nutzen DMOZ schon seit über zehn Jahren, da die Qualität der DMOZ-Snippets oft viel besser war als die der Snippets, die von Webmastern in ihrer Meta-Beschreibung bereitgestellt wurden, oder die DMOZ-Snippets deutlich aussagekräftiger waren als der Content der Seite.


Da das DMOZ-Projekt leider eingestellt wurde, verwenden wir für die Snippets auch keine Einträge mehr aus diesem Projekt. Um so wichtiger ist es nun, dass Webmaster gute Meta-Beschreibungen bereitstellen, falls das Hinzufügen von weiterem Content auf einer Seite keine Option darstellt.

Was zeichnet eine gute Meta-Beschreibung aus?

Gute Meta-Beschreibungen sind kurze Texte, die den Content einer Seite zutreffend beschreiben. Sie dienen zugleich als Werbetexte, die die Nutzer überzeugen sollen, dass die betreffenden Seiten genau ihrer Suche entsprechen. Weitere Tipps zu diesem Thema findet ihr in diesem nützlichen Search Console-Hilfeartikel. Denkt daran, dass sowohl eure Seiten für Desktop- als auch für Mobilgeräte einen Titel und eine Meta-Beschreibung enthalten sollten. 


Welche Probleme treten bei Meta-Beschreibungen am häufigsten auf?

Da Meta-Beschreibungen normalerweise nur für Suchmaschinen und andere Software sichtbar sind, werden sie manchmal von Webmastern vergessen und komplett leer gelassen. Aus demselben Grund passiert es auch häufig, dass dieselbe Meta-Beschreibung gleich für mehrere (und teilweise sehr viele) Seiten verwendet wird. Wenn eine Meta-Beschreibung gegeben wird, kommt es auch vor, dass die Beschreibung überhaupt nicht zum Thema passt, von niedriger Qualität ist oder sogar von manchen Spamfiltern als Spam betrachtet wird. Da sich derartige Probleme negativ auf das Sucherlebnis unserer Nutzer auswirken, ziehen wir es vor, solche Meta-Beschreibungen zu ignorieren. 


Gibt es eine Zeichenbeschränkung für Meta-Beschreibungen?

Es gibt keine festgelegte Zeichenbeschränkung für Meta-Beschreibungen, allerdings werden die Suchergebnis-Snippets bei Bedarf gekürzt, normalerweise, um den Text an die Gerätebreite anzupassen.


Was passiert mit den Richtlinien in der "NOODP"-Robots-Anweisung?

Da DMOZ (ODP) eingestellt wurde, verwenden wir auch nicht mehr die zugehörigen Daten. Aus diesem Grund verliert die NOODP-Anweisung ihre Bedeutung.


Kann ich verhindern, dass Google den Content der Seiten als Snippet verwendet?

Ihr könnt verhindern, dass Google überhaupt Snippets erstellt, indem ihr die "nosnippet"-Robots-Anweisung festlegt. Es kann jedoch nicht verhindert werden, dass Seitencontent als Snippet verwendet wird, wenn gleichzeitig auch andere Quellen zulässig sind.


Wie immer könnt ihr eure Fragen in unserem Webmaster Forum stellen!

Gepostet von Gary, Search Team
Share on Twitter Share on Facebook



Die ersten Monate des Jahres 2017 liegen bereits hinter uns und wir möchten hiermit einige Erkenntnisse mit euch teilen, die wir bei unserem Kampf gegen Webspam 2016 gesammelt haben. Im Verlauf des letzten Jahres haben wir neue Möglichkeiten entdeckt, die negativen Auswirkungen von Spam auf die Nutzererfahrung bei der Suche zu reduzieren, und wir haben mit Webmastern weltweit zusammengearbeitet, um das Web zu verbessern.

Wir arbeiten hinter den Kulissen mit Hochdruck daran, dass unsere Nutzer das Web und die Möglichkeiten, die es heute bietet, vollständig ausschöpfen können, damit alle Menschen auf der Welt Zugang zu relevanten Ergebnissen erhalten. Hierzu gehört auch der Kampf gegen Webspam, der Nutzern potenziell schadet oder sie auch einfach nur belästigt.



Webspam-Trends im Jahr 2016






So sind wir 2016 gegen Spam vorgegangen






Gemeinsam mit Nutzern und Webmastern für eine bessere Erfahrung im Web






Wir sind der Meinung, dass alle Menschen Zugang zu qualitativ hochwertigen und spamfreien Suchergebnissen haben sollten. Wir hoffen, dass euch dieser Bericht einen kleinen Einblick gegeben hat, wie wir dieses Vorhaben vorantreiben.

Post von Michal Wicinski, Search Quality Strategist, und Kiyotaka Tanaka, User Education
Share on Twitter Share on Facebook



Mit der Funktion "Ähnliche Produkte" können Nutzer sich von Mode- und Produktfotos inspirieren lassen und direkt Infos zu den Produkten erhalten, für die sie sich interessieren. Probiert es mal aus und seht euch zum Beispiel ein paar Bildergebnisse zu [designer handtaschen] an.

Informationen zu Preisen und Verfügbarkeit in der Bildersuche war die am stärksten nachgefragte Funktion von Nutzern. Das Karussell mit ähnlichen Produkten verzeichnet täglich Millionen von Impressionen und Klicks aus aller Welt.

Wenn eure Produkte auch für diese Funktion infrage kommen sollen, achtet darauf, Schema.org-Produktmetadaten auf euren Seiten hinzuzufügen. Das Produkt-Markup von schema.org hilft Google dabei, Produktangebote im Web zu finden und Nutzern einen Überblick über das Produkt zu geben.

Damit eure Produkte für die neue Funktion infrage kommen, solltet ihr auf Folgendes achten:



Momentan ist die Funktion "Ähnliche Produkte" weltweit in mobilen Browsern sowie in der Google App auf Android-Geräten verfügbar. Wir möchten sie 2017 außerdem auf weitere Plattformen ausweiten.

Wenn ihr noch Fragen habt, findet ihr uns im Webmaster Hilfeforum. Wenn eure Bilder nicht in den ähnlichen Produkten zu sehen sein sollen, könnt ihr verhindern, dass Bilder eurer Seite in den Suchergebnissen erscheinen.

Die neue Funktion trägt dazu bei, dass Nutzer eure Produkte im Web finden. Gemeinsam machen wir Shoppen im Web noch schöner.

Post von Julia E, Product Manager, Bildersuche
Share on Twitter Share on Facebook



Wir haben kürzlich eine neue Version des Websitestatus-Tools veröffentlicht. Die Ergebnisse sind jetzt noch einfacher und eindeutiger und das Design des Tools wurde an die größte Zielgruppe angepasst: Nutzer, die das Tool über eine empfangene Safe Browsing-Warnung aufrufen oder allgemeine Informationen zur Erkennung von Malware und Phishing-Inhalten bei Google erhalten möchten. Die Benutzeroberfläche ist übersichtlicher und die Ergebnisse sind einfacher zu verstehen und noch genauer. Die etwas technischeren Angaben zu autonomen Systemen haben wir in den Abschnitt "Malware-Dashboard" des Transparenzberichts verschoben.

Wir haben die Benutzeroberfläche optimiert, aber nicht auf Kosten der Diagnoseinhalte: Nutzer, die genauer recherchieren und mehr Details sehen möchten, finden diese Angaben an anderen Stellen im Safe Browsing-Transparenzbericht und Websiteinhaber finden zusätzliche Diagnoseinformationen in der Search Console. Eines der Ziele des Transparenzberichts ist es, komplexe Richtlinien und Sicherheitsprobleme näher zu beleuchten. Wir hoffen daher, dass das neue Design zu einem besseren Überblick beiträgt.

Post von Deeksha Padma Prasad und Allison Miller, Safe Browsing
Share on Twitter Share on Facebook


Statusbericht zur Sicherheit von Websites 2016

Fangen wir mit den schlechten Nachrichten an. Die Zahl der gehackten Websites ist im Vergleich zu 2015 um ca. 32 % gestiegen. Und wir rechnen nicht damit, dass sich dieser Trend abschwächt. Die zunehmende Aggressivität der Hacker in Kombination mit der steigenden Zahl veralteter Websites führt dazu, dass Hacker immer mehr Websites infizieren, um daraus Kapital zu schlagen.

Aber es gibt auch gute Nachrichten: 84 % der Webmaster, die eine erneute Überprüfung beantragen, können ihre Websites erfolgreich bereinigen. Jedoch haben 61 % der Webmaster, deren Websites gehackt wurden, nie eine entsprechende Benachrichtigung von Google erhalten, weil ihre Websites nicht in der Search Console bestätigt wurden. Vergesst also nicht, euch in der Search Console zu registrieren, wenn ihr eine Website besitzt oder verwaltet. Dies ist der primäre Kommunikationskanal, den Google für Warnmeldungen zum Status von Websites nutzt.


Mehr Hilfe für gehackte Webmaster

Wir haben uns euer Feedback zu Herzen genommen, um Webmastern mit Sicherheitsproblemen noch besser helfen zu können. Dabei wurde immer wieder eine verständlichere Dokumentation zu gehackten Websites gefordert. Wir haben daher viel Herzblut investiert, um unsere Dokumentation nützlicher zu machen.

Als ersten Schritt haben wir eine neue Dokumentation erstellt, um Webmastern im Falle einer manipulierten Website mehr Informationen zur Verfügung zu stellen. Hier findet ihr eine Liste der neuen Hilferessourcen:


Anschließend haben wir Leitfäden zur Bereinigung von Websites erstellt, die von gängigen Hacking-Methoden betroffen sind. Wir haben festgestellt, dass die Auswirkungen von gehackten Websites meist ähnlich sind. Nach eingehender Analyse dieser Ähnlichkeiten haben wir für bestimmte Hacking-Angriffe Leitfäden zur Bereinigung erstellt. Unten findet ihr eine kurze Beschreibung der erstellten Leitfäden:

Unsinnige Inhalte: Bei dieser Hacking-Methode wird automatisch eine Vielzahl von Seiten mit sinnlosen Sätzen voller Keywords auf der Zielwebsite erstellt. Damit möchten Hacker erreichen, dass die gehackten Seiten in der Google-Suche erscheinen. Wenn Nutzer die Seiten dann besuchen möchten, werden sie auf eine völlig andere Seite weitergeleitet, zum Beispiel eine Website mit pornografischen Inhalten. Weitere Informationen zur Bereinigung.

Japanische Keywords: Bei dieser Hacking-Methode werden in der Regel neue Seiten mit japanischem Text in zufällig generierten Verzeichnissen auf der Zielwebsite erstellt. Diese Seiten werden mithilfe von Links zu Online-Stores mit gefälschten Markenprodukten monetarisiert und dann in der Google-Suche angezeigt. Manchmal werden die Konten der Hacker in der Search Console auch als Website-Inhaber hinzugefügt. Weitere Informationen zur Bereinigung.

Keyword-Cloaking: Durch diese Art von Keyword- und Link-Hacking wird automatisch eine Vielzahl von Seiten mit sinnlosen Sätzen, Links und Bildern erstellt. Diese Seiten enthalten manchmal sogar Grundbausteine der Vorlage der Originalwebsite, sodass die Seiten auf den ersten Blick wie ganz normale Bestandteile der Zielwebsite aussehen, bis man den Inhalt liest. Bei einem solchen Angriff verwenden Hacker in der Regel Cloaking-Techniken, um die schädlichen Inhalte zu verstecken und die eingefügte Seite als der Teil der Originalwebsite oder als 404-Fehlerseite aussehen zu lassen. Weitere Informationen zur Bereinigung.


Prävention ist der Schlüssel

Wie immer ist es am besten, Präventivmaßnahmen zu ergreifen und die Website zu sichern, anstatt sich nachher mit den Folgen herumschlagen zu müssen. Denkt immer daran: Eine Kette ist nur so stark wie ihr schwächstes Glied. Weitere Informationen dazu, wie ihr Schwachstellen auf eurer Website erkennen könnt, findet ihr in unserem Leitfaden für gehackte Websites. Außerdem empfehlen wir, euch im Hinblick auf die neuesten Veröffentlichungen und Bekanntmachungen eurer CMS-Anbieter sowie Software-/Hardwareanbieter auf dem Laufenden zu halten.

Ausblick

Hacking-Methoden entwickeln sich ständig weiter und dank unserer Forschungsbemühungen können wir die neuesten Trends verfolgen und dagegen vorgehen. Weitere Informationen zu unseren neuesten Forschungspublikationen findet ihr auf der Forschungswebsite zu Informationssicherheit. Hier haben wir einige Studien zu Websitemanipulationen für euch zusammengestellt:


Falls ihr Feedback oder Fragen zu manipulierten Websites habt, steht euch in den Webmaster-Hilfeforen eine aktive Gruppe von Google-Mitarbeitern und Technikexperten zur Seite, die Antworten liefern und weiteren technischen Support bieten können.

Veröffentlicht von Wafa Alnasayan, Trust & Safety Analyst und Eric Kuan, Webmaster Relations
Share on Twitter Share on Facebook

In den obigen Abbildungen wird die Entwicklung der Suchergebnisse veranschaulicht. Dank Rich Cards können die Ergebnisse in Karussells präsentiert werden, in denen ganz einfach nach links und rechts gescrollt werden kann.



Websiteinhabern bietet sich dadurch eine neue Gelegenheit, sich in den Suchergebnissen stärker abzuheben und gezielter bestimmte Nutzergruppen auf ihre Website zu bringen. Wenn ihr z. B. eine Website mit Rezepten habt, könnt ihr eine noch ansprechendere Inhaltsvorschau mit einem speziellen Bild für jedes Gericht anbieten. Dank dieses visuellen Formats finden Nutzer schneller das, wonach sie suchen.

Rich Cards sind derzeit für drei Inhaltskategorien verfügbar: Rezepte, Filme und Restaurants in einer Region. Sie alle unterstützen das AMP-Format. Mehr über die Rich Card-Typen sowie darüber, wie ihr sie für eure Inhalte nutzen könnt, erfahrt ihr in der Galerie. Diese enthält Screenshots und Codebeispiele für die einzelnen Markup-Typen. Wir prüfen außerdem die Möglichkeiten, Rich Cards für weitere Branchen und Datentypen nutzbar zu machen.

Wir haben eine große Auswahl an Tools erstellt und die Dokumentation für Entwickler umfassend aktualisiert, um Websiteinhabern und Entwicklern auf dem Weg von der ersten Erkundung der Möglichkeiten über die Implementierung bis hin zur Leistungsüberwachung behilflich zu sein.


Falls ihr noch Fragen habt, könnt ihr diese gerne in unserem Webmaster Forum stellen.
Blogpost von Nicholas Yu, Software Engineer, Google Search

-->
Share on Twitter Share on Facebook



Option: Einkaufswagen deaktivieren

Wenn Nutzer lediglich am Kauf gehindert werden sollen, ist es am einfachsten, die entsprechende Funktion zu deaktivieren. In den meisten Fällen kann entweder das Crawlen von Einkaufswagenseiten über die robots.txt-Datei oder das Indexieren mithilfe eines Robots-Meta-Tags verhindert werden. Da Suchmaschinen diesen Inhalt entweder nicht sehen oder indexieren können, solltet ihr die Nutzer entsprechend informieren. Zum Beispiel könnt ihr den Link zum Einkaufswagen deaktivieren, eine entsprechende Nachricht einblenden oder anstelle des Einkaufswagens eine Seite mit weiteren Informationen anzeigen.

Option: Immer Interstitial oder Pop-up einblenden

Falls ihr die gesamte Website blockieren müsst, sei es mit einer Meldung "Vorübergehend nicht verfügbar", einer Informationsseite oder einem Pop-up, sollte der Server den HTTP-Statuscode 503 ("Service Unavailable") zurückgeben. So wird sichergestellt, dass Google den Inhalt, der den Nutzern vorübergehend angezeigt wird, nicht indexiert. Ohne diesen Statuscode würde das Interstitial als Inhalt der Website indexiert werden.

Googlebot versucht etwa eine Woche lang, Seiten mit dem Statuscode 503 zu crawlen, bevor sie als dauerhafter Fehler angesehen werden. Dies kann dazu führen, dass die Seiten aus den Suchergebnissen entfernt werden. Ihr könnt auch mithilfe eines Retry-After-Headers angeben, wie lange die Website nicht verfügbar sein wird. Wird die Website länger als eine Woche blockiert, kann dies negative Auswirkungen auf die Sichtbarkeit in den Suchergebnissen haben, unabhängig von der verwendeten Methode.

Option: Gesamte Website abschalten

Eine weitere Möglichkeit ist, den Server vollständig abzuschalten. Das wird zum Beispiel auch beim Umzug eines Servers in ein anderes Rechenzentrum gemacht. In diesem Fall sollte ein vorübergehender Server den HTTP-Statuscode 503 für sämtliche URLs sowie eine entsprechende Informationsseite für Nutzer ausgeben. Außerdem muss euer DNS für diese Zeit auf den vorübergehenden Server verweisen.

  1. Legt einige Tage vorher einen niedrigen DNS TTL-Wert fest, zum Beispiel 5 Minuten.
  2. Stellt den DNS auf die IP-Adresse des vorübergehenden Servers um.
  3. Schaltet euren Hauptserver ab, sobald alle Anfragen über den temporären Server laufen.
  4. Euer Server ist nun offline.
  5. Wenn ihr fertig seid, kann der Hauptserver wieder ans Netz.
  6. Stellt den DNS wieder auf die IP-Adresse des Hauptservers um.
  7. Legt den DNS TTL-Wert wieder auf den normalen Wert fest.

Wir hoffen, mit diesen Optionen die häufigsten Situationen abzudecken, in denen ihr eure Website vorübergehend deaktivieren müsst. Bei Fragen könnt ihr im Webmaster-Forum vorbeischauen.

PS: Wenn euer Unternehmen einen Standort mit Kundenverkehr hat, solltet ihr auch eure Öffnungszeiten im Brancheneintrag entsprechend anpassen!

Post von John Mueller, Webmaster Trends Analyst, Schweiz

Share on Twitter Share on Facebook




Kommentare und Forenbeiträge können als gute Informationsquelle dienen und Nutzer der Website optimal in Diskussionen einbeziehen. Diese wertvollen Inhalte sollten nicht durch automatisch generierte Keywords und Links von Spammern begraben werden.

Es gibt viele Möglichkeiten, wie ihr die Foren und Kommentare auf euren Websites sichern könnt, sodass sie für Spammer uninteressant sind:



Ausführliche Informationen zu diesen Themen findet ihr in unseren Hilfeartikeln Richtlinien zu nutzergeneriertem Spam und Methoden zum Schutz vor Spamkommentaren. Wenn ihr Hilfe benötigt, könnt ihr auch unser Forum für Webmaster besuchen.

Post von Anouar Bendahou, Search Quality Strategist, Google Irland
Share on Twitter Share on Facebook