Wir freuen uns auf eine spannende Zukunft mit der Google Search Console und hoffen, dass Nutzer aus allen Bereichen – einschließlich der Webmaster – unsere Dienste für die Diagnose und die Verbesserung der Sichtbarkeit ihrer Inhalte bei der Suche einsetzen werden. Wir werden den neuen Namen im Laufe der nächsten Wochen im Produkt implementieren.

Kommt einfach zu g.co/SearchConsole und legt los!


Post von Michael Fink, Produktmanager für die Google Search Console
(Veröffentlicht von Sven Naumann, Search Quality Team)





Wenn ihr eine internationale Website habt, könnt ihr auch die Länder ermitteln, in denen Nutzer am häufigsten nach eurer Marke suchen: Wählt "Impressionen" als Messwert aus, filtert nach eurem Markennamen und gruppiert die Ergebnisse nach Ländern, um eine sortierte Liste der Impressionen nach Ländern zu erhalten.



Dies sind nur zwei von vielen Anwendungsbeispielen. Mit Suchanalyse könnt ihr erheblich präzisiere Analysen für Zugriffe erstellen, sodass ihr die richtigen Entscheidungen im Hinblick auf die Leistung eurer Website treffen könnt.

Es bestehen einige Unterschiede zwischen "Suchanalyse" und "Suchanfragen". Die Daten in der Suchanalyse sind viel genauer als die Daten im älteren Bericht "Suchanfragen" und sie werden anders berechnet. Weitere Informationen dazu erhaltet ihr im Abschnitt zu den Daten im Hilfeartikel für Suchanalyse. Uns ist bewusst, dass einige von euch weiterhin den alten Bericht nutzen müssen. Daher haben wir uns entschieden, ihn noch für drei weitere Monate in den Google Webmaster-Tools zur Verfügung zu stellen. Weitere Informationen zum neuen Bericht erhaltet ihr im Hilfeartikel Suchanalyse.

Wir hoffen, dass die neue Suchanalyse hilfreich für die Analyse eurer Zugriffe ist. Wenn ihr Fragen habt oder Hilfe mit dem Bericht benötigt, könnt ihr einfach wie immer einen Beitrag in unserem Webmaster-Hilfeforum posten.

Zu guter Letzt möchten wir noch unseren Trusted Testern und den Top-Beitragenden in unseren Webmaster-Foren danken, die die Alphaversion der Suchanalyse getestet und uns dabei geholfen haben, diesen Bericht weiterzuentwicklen: Ohne euer regelmäßiges Feedback und eure vielen Vorschläge wäre er uns nicht so gut gelungen. Vielen Dank für eure tolle Unterstützung!


Post von Zineb, im Namen der großartigen Programmierer der Google Webmaster-Tools und Designer der Benutzeroberfläche (Veröffentlicht von Johannes Mehlem, Search Quality Team)


Am Anfang dieses Berichts stehen die Namen der Hosts der auf eurer Website verwendeten blockierten Ressourcen, beispielsweise JavaScript- oder CSS-Dateien und Bilder. Wenn ihr auf die Zeilen klickt, seht ihr die Liste der blockierten Ressourcen und danach die Seiten, auf denen sie eingebettet sind. Dabei werdet ihr durch die Schritte geführt, mit denen ihr eine Diagnose ausführen und sicherstellen könnt, dass wir den Seiteninhalt crawlen und indexieren können.
Im aktualisierten Abschnitt Abrufen und rendern könnt ihr nachlesen, inwiefern diese blockierten Ressourcen wichtig sind. Wenn ihr das Abrufen und Rendern einer URL anfordert, seht ihr jetzt Screenshots, die zeigen, wie die Seite für den Googlebot und für einen regulären Nutzer dargestellt wird. So könnt ihr die Probleme leichter erkennen, die bewirken, dass eure Seiten für den Googlebot anders aussehen.

Die Webmaster-Tools versuchen, euch nur die Hosts zu zeigen, bei denen ihr eventuell auch Einflussmöglichkeiten habt. Daher seht ihr in dem Bericht momentan keine Hosts, die von vielen verschiedenen Websites verwendet werden, wie beispielsweise beliebte Analysedienste. Da es aus bestimmten Gründen, die in der Regel nicht mit der Technik zusammenhängen, zeitaufwendig sein kann, alle robots.txt-Dateien zu aktualisieren, empfehlen wir euch, mit den Ressourcen anzufangen, die die größten optischen Unterschiede bewirken, wenn sie blockiert sind. Weitere Informationen zu den notwendigen Schritten findet ihr in unserem Hilfeartikel.

Wir hoffen, dass diese neue Funktion euch das Identifizieren von auf eurer Website verwendeten blockierten Ressourcen und das Aufheben der Blockierung erleichtert! Fragen könnte ihr gerne in unseren Hilfeforen für Webmaster posten.

Post von John Mueller, Webmaster Trends Analyst, Google Schweiz
(Veröffentlicht von Johannes Mehlem, Search Quality Team)



Informationen zu übersprungenen Weiterleitungen (Impressionen, Klicks, usw.), 
die für die mobile Website berechnet wurden

Vor dieser Optimierung der Suchanfragen wurden Impressionen für die übersprungene Weiterleitung mit der Desktop-URL in den Webmaster-Tools angezeigt. Die Informationen, wann Weiterlungen übersprungen wurden, ist von uns jetzt konsolidiert, sodass Impressionen, Klicks und CTR nur mit der bestätigten mobilen Website kalkuliert werden.

Best Practices bei einer separaten m.-Website 

Hier einige Empfehlungen zur Benutzerfreundlichkeit für diejenigen von euch, die Inhalte auf separaten m.-Websites veröffentlichen:
  • Fügt auf der Desktop-Seite ein spezielles link rel="alternate"-Tag hinzu, das auf die entsprechende mobile URL verweist. Dadurch findet der Googlebot den Speicherort der mobilen Seiten eurer Website.
  • Fügt auf der mobilen Seite ein link rel="canonical"-Tag hinzu, das auf die entsprechende Desktop-URL verweist.
  • Benutzt den HTTP Vary: User-Agent-Header, wenn eure Server die Nutzer automatisch anhand ihres User-Agents/Geräts weiterleiten.
  • Bestätigt die Inhaberschaft sowohl der Desktop-Website (www) als auch der mobilen Website (m.), um die Kommunikation und spezielle Fehlerbehebungsinformationen für die jeweilige Website zu verbessern. 
* Stellt sicher, dass ihr die Inhaberschaft eurer mobilen Website bestätigt habt! Post von Maile Ohye, Developer Programs Tech Lead (Veröffentlicht von Johannes Mehlem, Search Quality Team)


Die App-Indexierung wird bereits in Hunderten Apps eingesetzt. In Deutschland bieten CHIP und Focus dies bereits an. Auf der Google I/O präsentieren wir diese Woche eine Reihe weiterer Funktionen, mit denen wir es euch noch einfacher machen möchten, Tiefenlinks in eurer App einzurichten, eure Website mit eurer App zu verbinden und einen Überblick über die Leistung sowie mögliche Fehler zu erhalten.


Der Einstieg ist ganz einfach

Wir haben die Indexierung von App-Tiefenlinks weiter vereinfacht. Wenn eure App HTTP-Tiefenlinkschemas unterstützt, führt die folgenden Schritte aus:
1. Fügt die Tiefenlink-Unterstützung zur App hinzu.
2. Verknüpft Website und App.
3. Das war's schon.


Im Rahmen der Indexierung eurer URLs erkennen wir die Verbindungen zwischen App und Website und indexieren diese, um die App-Tiefenlinks dann gegebenenfalls in den Suchergebnissen zu berücksichtigen.


Wir erkennen und indexieren App-Tiefenlinks auch dann, wenn ihr sie nicht auszeichnet. Wir empfehlen jedoch, die Tiefenlinks anzugeben. Dies gilt vor allem für Apps, die nur ein benutzerdefiniertes Tiefenlinkschema unterstützen. Es stehen zwei Optionen zum Angeben von Tiefenlinks zur Verfügung:


Außerdem haben wir die Webmaster-Tools um eine neue Funktion erweitert, um euch bei der Behebung eventueller Fehler während der Indexierung von App-Seiten zu unterstützen. So seht ihr den Fehlertyp für fehlerhafte Verbindungen zwischen App-Seiten und Webseiten sowie Beispiel-URIs für Apps, die euch bei der Lösungsfindung helfen sollen:



Ihr findet außerdem eine detaillierte Anleitung zur Behebung der einzelnen Fehler sowie einen QR-Code für die App-Tiefenlinks, um die verlinkten Seiten ganz einfach auf einem Mobiltelefon oder Tablet zu öffnen. Ihr erhaltet außerdem Fehlerbenachrichtigungen in den Webmaster-Tools, damit ihr immer auf dem neuesten Stand seid.



Probiert es einfach aus und gebt uns im Forum für Webmaster Bescheid, falls ihr Fragen zur App-Indexierung habt.


Post von Mariya Moeva, Webmaster Trends Analyst
(Veröffentlicht von Johannes Mehlem, Search Quality Team)

Share on Twitter Share on Facebook

Gerenderte Seite ansehen

Zum Rendern der Seite sucht der Googlebot nach allen zugehörigen externen Dateien und versucht, sie ebenfalls abzurufen. Bei diesen Dateien handelt es sich oft um Bilder, CSS- und JavaScript-Dateien sowie sonstige Dateien, die indirekt über den CSS- oder JavaScript-Code eingebettet sein können. Anschließend wird mit ihrer Hilfe ein Vorschaubild gerendert, das die Sicht des Googlebots auf die Seite wiedergibt.

Ihr findet die Funktion "Abruf wie durch Google" im Abschnitt "Crawling" der Google Webmaster-Tools. Wartet nach dem Senden einer URL mittels "Abrufen und rendern" auf deren Verarbeitung. Dies kann bei manchen Seiten einen Moment dauern. Sobald die Seite verarbeitet wurde, klickt ihr auf die Antwortzeile, um euch die Ergebnisse anzusehen.

fetch-as-google-rendered-analytics.png

Umgang mit von robots.txt blockierten Ressourcen

Der Googlebot richtet sich bei allen Dateien, die er abruft, nach den Anweisungen in der robots.txt-Datei. Wenn ihr das Crawling einiger dieser Dateien nicht gestattet oder wenn sie über einen Server eines Drittanbieters eingebettet werden, der das Crawling durch den Googlebot unterbindet, können wir euch die Dateien nicht in der gerenderten Ansicht zeigen. Wir können sie ebenfalls nicht verwenden, wenn der Server nicht antwortet oder Fehler zurückgibt. Solche Probleme sind in den Webmaster-Tools im Abschnitt Crawling-Fehler aufgeführt. Wenn wir auf eines dieser Probleme stoßen, weisen wir unterhalb des Vorschaubilds darauf hin.
Wir empfehlen euch daher, dafür zu sorgen, dass der Googlebot auf alle eingebetteten Ressourcen zugreifen kann, die für die sichtbaren Inhalte oder das Layout eurer Website wichtig sind. Zum einen erleichtert euch das die Verwendung von "Abruf wie durch Google", zum anderen kann der Googlebot dann diese Inhalte finden und indexieren. Einige Inhaltstypen – z. B. Schaltflächen sozialer Medien, Schriftarten oder Skripts zur Websiteanalyse – sind für die sichtbaren Inhalte oder das Layout oft weniger bedeutsam und ihr Crawling kann daher weiterhin untersagt bleiben. Weitere Informationen findet ihr im vorherigen Blogpost zum neuen Verfahren von Google zur besseren Analyse des Webs.

Wir hoffen, dass euch dieses Update die Diagnose solcher Probleme erleichtert und bei der Erkennung von Inhalten hilft, deren Crawling versehentlich blockiert wurde. Wenn ihr Kommentare oder Fragen habt, könnt ihr diese hier oder im Forum für Webmaster posten.

Post von Shimi Salant, Webmaster Tools team
(Veröffentlicht von Johannes Mehlem, Search Quality Team)
Share on Twitter Share on Facebook

Ursprünglich haben wir uns nur die reinen Textinhalte angesehen, die wir in HTTP-Antworten erhielten, und haben nicht analysiert, was ein typischer Browser abrufen würde, der JavaScript ausführt. Als es dann immer mehr Seiten gab, auf denen wertvolle Inhalte mit JavaScript gerendert wurden, konnten wir diese den suchenden Nutzern nicht anzeigen. Das war sowohl für die Suchenden als auch für die jeweiligen Webmaster ein Nachteil.

Um dieses Problem zu beheben, beschlossen wir, auszuprobieren, ob die Analyse der Seiten durch das Ausführen von JavaScript möglich sei. Dieses Vorgehen ist beim aktuellen Umfang des Webs recht schwierig, aber wir waren der Ansicht, dass es einen Versuch wert sei. Wir haben dieses Verfahren im Laufe der Zeit schrittweise verbessert. In den letzten Monaten hat unser Indexierungssystem eine große Anzahl an Webseiten beinahe wie einnormaler Nutzer gerendert, der einen Browser mit aktiviertem JavaScript verwendet.

Manche Abläufe beim Rendern sind nicht perfekt und können die Suchergebnisse für eure Websites beeinträchtigen. Im Folgenden findet ihr einige potenzielle Probleme und – sofern verfügbar – auch Vorschläge, wie ihr diese verhindern könnt:
Um das Debugging zu vereinfachen, entwickeln wir momentan ein Tool, das Webmastern ein besseres Verständnis vermitteln soll, wie Google ihre Websites rendert. Es sollte in den nächsten Tagen in den Webmaster-Tools verfügbar sein. Antworten auf Fragen findet ihr in unserem Forum für Webmaster.

Post von Michael Xu, Software Engineer, und Kazushi Nagayama, Webmaster Trends Analyst
(Veröffentlicht von Johannes Mehlem, Search Quality Team)

Share on Twitter Share on Facebook

Google zeigt diese Meldung in Suchergebnissen für Websites an, die unserer Ansicht nach möglicherweise manipuliert wurden. Ihr denkt jetzt vielleicht: Warum sollte meine Website Ziel von Hackern sein? Aber das kommt überraschend häufig vor. Hacker greifen eine Vielzahl von Websites im gesamten Web an. Dabei haben sie es entweder auf die Nutzer abgesehen oder möchten sich den Ruf der Website zunutze machen.

Meist fügen Hacker Spamseiten zu Websites hinzu, die nicht ausreichend geschützt sind. Diese Spamseiten werden dann zu unterschiedlichen Zwecken genutzt, etwa um Nutzer auf unerwünschte oder schädliche Zielseiten weiterzuleiten. Seit Kurzem tauchen immer mehr gehackte Websites auf, die Nutzer auf gefälschte Shopping-Websites weiterleiten.

Der Großteil der Hacks, die wir in Deutschland gesehen haben, bezieht sich auf Pharma Keywords sowie Replica Keywords von bestimmten Marken (wie auch unten im Screenshot mit den Suchanfragen gesehen werden kann).

Sobald ihr feststellt, dass eure Website möglicherweise gehackt wurde, ist es wichtig, das Problem schnellstmöglich zu diagnostizieren und zu beheben. Wir möchten Webmastern beim Schutz ihrer Websites helfen, damit Nutzer vor Spam oder schädlichen Inhalten sicher sind.

Drei Tipps, wie ihr gehackte Inhalte auf eurer Website findet

  1. Überprüft eure Website auf verdächtige URLs oder Verzeichnisse.
Haltet Ausschau nach verdächtigen Aktivitäten auf eurer Website. Hierzu führt ihr einfach eine "site:"-Suche nach eurer Website in Google durch, zum Beispiel [site:ihremusterdomain.de]. Tauchen irgendwelche verdächtigen URLs oder Verzeichnisse auf, die euch nicht bekannt vorkommen?
Ihr könnt auch einen Google Alert für eure Website einrichten. Wenn ihr zum Beispiel einen Google Alert für [site:ihremusterdomain.de (viagra|cialis|louis vuitton|moncler)] einrichtet, erhaltet ihr eine E-Mail, wenn diese Keywords auf eurer Website gefunden werden.
  1. Haltet nach unnatürlichen Suchanfragen auf der Seite "Suchanfragen" in den Webmaster-Tools Ausschau.
Die Seite Suchanfragen enthält Informationen zu Google Websuche-Anfragen, die URLs eurer Website zurückgegeben haben. Achtet auf unerwartete Suchanfragen, da dies ein Hinweis für gehackte Inhalte auf eurer Website sein kann.
Lasst Suchanfragen in anderen Sprachen nicht gleich außer Acht. Diese könnten auf Spamseiten in anderen Sprachen hindeuten, die auf eurer Website platziert wurden.



                    Beispiel einer gehackten Website mit "viagra", "cheap handbags", "cialis" & "cheap shoes" in den Suchanfragen
  1. Aktiviert die E-Mail-Weiterleitung in den Webmaster-Tools.
Google sendet euch eine Nachricht, sobald wir feststellen, dass eure Website möglicherweise manipuliert wurde. Die entsprechenden Meldungen erscheinen im Nachrichten-Center der Webmaster-Tools, es ist jedoch ratsam, diese auch an eure E-Mail-Adresse weiterzuleitenBeachtet, dass Google nicht alle Arten von gehackten Inhalten erkennen kann. Wir hoffen jedoch, dass wir euch durch unsere Benachrichtigungen auf Dinge aufmerksam machen können, die euch vielleicht entgangen sind.

Tipps zum Beheben und Vorbeugen von Hacking

Im Abschnitt Sicherheitsprobleme der Webmaster-Tools findet ihr gehackte Seiten, die wir auf eurer Website gefunden haben. Darüber hinaus erhaltet ihr detaillierte Informationen, um eure gehackte Website wieder in Ordnung zu bringenDiese solltet ihr unbedingt lesen, um die Probleme schnell und effektiv beheben zu können.
Es ist besser, Websites vor Hackerangriffen zu schützen, als gehackte Inhalte zu bereinigen. Hacker nutzen häufig Sicherheitslücken bei gängiger Software zur Websiteverwaltung aus. Hier findet ihr einige Tipps, um eure Website vor Hackern zu schützen:
Wir hoffen, dass ihr mithilfe der Informationen in diesem Blogpost gehackte Spaminhalte auf eurer Website einfacher erkennen, bereinigen und verhindern könnt. Falls ihr Fragen habt, postet einfach einen Kommentar oder schaut im Forum für Webmaster vorbei.
Habt ihr verdächtige Websites in den Google-Suchergebnissen entdeckt? Dann meldet sie über das Tool Spam-Bericht.


Post von Megumi Hitomi, Search Quality Team Japan (Veröffentlicht von Johannes Mehlem, Search Quality Team)

Share on Twitter Share on Facebook

Seit einiger Zeit führen wir manuelle Spam-Maßnahmen für Websites und gesamte Netzwerke durch, welche aggressiv und wissentlich unsere Richtlinien für Webmaster verletzt haben. Wir möchten diese Möglichkeit nutzen, um daran zu erinnern, dass ähnlich täuschende Linktauschprogramme nicht unseren Richtlinien entsprechen. Wir werden weiterhin angemessene Maßnahmen vornehmen, wenn wir unnatürliches Linkverhalten erkennen. Dieser Post beabsichtigt, darüber aufzuklären, welche Arten von Links abträglich für das Ranking und das Ansehen eurer Website sind und was zu tun ist nach einer manuellen Spam-Maßnahme auf eurer Website.

Welche Arten von Links werden als abträglich gesehen?

Links zu eurer Website
Teilnahme an Linktauschprogrammen im Sinne von gekauften Links, welche PageRank weitergeben, um unsere Suchmaschinenergebnisse zu verzerren, ist gegen unserer Richtlinien (Linktauschprogramme).

Wie kürzlich in einem Blogpost von Matt Cutts angesprochen (The decay and fall of guest blogging for SEO), hat sich die Art und Durchführung von Gastbeiträgen auf Blogs von einer respektablen Tätigkeit zu einem spammigen Unterfangen entwickelt. Es gab also oft nur das Ziel des schnellen Linkaufbaus gepaart mit Beiträgen von geringer Qualität.

Ebenso, werden Artikel- oder Linkverzeichnissen als Methode des Linkaufbaus als unnatürlich angesehen. Mehr Details dazu in diesem Video.

Links von eurer Website
Wir würden gerne hinsichtlich ausgehender Links von eurer Website oder eurem Blog daran erinnern, dass Praktiken wie verkaufte Links, welche PageRank weitergeben, Content Placement oder Blog-Marketing eindeutig gegen unsere Richtlinien sprechen. Gesamte Netzwerke, welche lediglich für platzierte Links erstellt wurden, die unsere Ranking-Signale verzerren, entsprechen nicht unseren Richtlinien für Webmaster (Unnatürliche Links von Ihrer Seite).

Wir regen sehr dazu an, die Richtlinien für Webmaster zu lesen und damit anzufangen das Linkprofil eurer Seite im Blick zu behalten, um zu gewährleisten, dass es nicht spammig erscheint. Wenn ihr glaubt, dass manche Links verdächtig sind, dann sollte ihr diese entfernen oder eure Online-Agentur fragen dies zu tun. Wie in unserem französischen Blogpost erwähnt, könnt ihr einen Link-spezifischen Spam-Report durchführen, insofern ihr meint, dass eine Website zweifelhafte Methoden anwendet oder falls ein anderer Webmaster euch für Linktausch kontaktieren sollte. Somit könnt ihr uns helfen, die Qualität der Suchergebnisse zu erhalten.

Was sollte ich tun bei einer manuellen Spam-Maßnahme auf meiner Website?

Wenn eure Website über eine manuelle Spam-Maßnahme verfügt, könnt ihr diese Information in eurem Google Webmaster-Tools Konto sehen, unter Suchanfragen → Manuelle Maßnahmen. Nach dem ihr eure Website entsprechend aufgeräumt habt, könnt ihr einen Antrag auf erneute Überprüfung stellen. Es ist wichtig, dass ihr euch um das beschriebene Verhalten kümmert, bevor ihr einen Antrag stellt. Im Fall von Links zu eurer Website bedeutet dies, dass ihr die Webmaster kontaktiert und bittet die problematischen Links von deren Seite zu entfernen. Als letzter Ausweg, sofern die Links nicht entfernt werden können, könnt ihr Links für ungültig erklären. Bei spammigen Links sowie gekauften Links von einer Seite zu einer anderen, vergewissert euch, dass diese Links entweder entfernt sind oder rel"nofollow" nutzen. Lest auch unseren anderen Post über weitere wichtige Aspekte bei Anträgen auf erneute Überprüfung. Sofern ihr irgendwelche Bemerkungen oder Fragen habt, könnt ihr diese entweder hier als Kommentar oder auch im Forum für Webmaster posten.

Post von Johannes Mehlem (Search Quality Team)

Share on Twitter Share on Facebook

In der Vergangenheit gab es bei Webmastern gelegentlich Verwirrung darüber, wie Crawling-Fehler auf weiterleitenden Seiten in den Webmaster-Tools angezeigt werden. Es ist also an der Zeit, die Diagnose klarer und einfacher zu gestalten! Während wir früher den Fehler auf der ursprünglichen weiterleitenden URL gemeldet haben, zeigen wir jetzt den Fehler auf der endgültigen URL an. Diese URL gibt den eigentlichen Fehlercode zurück.

Hier ein Beispiel:


URL A leitet auf URL B weiter, die wiederum einen Fehler zurückgibt. Die Art der Weiterleitung und der Fehlertyp sind hier nicht relevant.

In der Vergangenheit haben wir den am Ende aufgezeichneten Fehler unter URL A gemeldet. Jetzt wird er stattdessen unter URL B gemeldet. Dies vereinfacht die Diagnose der in den Webmaster-Tools angezeigten Crawling-Fehler. Mit Tools wie cURL oder eurer bevorzugten Online-Server-Header-Prüfung könnt ihr nun einfach bestätigen, dass der eigentliche Fehler von URL B ausgeht.

Diese Änderung ist möglicherweise auch in der Gesamtfehleranzahl mancher Websites sichtbar. Wenn eure Website beispielsweise auf eine neue Domain umzieht, werden nur diese Fehler für die neue Domain angezeigt, vorausgesetzt, die alte Domain leitet korrekt weiter. Dies kann zu merklichen Änderungen der Gesamtfehleranzahl für solche Websites führen.

Beachtet, dass diese Änderung sich nur darauf auswirkt, wie die Crawling-Fehler in den Webmaster-Tools angezeigt werden. Bedenkt außerdem, dass Crawling-Fehler für URLs, die Fehler zurückgeben sollten (z. B. nicht vorhandene URLs) keine negativen Auswirkungen auf die Indexierung oder das Ranking der übrigen Website haben (auch diskutiert auf Google+).

Wir hoffen, diese Änderung vereinfacht das Aufspüren von Crawling-Fehlern und die Bereinigung von unbeabsichtigten Fehlern, die euch nicht bewusst waren. Falls ihr noch Fragen habt, könnt ihr sie gerne hier posten oder einen Blick in die Foren für Webmaster von Google werfen.

Post von John Mueller, Webmaster Trends Analyst (Veröffentlicht von Johannes Mehlem, Search Quality Team)

Share on Twitter Share on Facebook

Seit seiner Einführung im letzten Jahr ist das Dashboard für strukturierte Daten sehr schnell zu einer der beliebtesten Funktionen in Webmaster-Tools avanciert. Das Dashboard wurde erweitert und Fehler können nun noch einfacher behoben werden, denn jetzt könnt ihr sehen, wie Google den mit Markup versehenen Inhalt eurer Website interpretiert.
Ab heute werden Elemente mit Fehlern im Dashboard für strukturierte Daten angezeigt. Diese neue Funktion ist in Zusammenarbeit mit Webmastern entstanden, die wir im Juni eingeladen hatten, an einer frühen Testphase (Englisches Formular) für Markup-Fehlerberichte in Webmaster-Tools teilzunehmen. Das daraus gewonnene Feedback wurde verwendet, um die Funktionen des Dashboards für strukturierte Daten zu verbessern.
Ein Element steht hier für ein Top-Level-Element strukturierter Daten, das im HTML-Code getaggt ist. Geschachtelte Elemente werden nicht berücksichtigt. Die Elemente werden entsprechend dem Datentyp zusammengefasst und nach Anzahl der Fehler angeordnet:

Wir haben rechts neben der Grafik im Dashboard eine separate Fehlertabelle hinzugefügt, damit ihr die Elemente und Fehler im zeitlichen Verlauf vergleichen könnt. So können Zusammenhänge zwischen Änderungen, die ihr auf der Website vorgenommen habt, und Markup-Fehlern, die auftreten – oder verschwinden – erkannt werden.
Unsere Daten-Pipelines wurden ebenfalls aktualisiert, um eine umfassendere Berichterstellung zu ermöglichen. Deshalb kann es sein, dass ihr zunächst weniger Datenpunkte in dem chronologischen Diagramm seht.

So behebt ihr Fehler bei der Markup-Implementierung
  1. Um ein Problem mit einem bestimmten Inhaltstyp zu untersuchen, klickt einfach darauf und wir zeigen euch die Markup-Fehler, die wir für diesen Inhaltstyp gefunden haben. Ihr könnt alle Fehler auf einmal ansehen oder unter Verwendung der Tabs oben nach Fehlertyp filtern:

  1. Prüft, ob das Markup den Richtlinien für die Implementierung des jeweiligen Inhaltstyps entspricht.
    In unserem Beispiel – Ereignis-Markup – fehlen bei einigen Elementen die Eigenschaften startDate oder name. Ebenso werden fehlende Eigenschaften für verschachtelte Inhaltstypen angezeigt. Hierbei könnte es sich beispielsweise um ein Bewertungselement innerhalb eines Produktelements handeln, in unserem Fall handelt es sich jedoch um die Eigenschaft lowprice.
  1. Klickt auf die URLs in der Tabelle, um Details zu fehlenden Elementen und zum Markup aufzurufen, die wir beim letzten Crawl erfasst haben. Ihr könnt euer Markup auch mithilfe der Schaltfläche "Live-Daten testen" im Test-Tool für strukturierte Daten testen. Bei der Überprüfung mehrerer URLs wird häufig ein gemeinsamer Fehler entdeckt, der mit einer einzigen Änderung behoben werden kann, zum Beispiel durch die Anpassung einer Einstellung oder Vorlage in eurem Content-Management-System.

  1. Behebt die Fehler und prüft die neue Implementierung im Test-Tool für strukturierte Daten. Nach dem erneuten Crawlen und Indexieren werden die Änderungen im Dashboard für strukturierte Daten angezeigt.
Wir hoffen, dass euch diese neue Funktion bei der Verwaltung von strukturierten Daten auf euer Website hilft. In den nächsten Monaten werden wir weitere Fehlertypen hinzufügen. Wir freuen uns auf eure Kommentare und Fragen hier in diesem Blog oder im Abschnitt "Strukturierte Daten" im Forum für Webmaster.

Post von Mariya Moeva, Webmaster Trends Analyst, Yaniv Loewenstein und Matan Zinger, Webmaster-Tools-Team (Veröffentlicht von Johannes Mehlem, Search Quality Team)

Share on Twitter Share on Facebook


Zu diesen Fehlern gehören: Das Beheben aller in den Webmaster-Tools angezeigten Fehler verbessert eure Website für Nutzer und hilft unseren Algorithmen, eure Inhalte besser zu indexieren. Ihr könnt mehr über das Erstellen von Websites für Smartphones erfahren und wie man häufige Fehler behebt. Wie immer fragt bitte in unseren Foren nach, falls ihr Probleme habt.
Post von Pierre Far, Webmaster Trends Analyst (Veröffentlicht von Johannes Mehlem, Search Quality Team)
Share on Twitter Share on Facebook


Diese Video behandelt die folgenden Allgemeinthemen (und ihr könnt zu der für euch am interessantesten Stelle im Video springen):



Erstellen einer SEO-Strategie
    1. Versteht den Suchprozess des Users
    2. Legt die Ziele für das Unternehmen und die Website fest
    3. Untersucht die beste Taktik, um eure Zielgruppe zu erreichen
    4. Führt die Strategie aus und macht Verbesserungen
Ihr könnt euch auch die entsprechende Präsentation anschauen.


Post von Maile Ohye, Developer Programs Tech Lead (Veröffentlicht von Johannes Mehlem, Search Quality Team)

Share on Twitter Share on Facebook




Schnellere Lokalisierung eines Problems mithilfe von detaillierten Code-Snippets
Sofern möglich, zeigen wir euch die HTML- und JavaScript-Code-Snippets der gehackten URLs an und stellen euch eine Liste empfohlener Maßnahmen zur Verfügung. Das kann euch dabei helfen , den von uns identifizierten Typ des Hackings zu entfernen.




Eine Überprüfung sämtlicher Probleme in einem Schritt anfordern
Außerdem haben wir den Vorgang vereinfacht, eine Überprüfung anzufordern. Wenn ihr eure Site gereinigt und die Sicherheitslücken geschlossen haben, könnt ihr eine Überprüfung sämtlicher Probleme durch Anklicken einer einzigen Schaltfläche auf der Seite für Sicherheitsprobleme anfordern.



Falls ihr weitere Unterstützung benötigt,  könnt ihr unser aktualisiertes und erweitertes Hilfe-Portal für gehackte Sites besuchen, das jetzt in 22 neuen Sprachen verfügbar ist. Wir freuen uns über euer Feedback hier in den Kommentaren oder im Forum für Webmaster!

Post von Meenali Rungta, Webspam-Team und Hadas Fester, Webmaster-Tools-Team (Veröffentlicht von Sven Naumann, Search Quality Team)
Share on Twitter Share on Facebook