Wir freuen uns auf eine spannende Zukunft mit der Google Search Console und hoffen, dass Nutzer aus allen Bereichen – einschließlich der Webmaster – unsere Dienste für die Diagnose und die Verbesserung der Sichtbarkeit ihrer Inhalte bei der Suche einsetzen werden. Wir werden den neuen Namen im Laufe der nächsten Wochen im Produkt implementieren.
Kommt einfach zu g.co/SearchConsole und legt los!
Post von Michael Fink, Produktmanager für die Google Search Console
(Veröffentlicht von Sven Naumann, Search Quality Team)
Wenn ihr eine internationale Website habt, könnt ihr auch die Länder ermitteln, in denen Nutzer am häufigsten nach eurer Marke suchen: Wählt "Impressionen" als Messwert aus, filtert nach eurem Markennamen und gruppiert die Ergebnisse nach Ländern, um eine sortierte Liste der Impressionen nach Ländern zu erhalten.
Dies sind nur zwei von vielen Anwendungsbeispielen. Mit Suchanalyse könnt ihr erheblich präzisiere Analysen für Zugriffe erstellen, sodass ihr die richtigen Entscheidungen im Hinblick auf die Leistung eurer Website treffen könnt.
Es bestehen einige Unterschiede zwischen "Suchanalyse" und "Suchanfragen". Die Daten in der Suchanalyse sind viel genauer als die Daten im älteren Bericht "Suchanfragen" und sie werden anders berechnet. Weitere Informationen dazu erhaltet ihr im Abschnitt zu den Daten im Hilfeartikel für Suchanalyse. Uns ist bewusst, dass einige von euch weiterhin den alten Bericht nutzen müssen. Daher haben wir uns entschieden, ihn noch für drei weitere Monate in den Google Webmaster-Tools zur Verfügung zu stellen. Weitere Informationen zum neuen Bericht erhaltet ihr im Hilfeartikel Suchanalyse.
Wir hoffen, dass die neue Suchanalyse hilfreich für die Analyse eurer Zugriffe ist. Wenn ihr Fragen habt oder Hilfe mit dem Bericht benötigt, könnt ihr einfach wie immer einen Beitrag in unserem Webmaster-Hilfeforum posten.
Zu guter Letzt möchten wir noch unseren Trusted Testern und den Top-Beitragenden in unseren Webmaster-Foren danken, die die Alphaversion der Suchanalyse getestet und uns dabei geholfen haben, diesen Bericht weiterzuentwicklen: Ohne euer regelmäßiges Feedback und eure vielen Vorschläge wäre er uns nicht so gut gelungen. Vielen Dank für eure tolle Unterstützung!
Post von Zineb, im Namen der großartigen Programmierer der Google Webmaster-Tools und Designer der Benutzeroberfläche (Veröffentlicht von Johannes Mehlem, Search Quality Team)
Am Anfang dieses Berichts stehen die Namen der Hosts der auf eurer Website verwendeten blockierten Ressourcen, beispielsweise JavaScript- oder CSS-Dateien und Bilder. Wenn ihr auf die Zeilen klickt, seht ihr die Liste der blockierten Ressourcen und danach die Seiten, auf denen sie eingebettet sind. Dabei werdet ihr durch die Schritte geführt, mit denen ihr eine Diagnose ausführen und sicherstellen könnt, dass wir den Seiteninhalt crawlen und indexieren können.
Im aktualisierten Abschnitt Abrufen und rendern könnt ihr nachlesen, inwiefern diese blockierten Ressourcen wichtig sind. Wenn ihr das Abrufen und Rendern einer URL anfordert, seht ihr jetzt Screenshots, die zeigen, wie die Seite für den Googlebot und für einen regulären Nutzer dargestellt wird. So könnt ihr die Probleme leichter erkennen, die bewirken, dass eure Seiten für den Googlebot anders aussehen.
Die Webmaster-Tools versuchen, euch nur die Hosts zu zeigen, bei denen ihr eventuell auch Einflussmöglichkeiten habt. Daher seht ihr in dem Bericht momentan keine Hosts, die von vielen verschiedenen Websites verwendet werden, wie beispielsweise beliebte Analysedienste. Da es aus bestimmten Gründen, die in der Regel nicht mit der Technik zusammenhängen, zeitaufwendig sein kann, alle robots.txt-Dateien zu aktualisieren, empfehlen wir euch, mit den Ressourcen anzufangen, die die größten optischen Unterschiede bewirken, wenn sie blockiert sind. Weitere Informationen zu den notwendigen Schritten findet ihr in unserem Hilfeartikel.
Wir hoffen, dass diese neue Funktion euch das Identifizieren von auf eurer Website verwendeten blockierten Ressourcen und das Aufheben der Blockierung erleichtert! Fragen könnte ihr gerne in unseren Hilfeforen für Webmaster posten.
Post von John Mueller, Webmaster Trends Analyst, Google Schweiz
(Veröffentlicht von Johannes Mehlem, Search Quality Team)
Informationen zu übersprungenen Weiterleitungen (Impressionen, Klicks, usw.),
die für die mobile Website berechnet wurden
Vor dieser Optimierung der Suchanfragen wurden Impressionen für die übersprungene Weiterleitung mit der Desktop-URL in den Webmaster-Tools angezeigt. Die Informationen, wann Weiterlungen übersprungen wurden, ist von uns jetzt konsolidiert, sodass Impressionen, Klicks und CTR nur mit der bestätigten mobilen Website kalkuliert werden.
Best Practices bei einer separaten m.-Website
Hier einige Empfehlungen zur Benutzerfreundlichkeit für diejenigen von euch, die Inhalte auf separaten m.-Websites veröffentlichen:
Fügt auf der Desktop-Seite ein spezielles link rel="alternate"-Tag hinzu, das auf die entsprechende mobile URL verweist. Dadurch findet der Googlebot den Speicherort der mobilen Seiten eurer Website.
Fügt auf der mobilen Seite ein link rel="canonical"-Tag hinzu, das auf die entsprechende Desktop-URL verweist.
Benutzt den HTTP Vary: User-Agent-Header, wenn eure Server die Nutzer automatisch anhand ihres User-Agents/Geräts weiterleiten.
Bestätigt die Inhaberschaft sowohl der Desktop-Website (www) als auch der mobilen Website (m.), um die Kommunikation und spezielle Fehlerbehebungsinformationen für die jeweilige Website zu verbessern.
* Stellt sicher, dass ihr die Inhaberschaft eurer mobilen Website bestätigt habt!
Post von Maile Ohye, Developer Programs Tech Lead (Veröffentlicht von Johannes Mehlem, Search Quality Team)
Die App-Indexierung wird bereits in Hunderten Apps eingesetzt. In Deutschland bieten CHIP und Focus dies bereits an. Auf der Google I/O präsentieren wir diese Woche eine Reihe weiterer Funktionen, mit denen wir es euch noch einfacher machen möchten, Tiefenlinks in eurer App einzurichten, eure Website mit eurer App zu verbinden und einen Überblick über die Leistung sowie mögliche Fehler zu erhalten.
Im Rahmen der Indexierung eurer URLs erkennen wir die Verbindungen zwischen App und Website und indexieren diese, um die App-Tiefenlinks dann gegebenenfalls in den Suchergebnissen zu berücksichtigen.
Wir erkennen und indexieren App-Tiefenlinks auch dann, wenn ihr sie nicht auszeichnet. Wir empfehlen jedoch, die Tiefenlinks anzugeben. Dies gilt vor allem für Apps, die nur ein benutzerdefiniertes Tiefenlinkschema unterstützen. Es stehen zwei Optionen zum Angeben von Tiefenlinks zur Verfügung:
Fügt das <link>-Element "rel=alternate" im <head>-Abschnitt der einzelnen Webseiten oder in der Sitemap ein, um die jeweiligen App-URIs anzugeben. Weitere Informationen zur Umsetzung dieser Methoden findet ihr auf unserer Website für Entwickler.
Außerdem haben wir die Webmaster-Tools um eine neue Funktion erweitert, um euch bei der Behebung eventueller Fehler während der Indexierung von App-Seiten zu unterstützen. So seht ihr den Fehlertyp für fehlerhafte Verbindungen zwischen App-Seiten und Webseiten sowie Beispiel-URIs für Apps, die euch bei der Lösungsfindung helfen sollen:
Ihr findet außerdem eine detaillierte Anleitung zur Behebung der einzelnen Fehler sowie einen QR-Code für die App-Tiefenlinks, um die verlinkten Seiten ganz einfach auf einem Mobiltelefon oder Tablet zu öffnen. Ihr erhaltet außerdem Fehlerbenachrichtigungen in den Webmaster-Tools, damit ihr immer auf dem neuesten Stand seid.
Probiert es einfach aus und gebt uns im Forum für Webmaster Bescheid, falls ihr Fragen zur App-Indexierung habt.
Zum Rendern der Seite sucht der Googlebot nach allen zugehörigen externen Dateien und versucht, sie ebenfalls abzurufen. Bei diesen Dateien handelt es sich oft um Bilder, CSS- und JavaScript-Dateien sowie sonstige Dateien, die indirekt über den CSS- oder JavaScript-Code eingebettet sein können. Anschließend wird mit ihrer Hilfe ein Vorschaubild gerendert, das die Sicht des Googlebots auf die Seite wiedergibt.
Ihr findet die Funktion "Abruf wie durch Google" im Abschnitt "Crawling" der Google Webmaster-Tools. Wartet nach dem Senden einer URL mittels "Abrufen und rendern" auf deren Verarbeitung. Dies kann bei manchen Seiten einen Moment dauern. Sobald die Seite verarbeitet wurde, klickt ihr auf die Antwortzeile, um euch die Ergebnisse anzusehen.
Umgang mit von robots.txt blockierten Ressourcen
Der Googlebot richtet sich bei allen Dateien, die er abruft, nach den Anweisungen in der robots.txt-Datei. Wenn ihr das Crawling einiger dieser Dateien nicht gestattet oder wenn sie über einen Server eines Drittanbieters eingebettet werden, der das Crawling durch den Googlebot unterbindet, können wir euch die Dateien nicht in der gerenderten Ansicht zeigen. Wir können sie ebenfalls nicht verwenden, wenn der Server nicht antwortet oder Fehler zurückgibt. Solche Probleme sind in den Webmaster-Tools im Abschnitt Crawling-Fehler aufgeführt. Wenn wir auf eines dieser Probleme stoßen, weisen wir unterhalb des Vorschaubilds darauf hin.
Wir empfehlen euch daher, dafür zu sorgen, dass der Googlebot auf alle eingebetteten Ressourcen zugreifen kann, die für die sichtbaren Inhalte oder das Layout eurer Website wichtig sind. Zum einen erleichtert euch das die Verwendung von "Abruf wie durch Google", zum anderen kann der Googlebot dann diese Inhalte finden und indexieren. Einige Inhaltstypen – z. B. Schaltflächen sozialer Medien, Schriftarten oder Skripts zur Websiteanalyse – sind für die sichtbaren Inhalte oder das Layout oft weniger bedeutsam und ihr Crawling kann daher weiterhin untersagt bleiben. Weitere Informationen findet ihr im vorherigen Blogpost zum neuen Verfahren von Google zur besseren Analyse des Webs.
Wir hoffen, dass euch dieses Update die Diagnose solcher Probleme erleichtert und bei der Erkennung von Inhalten hilft, deren Crawling versehentlich blockiert wurde. Wenn ihr Kommentare oder Fragen habt, könnt ihr diese hier oder im Forum für Webmaster posten.
Post von Shimi Salant, Webmaster Tools team
(Veröffentlicht von Johannes Mehlem, Search Quality Team)
Ursprünglich haben wir uns nur die reinen Textinhalte angesehen, die wir in HTTP-Antworten erhielten, und haben nicht analysiert, was ein typischer Browser abrufen würde, der JavaScript ausführt. Als es dann immer mehr Seiten gab, auf denen wertvolle Inhalte mit JavaScript gerendert wurden, konnten wir diese den suchenden Nutzern nicht anzeigen. Das war sowohl für die Suchenden als auch für die jeweiligen Webmaster ein Nachteil.
Um dieses Problem zu beheben, beschlossen wir, auszuprobieren, ob die Analyse der Seiten durch das Ausführen von JavaScript möglich sei. Dieses Vorgehen ist beim aktuellen Umfang des Webs recht schwierig, aber wir waren der Ansicht, dass es einen Versuch wert sei. Wir haben dieses Verfahren im Laufe der Zeit schrittweise verbessert. In den letzten Monaten hat unser Indexierungssystem eine große Anzahl an Webseiten beinahe wie einnormaler Nutzer gerendert, der einen Browser mit aktiviertem JavaScript verwendet.
Manche Abläufe beim Rendern sind nicht perfekt und können die Suchergebnisse für eure Websites beeinträchtigen. Im Folgenden findet ihr einige potenzielle Probleme und – sofern verfügbar – auch Vorschläge, wie ihr diese verhindern könnt:
Wenn Ressourcen wie JavaScript oder CSS in separaten Dateien blockiert werden, z. B. in robots.txt, damit der Googlebot sie nicht abrufen kann, kann unser Indexierungssystem eure Websites nicht wie ein normaler Nutzer abrufen. Wir empfehlen daher, dem Googlebot das Abrufen von JavaScript und CSS zu gestatten, damit eure Inhalte besser indexiert werden. Das ist insbesondere bei mobilen Websites wichtig, bei denen externe Ressourcen wie CSS und JavaScript unseren Algorithmen anzeigen, dass die Seiten für Mobilgeräte optimiert sind.
Sollte euer Webserver die hohe Anzahl von Crawling-Anfragen für Ressourcen nicht verarbeiten können, werden eure Seiten von uns möglicherweise nicht korrekt gerendert. Um sicherzustellen, dass eure Seiten von Google gerendert werden können, müssen eure Server die Crawling-Anfragen für Ressourcen verarbeiten können.
Idealerweise sollte eure Website auch auf Fehler und unerwartet auftretende Ereignisse angemessen reagieren (Graceful Degradation). Dadurch können Nutzer auf eure Inhalte auch dann zugreifen, wenn sie in ihren Browsern keine kompatiblen JavaScript-Implementierungen verwenden. Dieses Vorgehen hilft auch Websitebesuchern, die JavaScript deaktiviert haben, und Suchmaschinen, die noch kein JavaScript ausführen können.
In einigen Fällen ist JavaScript unter Umständen zu komplex, sodass wir die Seite nicht vollständig und korrekt rendern können.
Manche JavaScript-Implementierungen entfernen Inhalte von der Seite, statt sie hinzuzufügen, weshalb wir diese Inhalte dann nicht indexieren können.
Um das Debugging zu vereinfachen, entwickeln wir momentan ein Tool, das Webmastern ein besseres Verständnis vermitteln soll, wie Google ihre Websites rendert. Es sollte in den nächsten Tagen in den Webmaster-Tools verfügbar sein. Antworten auf Fragen findet ihr in unserem Forum für Webmaster.
Post von Michael Xu, Software Engineer, und Kazushi Nagayama, Webmaster Trends Analyst
(Veröffentlicht von Johannes Mehlem, Search Quality Team)
Google zeigt diese Meldung in Suchergebnissen für Websites an, die unserer Ansicht nach möglicherweise manipuliert wurden.Ihr denkt jetzt vielleicht: Warum sollte meine Website Ziel von Hackern sein? Aber das kommt überraschend häufig vor. Hacker greifen eine Vielzahl von Websites im gesamten Web an. Dabei haben sie es entweder auf die Nutzer abgesehen oder möchten sich den Ruf der Website zunutze machen.
Meist fügen Hacker Spamseiten zu Websites hinzu, die nicht ausreichend geschützt sind. Diese Spamseiten werden dann zu unterschiedlichen Zwecken genutzt, etwa um Nutzer auf unerwünschte oder schädliche Zielseiten weiterzuleiten. Seit Kurzem tauchen immer mehr gehackte Websites auf, die Nutzer auf gefälschte Shopping-Websites weiterleiten.
Der Großteil der Hacks, die wir in Deutschland gesehen haben, bezieht sich auf Pharma Keywords sowie Replica Keywords von bestimmten Marken (wie auch unten im Screenshot mit den Suchanfragen gesehen werden kann).
Sobald ihr feststellt, dass eure Website möglicherweise gehackt wurde, ist es wichtig, das Problem schnellstmöglich zu diagnostizieren und zu beheben. Wir möchten Webmastern beim Schutz ihrer Websites helfen, damit Nutzer vor Spam oder schädlichen Inhalten sicher sind.
Drei Tipps, wie ihr gehackte Inhalte auf eurer Website findet
Überprüft eure Website auf verdächtige URLs oder Verzeichnisse.
Haltet Ausschau nach verdächtigen Aktivitäten auf eurer Website. Hierzu führt ihr einfach eine "site:"-Suche nach eurer Website in Google durch, zum Beispiel [site:ihremusterdomain.de]. Tauchen irgendwelche verdächtigen URLs oder Verzeichnisse auf, die euch nicht bekannt vorkommen?
Ihr könnt auch einenGoogle Alertfür eure Website einrichten. Wenn ihr zum Beispiel einen Google Alert für [site:ihremusterdomain.de (viagra|cialis|louis vuitton|moncler)] einrichtet, erhaltet ihr eine E-Mail, wenn diese Keywords auf eurer Website gefunden werden.
Haltet nach unnatürlichen Suchanfragen auf der Seite "Suchanfragen" in den Webmaster-Tools Ausschau.
Die Seite Suchanfragen enthält Informationen zu Google Websuche-Anfragen, die URLs eurer Website zurückgegeben haben. Achtet auf unerwartete Suchanfragen, da dies ein Hinweis für gehackte Inhalte auf eurer Website sein kann.
Lasst Suchanfragen in anderen Sprachen nicht gleich außer Acht. Diese könnten auf Spamseiten in anderen Sprachen hindeuten, die auf eurer Website platziert wurden.
Beispiel einer gehackten Website mit "viagra", "cheap handbags", "cialis" & "cheap shoes" in den Suchanfragen
Aktiviert die E-Mail-Weiterleitung in den Webmaster-Tools.
Google sendet euch eine Nachricht, sobald wir feststellen, dass eure Website möglicherweise manipuliert wurde. Die entsprechenden Meldungen erscheinen im Nachrichten-Center der Webmaster-Tools, es ist jedoch ratsam, diese auch an eure E-Mail-Adresse weiterzuleiten. Beachtet, dass Google nicht alle Arten von gehackten Inhalten erkennen kann. Wir hoffen jedoch, dass wir euch durch unsere Benachrichtigungen auf Dinge aufmerksam machen können, die euch vielleicht entgangen sind.
Es ist besser, Websites vor Hackerangriffen zu schützen, als gehackte Inhalte zu bereinigen. Hacker nutzen häufig Sicherheitslücken bei gängiger Software zur Websiteverwaltung aus. Hier findet ihr einige Tipps, um eure Website vor Hackern zu schützen:
Achtet darauf, dass die Software zur Verwaltung eurer Website immer auf dem neuesten Stand ist.
Falls der Softwareanbieter sicherheitsbezogene Informationen bereitstellt, meldet euch für diesen Service an, um die neuesten Updates zu erhalten.
Falls die Software für eure Website von einem Hostanbieter verwaltet wird, wählt einen Anbieter aus, der eurer Ansicht nach die Sicherheit der Website gewährleisten kann.
Wir hoffen, dass ihr mithilfe der Informationen in diesem Blogpost gehackte Spaminhalte auf eurer Website einfacher erkennen, bereinigen und verhindern könnt. Falls ihr Fragen habt, postet einfach einen Kommentar oder schaut im Forum für Webmaster vorbei.
Habt ihr verdächtige Websites in den Google-Suchergebnissen entdeckt? Dann meldet sie über das Tool Spam-Bericht.
Post von Megumi Hitomi, Search Quality Team Japan (Veröffentlicht von Johannes Mehlem, Search Quality Team)
Seit einiger Zeit führen wir manuelle Spam-Maßnahmen für Websites und gesamte Netzwerke durch, welche aggressiv und wissentlich unsere Richtlinien für Webmaster verletzt haben. Wir möchten diese Möglichkeit nutzen, um daran zu erinnern, dass ähnlich täuschende Linktauschprogramme nicht unseren Richtlinien entsprechen. Wir werden weiterhin angemessene Maßnahmen vornehmen, wenn wir unnatürliches Linkverhalten erkennen. Dieser Post beabsichtigt, darüber aufzuklären, welche Arten von Links abträglich für das Ranking und das Ansehen eurer Website sind und was zu tun ist nach einer manuellen Spam-Maßnahme auf eurer Website.
Welche Arten von Links werden als abträglich gesehen?
Links zu eurer Website
Teilnahme an Linktauschprogrammen im Sinne von gekauften Links, welche PageRank weitergeben, um unsere Suchmaschinenergebnisse zu verzerren, ist gegen unserer Richtlinien (Linktauschprogramme).
Wie kürzlich in einem Blogpost von Matt Cutts angesprochen (The decay and fall of guest blogging for SEO), hat sich die Art und Durchführung von Gastbeiträgen auf Blogs von einer respektablen Tätigkeit zu einem spammigen Unterfangen entwickelt. Es gab also oft nur das Ziel des schnellen Linkaufbaus gepaart mit Beiträgen von geringer Qualität.
Ebenso, werden Artikel- oder Linkverzeichnissen als Methode des Linkaufbaus als unnatürlich angesehen. Mehr Details dazu in diesem Video.
Links von eurer Website
Wir würden gerne hinsichtlich ausgehender Links von eurer Website oder eurem Blog daran erinnern, dass Praktiken wie verkaufte Links, welche PageRank weitergeben, Content Placement oder Blog-Marketing eindeutig gegen unsere Richtlinien sprechen. Gesamte Netzwerke, welche lediglich für platzierte Links erstellt wurden, die unsere Ranking-Signale verzerren, entsprechen nicht unseren Richtlinien für Webmaster (Unnatürliche Links von Ihrer Seite).
Wir regen sehr dazu an, die Richtlinien für Webmaster zu lesen und damit anzufangen das Linkprofil eurer Seite im Blick zu behalten, um zu gewährleisten, dass es nicht spammig erscheint. Wenn ihr glaubt, dass manche Links verdächtig sind, dann sollte ihr diese entfernen oder eure Online-Agentur fragen dies zu tun. Wie in unserem französischen Blogpost erwähnt, könnt ihr einen Link-spezifischen Spam-Report durchführen, insofern ihr meint, dass eine Website zweifelhafte Methoden anwendet oder falls ein anderer Webmaster euch für Linktausch kontaktieren sollte. Somit könnt ihr uns helfen, die Qualität der Suchergebnisse zu erhalten.
Was sollte ich tun bei einer manuellen Spam-Maßnahme auf meiner Website?
Wenn eure Website über eine manuelle Spam-Maßnahme verfügt, könnt ihr diese Information in eurem Google Webmaster-Tools Konto sehen, unter Suchanfragen → Manuelle Maßnahmen. Nach dem ihr eure Website entsprechend aufgeräumt habt, könnt ihr einen Antrag auf erneute Überprüfung stellen. Es ist wichtig, dass ihr euch um das beschriebene Verhalten kümmert, bevor ihr einen Antrag stellt. Im Fall von Links zu eurer Website bedeutet dies, dass ihr die Webmaster kontaktiert und bittet die problematischen Links von deren Seite zu entfernen. Als letzter Ausweg, sofern die Links nicht entfernt werden können, könnt ihr Links für ungültig erklären. Bei spammigen Links sowie gekauften Links von einer Seite zu einer anderen, vergewissert euch, dass diese Links entweder entfernt sind oder rel"nofollow" nutzen. Lest auch unseren anderen Post über weitere wichtige Aspekte bei Anträgen auf erneute Überprüfung. Sofern ihr irgendwelche Bemerkungen oder Fragen habt, könnt ihr diese entweder hier als Kommentar oder auch im Forum für Webmaster posten.
In der Vergangenheit gab es bei Webmastern gelegentlich Verwirrung darüber, wie Crawling-Fehler auf weiterleitenden Seiten in den Webmaster-Tools angezeigt werden. Es ist also an der Zeit, die Diagnose klarer und einfacher zu gestalten! Während wir früher den Fehler auf der ursprünglichen weiterleitenden URL gemeldet haben, zeigen wir jetzt den Fehler auf der endgültigen URL an. Diese URL gibt den eigentlichen Fehlercode zurück.
Hier ein Beispiel:
URL A leitet auf URL B weiter, die wiederum einen Fehler zurückgibt. Die Art der Weiterleitung und der Fehlertyp sind hier nicht relevant.
In der Vergangenheit haben wir den am Ende aufgezeichneten Fehler unter URL A gemeldet. Jetzt wird er stattdessen unter URL B gemeldet. Dies vereinfacht die Diagnose der in den Webmaster-Tools angezeigten Crawling-Fehler. Mit Tools wie cURL oder eurer bevorzugten Online-Server-Header-Prüfung könnt ihr nun einfach bestätigen, dass der eigentliche Fehler von URL B ausgeht.
Diese Änderung ist möglicherweise auch in der Gesamtfehleranzahl mancher Websites sichtbar. Wenn eure Website beispielsweise auf eine neue Domain umzieht, werden nur diese Fehler für die neue Domain angezeigt, vorausgesetzt, die alte Domain leitet korrekt weiter. Dies kann zu merklichen Änderungen der Gesamtfehleranzahl für solche Websites führen.
Wir hoffen, diese Änderung vereinfacht das Aufspüren von Crawling-Fehlern und die Bereinigung von unbeabsichtigten Fehlern, die euch nicht bewusst waren. Falls ihr noch Fragen habt, könnt ihr sie gerne hier posten oder einen Blick in die Foren für Webmaster von Google werfen.
Seit seiner Einführung im letzten Jahr ist das Dashboard für strukturierte Daten sehr schnell zu einer der beliebtesten Funktionen in Webmaster-Tools avanciert. Das Dashboard wurde erweitert und Fehler können nun noch einfacher behoben werden, denn jetzt könnt ihr sehen, wie Google den mit Markup versehenen Inhalt eurer Website interpretiert.
Ab heute werden Elemente mit Fehlern im Dashboard für strukturierte Daten angezeigt.Diese neue Funktion ist in Zusammenarbeit mit Webmastern entstanden, die wir im Juni eingeladen hatten, an einer frühen Testphase (Englisches Formular) für Markup-Fehlerberichte in Webmaster-Tools teilzunehmen. Das daraus gewonnene Feedback wurde verwendet, um die Funktionen des Dashboards für strukturierte Daten zu verbessern.
Ein Element steht hier für ein Top-Level-Element strukturierter Daten, das im HTML-Code getaggt ist. Geschachtelte Elemente werden nicht berücksichtigt. Die Elemente werden entsprechend dem Datentyp zusammengefasst und nach Anzahl der Fehler angeordnet:
Wir haben rechts neben der Grafik im Dashboard eine separate Fehlertabelle hinzugefügt, damit ihr die Elemente und Fehler im zeitlichen Verlauf vergleichen könnt. So können Zusammenhänge zwischen Änderungen, die ihr auf der Website vorgenommen habt, und Markup-Fehlern, dieauftreten – oder verschwinden – erkannt werden.
Unsere Daten-Pipelines wurden ebenfalls aktualisiert, um eine umfassendere Berichterstellung zu ermöglichen. Deshalb kann es sein, dass ihr zunächst weniger Datenpunkte in dem chronologischen Diagramm seht.
So behebt ihr Fehler bei der Markup-Implementierung
Um ein Problem mit einem bestimmten Inhaltstyp zu untersuchen, klickt einfach darauf und wir zeigen euch die Markup-Fehler, die wir für diesen Inhaltstyp gefunden haben. Ihr könnt alle Fehler auf einmal ansehen oder unter Verwendung der Tabs oben nach Fehlertyp filtern:
Prüft, ob das Markup denRichtlinien für die Implementierung des jeweiligen Inhaltstyps entspricht. In unserem Beispiel – Ereignis-Markup – fehlen bei einigen Elementen die Eigenschaften startDateoder name. Ebenso werden fehlende Eigenschaften für verschachtelte Inhaltstypen angezeigt. Hierbei könnte es sich beispielsweise um ein Bewertungselement innerhalb eines Produktelements handeln, in unserem Fall handelt es sich jedoch um die Eigenschaft lowprice.
Klickt auf die URLs in der Tabelle, um Details zu fehlenden Elementen und zum Markup aufzurufen, die wir beim letzten Crawl erfasst haben. Ihr könnt euer Markup auch mithilfe der Schaltfläche "Live-Daten testen" im Test-Tool für strukturierte Datentesten. Bei der Überprüfung mehrerer URLs wird häufig ein gemeinsamer Fehler entdeckt, der mit einer einzigen Änderung behoben werden kann, zum Beispiel durch die Anpassung einer Einstellung oder Vorlage in eurem Content-Management-System.
Behebt die Fehler und prüft die neue Implementierung im Test-Tool für strukturierte Daten. Nach dem erneuten Crawlen und Indexieren werden die Änderungen im Dashboard für strukturierte Daten angezeigt.
Wir hoffen, dass euch diese neue Funktion bei der Verwaltung von strukturierten Daten auf euer Website hilft. In den nächsten Monaten werden wir weitere Fehlertypen hinzufügen. Wir freuen uns auf eure Kommentare und Fragen hier in diesem Blog oder im Abschnitt "Strukturierte Daten" im Forum für Webmaster.
Post von Mariya Moeva, Webmaster Trends Analyst, Yaniv Loewenstein und Matan Zinger, Webmaster-Tools-Team (Veröffentlicht von Johannes Mehlem, Search Quality Team)