Kostenlose Webhosting- Dienste sind meistens etwas sehr Nützliches. Viele von ihnen helfen Webmastern, Kosten zu senken und technische Barrieren zu überwinden. Vielen Neulingen unter den Webmastern ermöglichen sie überhaupt erst den Einstieg in ihr Onlineprojekt. Leider sind diese niedrigeren Barrieren, die eigentlich weniger technisch versierte Nutzer zum Einrichten einer Website ermutigen sollen, auch für zweifelhafte Charaktere wie Spammer leichter zu überwinden. Diese suchen nach günstigen, einfachen Möglichkeiten, Dutzende oder gar Hunderte von Websites einzurichten, die im Web nur wenig oder überhaupt keinen Nutzen darstellen. Unsere Haltung gegenüber automatisch generierten Websites bleibt unverändert: Wenn diese keinen nennenswerten Wertgewinn darstellen, betrachten wir sie als Spam und ergreifen entsprechende Maßnahmen, um zu verhindern, dass unsere Nutzer solche Websites in den Ergebnissen der organischen Suche sehen.

Automatisch generierte Websites wie diese werden als Spam betrachtet.

Wenn auf einem kostenlosen Hosting-Dienst an Spam erinnernde Muster auftauchen, achten wir sehr darauf, dies differenziert zu beurteilen und nur gegen wirkliche Spam-Seiten oder -Websites vorzugehen. Manchmal kommt es jedoch so weit, dass Spammer den kostenlosen Webhosting-Dienst komplett oder größtenteils beherrschen. In solchen Fällen sehen wir uns gezwungen, entschiedene Maßnahmen zum Schutz unserer Nutzer zu ergreifen. Dann kann es dazu kommen, dass wir den Webhosting-Dienst komplett aus unseren Suchergebnissen entfernen. Um dies zu vermeiden, möchten wir die Inhaber kostenloser Webhosting-Dienste unterstützen, indem wir ihnen Tipps dazu geben, wie sie wertvolle Ressourcen wie Bandbreite und Rechenleistung sparen und ihren Hosting-Dienst vor Spammern schützen können:

  • Veröffentlicht eindeutige Richtlinien gegen Missbrauch und teilt sie euren Nutzern mit, etwa bei der Registrierung. So könnt ihr unmissverständlich klarstellen, was ihr als Spam betrachtet.
  • In Anmeldeformularen ist der Einsatz von Captchas (auf Englisch) oder vergleichbaren Verifizierungstools sinnvoll (auf Englisch). So sind nur Anmeldungen von Personen möglich und automatische Skripts werden an der Erstellung zahlreicher Websites auf eurem Hosting-Dienst gehindert. Diese Methoden bieten zwar keinen hundertprozentigen Schutz, halten jedoch viele Übeltäter fern. 
  • Versucht, euren kostenlosen Hosting-Dienst auf andere Signale für Spam zu überwachen, etwa Weiterleitungen, eine große Anzahl von Anzeigenblöcken, bestimmte Spam-Keywords oder große Abschnitte von JavaScript-Code mit Escape-Sequenzen. Wenn ihr eine einfache, kostengünstige Lösung sucht, solltet ihr die site:-Operator-Abfrage oder Google Alerts (auf Englisch) in Betracht ziehen. 
  • Protokolliert Registrierungen und versucht, typische Spam-Muster zu erkennen, beispielsweise die für das Ausfüllen von Formularen aufgewendete Zeit, die Anzahl der vom selben IP-Adressbereich gesendeten Anfragen, während der Registrierung verwendete User-Agents oder über Formulare eingereichte Werte wie Nutzernamen. Auch dies führt nicht immer zu eindeutigen Ergebnissen. 
  • Überprüft eure Webserver-Protokolle auf plötzlich ansteigende Besucherzahlen, insbesondere wenn diese auf einer neu erstellten Website verzeichnet werden, und versucht herauszufinden, warum ihr mehr Bandbreite und Rechenleistung verbraucht. 
  • Überwacht euren kostenlosen Webhosting-Dienst auf Phishing und mit Malware infizierte Seiten. Mit dem Google Safe Browsiführtng API (auf Englisch) könnt ihr zum Beispiel URLs von eurem Dienst regelmäßig testen. Ihr könnt euch auch registrieren, um Benachrichtigungen für euer autonomes System (AS) zu erhalten (auf Englisch).
  • Überlegt euch ein paar Möglichkeiten für eine Statusüberprüfung. Wenn ihr beispielsweise einen kostenlosen, lokalen polnischen Webhosting-Dienst unterhaltet, wie wahrscheinlich ist es dann, dass jemand in Japan über Nacht Tausende neue legitime Website erstellt? Es gibt ein paar hilfreiche Tools für die Erkennung der Sprache neu erstellter Websites, etwa Spracherkennungsbibliotheken oder das Google Translate API v2 (auf Englisch). 

Und zu guter Letzt, wenn ihr einen kostenlosen Webhosting-Dienst betreibt, überwacht eure Dienste unbedingt auf plötzliche Aktivitätszunahmen. Diese können auf einen Spam-Angriff hindeuten.

Weitere Tipps zum Betreiben eines Qualitäts-Hosting-Dienstes findet ihr in unserem vorherigen Post. Registriert eure Website außerdem unbedingt in den Google Webmaster-Tools und bestätigt sie, sodass wir euch gegebenenfalls über Probleme benachrichtigen können.


Autoren: Fili Wiese (Ad Traffic Quality Team) & Kaspar Szymanski (Search Quality Team), (Veröffentlicht von Uli Lutz, Search Quality)



URL-Fehler

URL-Fehler sind Probleme mit einer bestimmten Seite. Das heißt, dass beim Versuch des Googlebots, die URL zu crawlen, das DNS aufgelöst, eine Verbindung mit dem Server hergestellt und die "robot.txt"-Datei abgerufen und gelesen wird. Anschließend wird die URL angefordert, doch in diesem Moment scheint etwas schiefzugehen. Die URL-Fehler werden je nach Ursache des Fehlers in verschiedene Kategorien unterteilt. Sollte eure Website Daten für Google News oder für Mobilgeräte (CHTML/XHTML) bereitstellen, zeigen wir Fehler dementsprechend in separaten Kategorien an.

Weniger ist mehr

Wir haben euch bisher bis zu 100.000 Fehler pro Fehlertyp angezeigt. Das war nicht gerade eine leicht verdauliche Anzahl. Ihr hattet keine Möglichkeit herauszufinden, welche dieser Fehler kritisch (Startseite ist ausgefallen) oder nicht so wichtig waren (auf einer privaten Website wird der Link zu eurer Website falsch geschrieben). Es war unmöglich, alle 100.000 Fehler anzusehen, und ihr konntet sie auch nicht sortieren, durchsuchen oder markieren. In der neuen Version dieser Funktion möchten wir euch nun die wichtigsten Fehler zuerst zeigen. In jeder Kategorie seht ihr die 1000 nach unserer Meinung wichtigsten Fehler, die eure Aufmerksamkeit benötigen. Ihr könnt diese 1000 wichtigsten Fehler sortieren und filtern, behobene Fehler markieren und Details zu den einzelnen Fehlern anzeigen.



Einige Websites weisen jedoch mehr als 1000 Fehler in einer bestimmten Kategorie auf. Ihr könnt euch in diesem Fall natürlich die Gesamtanzahl aller einzelnen Fehlertypen ansehen. Außerdem wird in einem Diagramm der Verlauf der letzten 90 Tage angezeigt. Für diejenigen, die befürchten, dass Details zu den wichtigsten 1000 Fehlern und die Gesamtanzahl der Fehler nicht ausreichen, überlegen wir einen programmatischen Zugriff über eine API zu ermöglichen. Damit könntet ihr dann sämtliche Fehler herunterladen. Lasst uns wissen, ob das für euch von Nutzen wäre.

Wir haben außerdem die Liste der Seiten entfernt, die durch eine "robots.txt"-Datei blockiert werden. Diese Informationen können zwar in manchen Fällen bei der Diagnose eines Problems mit robots.txt hilfreich sein, doch meistens habt ihr diese Seiten ja absichtlich blockiert. Wir wollten uns erst einmal ganz auf das Thema Fehler konzentrieren. Weitere Informationen zur Blockierung durch eine "robots.txt"-Datei findet ihr also bald in der Funktion "Crawler-Zugriff" unter "Website-Konfiguration".

Mehr Details bitte

Wenn ihr auf eine Fehler-URL in der Liste klickt, wird ein Detailfenster mit weiteren Informationen geöffnet. Dort erfahrt ihr zum Beispiel, wann zum letzten Mal versucht wurde, die URL zu crawlen, und wann wir das Problem zu ersten Mal entdeckt haben. Es wird auch eine kurze Beschreibung des Fehlers angegeben.




Im Detailfenster wird der Link der URL angezeigt, die für den Fehler verantwortlich ist. Um selbst zu sehen, was beim Aufrufen der URL passiert, klickt einfach auf den Link. Ihr könnt Fehler als "korrigiert" markieren (mehr dazu später), die einzelnen Fehlertypen in der Hilfe nachschlagen, Sitemaps mit der spezifischen URL auflisten sowie andere Seiten ansehen, die auf diese URL verlinken. Ihr könnt die URL sogar wie durch Googlebot abrufen, um entweder weitere Informationen zu erhalten oder zu überprüfen, ob der Fehler behoben wurde.


Nun seid ihr an der Reihe!

Eine der spannendsten Funktionen dieser neuen Version der "Crawling-Fehler" ist, dass ihr euch voll und ganz darauf konzentrieren könnt, die wichtigsten Fehler zuerst zu beheben. Die Fehler sind so angeordnet, dass die ersten Einträge der Prioritätsliste Probleme sind, die ihr selbst beheben könnt: fehlerhafte Links auf der eigenen Website korrigieren, Fehler in der Serversoftware beheben, Sitemaps aktualisieren und veraltete URLs entfernen oder eine 301-Weiterleitung hinzufügen, damit eure Nutzer auf eine "echte" Seite weitergeleitet werden. Bei der Priorisierung der Fehler berücksichtigen wir verschiedene Faktoren, zum Beispiel ob die URL in einer Sitemap enthalten ist, wie viele Seiten auf die URL verlinken, ob diese Seiten Teil eurer Website sind und ob die URL kürzlich über Suchanfragen aufgerufen wurde.

Sobald ihr den Fehler behoben habt (ihr könnt dies durch den "Abruf wie durch Googlebot" testen), könnt ihr den Fehler als "korrigiert" markieren. Diese Funktion ist nur für Nutzer mit umfassenden Zugriffsrechten möglich. Damit wird der Fehler aus der Liste entfernt. Diese als "korrigiert" markierten Fehler werden in Zukunft nicht mehr in der Fehlerliste angezeigt, außer wir entdecken den gleichen Fehler erneut beim Crawlen einer URL.



Wir haben viel Aufwand in die neue Funktion "Crawling-Fehler" gesteckt und hoffen natürlich, dass sie euch nützlich erscheint. Gebt uns Bescheid, was ihr davon haltet und lasst uns eure Vorschläge im Forum hören.


Autor: Kurt Dresner, Webmaster-Tools-Team (Veröffentlicht von Uli Lutz, Search Quality)


Wenn ihr die Option "Nutzer hinzufügen oder entfernen" wählt, gelangt ihr zur Seite "Nutzerverwaltung". Dort könnt ihr bis zu hundert Nutzer hinzufügen oder entfernen und die Zugriffsrechte jedes Nutzers als "Uneingeschränkt" oder "Eingeschränkt" festlegen. Auf der Seite "Nutzerverwaltung" hinzugefügte Nutzer sind an eine bestimmte Website gebunden. Falls eure Bestätigung für diese Website aufgehoben wird, verlieren alle hinzugefügten Nutzer ihren Zugriff auf diese Website in Webmaster-Tools. Bestätigte Website-Inhaber könnt ihr weiterhin auf der Seite "Bestätigung von Inhabern" hinzufügen oder entfernen. Auf der Seite "Nutzerverwaltung" findet ihr einen Link dorthin.



Nutzer mit uneingeschränkten Berechtigungen können alle Daten ansehen und die meisten Aktionen ausführen, zum Beispiel Einstellungen einer Website ändern oder Sitelinks abwerten. Nutzer mit eingeschränkten Berechtigungen können die meisten Daten ansehen und einige Aktionen ausführen, zum Beispiel "Abruf wie durch Googlebot" verwenden und die Nachrichtenweiterleitung ihres Kontos konfigurieren. Nutzer mit eingeschränkten Berechtigungen sehen an verschiedenen Stellen von Webmaster-Tools den Hinweis "Eingeschränkter Zugriff".




In unserem Hilfeartikel zu Berechtigungen erhaltet ihr einen Überblick darüber, welche Funktionen und Aktionen Nutzern mit eingeschränkten und uneingeschränkten Berechtigungen sowie Website-Inhabern zur Verfügung stehen.

Wir hoffen, dass euch die Einführung von eingeschränkten und uneingeschränkten Berechtigungen die Nutzerverwaltung eurer Website in Webmaster-Tools erleichtert. Jetzt könnt ihr genau festlegen, welchen Nutzern ihr Zugriff gewähren möchtet, und somit unerwünschte oder unbefugte Änderungen vermeiden. In unserem Hilfeforum könnt ihr jederzeit Fragen stellen oder Feedback zur neuen Nutzerverwaltung geben.


Autor: Jonathan Simon, Webmaster Trends Analyst  (Veröffentlicht von Uli Lutz, Search Quality)

Vor einigen Monaten haben wir die voreingestellte Suche auf google.com geändert - wir haben SSL Verschüsselung hinzugefügt (Blog Post auf Englisch), um Datenschutz und Sicherheit eurer Suchanfragen zu erhöhen, wenn ihr bei Google angemeldet seid. Durch diese Veränderung werden eure Suchanfragen und Suchergebnisseiten verschlüsselt, was besonders wichtig ist, wenn ihr eine offene, unverschlüsselte Internetverbindung benutzt.

Wir fangen jetzt an, diese zusätzliche Sicherheit auszuweiten - in den kommenden Wochen führen wir die SSL Suche über google.com hinaus auf unseren lokalen Domains weltweit ein. Wie zuvor hoffen wir, dass die Bemühung, SSL Verschlüsselungen vermehrt einzusetzen, auch andere Unternehmen dazu anregt, selbiges zu tun.


Post von Michael Safyan, Software Engineer (Veröffentlicht von Uli Lutz, Search Quality)