Der aktualisierte SEO-Startleitfaden ersetzt sowohl den alten Startleitfaden als auch die Webmaster Academy. Die aktualisierte Version baut auf dem vorherigen Dokument auf und beinhaltet zusätzliche Abschnitte zur Notwendigkeit der Suchmaschinenoptimierung, zum Hinzufügen von Markup für strukturierte Daten sowie zum Erstellen von Websites, die für Mobilgeräte optimiert sind.
Der neue Leitfaden ist in 9 Sprachen verfügbar: Deutsch, Englisch, Französisch, Italienisch, Japanisch, Portugiesisch, Russisch, Spanisch und Türkisch. Weitere 16 Sprachen folgen demnächst.
Werft doch mal einen Blick hinein und sagt uns eure Meinung.
AMP wurde eingeführt, um die Leistung im Internet drastisch zu verbessern und um eine schnelle und konsistente Nutzung von Inhalten zu gewährleisten. Aus diesem Grund werden wir bei Seiten, die in der Google-Suche als AMP-Seiten erscheinen sollen, eine starke Ähnlichkeit zwischen AMP und kanonischen Seiten durchsetzen.
Enthält eine AMP-Seite nicht dieselben grundlegenden Inhalte wie die entsprechende Nicht-AMP-Seite, werden wir unsere Nutzer an die Nicht-AMP-Seite weiterleiten. Dies hat keinen Einfluss auf das Suchranking. Die Seiten werden jedoch nicht für Suchfunktionen in Betracht gezogen, die AMP erfordern, z. B. für das Schlagzeilenkarussel mit AMP. Außerdem senden wir dem Webmaster über Search Console eine Benachrichtigung, dass manuelle Maßnahmen erforderlich sind, und geben dem Publisher Gelegenheit, das Problem zu beheben, bevor die AMP-Seite wieder bereitgestellt werden kann. Auf der Open-Source-AMP-Website stehen mehrere hilfreiche Anleitungen zur Verfügung, mit denen ihr auf schnelle Weise beeindruckende und leistungsstarke AMP-Seiten erstellen könnt.
Wir hoffen, dass wir Webmaster durch diese Änderung dazu ermutigen können, die Übereinstimmung der Inhalte zwischen kanonischen und AMP-Seiten zu gewährleisten. Dies führt zu einer angenehmeren Verwendung eurer Websites und somit zu zufriedeneren Nutzern.
Da die Angaben irreführend sind, ergreifen wir in solchen Fällen unter Umständen manuelle Maßnahmen. Sollte Eure Website von solch einer Maßnahme betroffen sein, werdet Ihr über euer Search Console-Konto benachrichtigt. Wenn wir manuelle Maßnahmen ergreifen, kann das zur Folge haben, dass bei Suchergebnissen für die gesamte Website kein Markup zu strukturierten Daten verwendet wird.
Auch wenn es in diesem Blogpost speziell um Gutscheine geht, gilt dies ebenso für alle anderen Dinge, die keine Veranstaltungen sind und trotzdem mit dem "Event"-Markup versehen wurden – bzw. für alle Fälle, in denen ein bestimmtes Markup für etwas anderes verwendet wird als die Art von Sache, die dadurch beschrieben werden soll.
Weitere Informationen findet Ihr in unserer Entwicklerdokumentation und wie immer könnt Ihr bei weiteren Fragen in unserem Webmaster-Forum vorbeischauen.
Gepostet von Sven Naumann, Trust & Safety Search-Team
Snippets von Suchergebnissen haben einen recht ähnlichen Zweck. Sie helfen den Nutzern zu entscheiden, ob sie die Zeit zum Lesen der Seite investieren wollen, zu der das Snippet gehört.
Je aussagekräftiger und relevanter ein Suchergebnis-Snippet ist, desto wahrscheinlicher werden Nutzer darauf klicken und mit der Seite zufrieden sein, auf die sie weitergeleitet werden. Bisher gab es drei Quellen für Snippets:
Den Content der Seite
Die Meta-Beschreibung
Die DMOZ-Einträge
Der Content der Seite ist bei Suchergebnis-Snippets eine sehr naheliegende Option – die extrahierbaren Inhalte sind für die Suchanfragen der Nutzer oft am relevantesten. Manchmal liefert jedoch der Content nicht das beste Material für ein Snippet. Dies ist beispielsweise der Fall, wenn ein Nutzer ein Buch geschrieben hat und dafür einen Verlag sucht. Die Startseiten seiner Suchergebnisse enthalten dann unter Umständen nur ein paar Bilder, die den Verlag und seine Aktivitäten beschreiben, ein Logo und eventuell einige Links. Dies ist alles nicht besonders hilfreich für ein Snippet.
In Fällen, in denen der Content einer Seite nicht genügend Text für ein Suchergebnis-Snippet liefert, wird als logische Alternative die Meta-Beschreibung verwendet. Dabei handelt es sich um einen kurzen Text, der den Content treffend und präzise zusammenfasst.
Wenn eine Seite nicht genug Text für die Erstellung eines Snippets enthält und die Meta-Beschreibung entweder fehlt oder keinen Bezug zur Seite hat oder von geringer Qualität ist, haben wir bisher auf DMOZ (auch als Open Directory Project bekannt), zurückgegriffen. Wir nutzen DMOZ schon seit über zehn Jahren, da die Qualität der DMOZ-Snippets oft viel besser war als die der Snippets, die von Webmastern in ihrer Meta-Beschreibung bereitgestellt wurden, oder die DMOZ-Snippets deutlich aussagekräftiger waren als der Content der Seite.
Da das DMOZ-Projekt leider eingestellt wurde, verwenden wir für die Snippets auch keine Einträge mehr aus diesem Projekt. Um so wichtiger ist es nun, dass Webmaster gute Meta-Beschreibungen bereitstellen, falls das Hinzufügen von weiterem Content auf einer Seite keine Option darstellt.
Was zeichnet eine gute Meta-Beschreibung aus?
Gute Meta-Beschreibungen sind kurze Texte, die den Content einer Seite zutreffend beschreiben. Sie dienen zugleich als Werbetexte, die die Nutzer überzeugen sollen, dass die betreffenden Seiten genau ihrer Suche entsprechen. Weitere Tipps zu diesem Thema findet ihr in diesem nützlichen Search Console-Hilfeartikel. Denkt daran, dass sowohl eure Seiten für Desktop- als auch für Mobilgeräte einen Titel und eine Meta-Beschreibung enthalten sollten.
Welche Probleme treten bei Meta-Beschreibungen am häufigsten auf?
Da Meta-Beschreibungen normalerweise nur für Suchmaschinen und andere Software sichtbar sind, werden sie manchmal von Webmastern vergessen und komplett leer gelassen. Aus demselben Grund passiert es auch häufig, dass dieselbe Meta-Beschreibung gleich für mehrere (und teilweise sehr viele) Seiten verwendet wird. Wenn eine Meta-Beschreibung gegeben wird, kommt es auch vor, dass die Beschreibung überhaupt nicht zum Thema passt, von niedriger Qualität ist oder sogar von manchen Spamfiltern als Spam betrachtet wird. Da sich derartige Probleme negativ auf das Sucherlebnis unserer Nutzer auswirken, ziehen wir es vor, solche Meta-Beschreibungen zu ignorieren.
Gibt es eine Zeichenbeschränkung für Meta-Beschreibungen?
Es gibt keine festgelegte Zeichenbeschränkung für Meta-Beschreibungen, allerdings werden die Suchergebnis-Snippets bei Bedarf gekürzt, normalerweise, um den Text an die Gerätebreite anzupassen.
Da DMOZ (ODP) eingestellt wurde, verwenden wir auch nicht mehr die zugehörigen Daten. Aus diesem Grund verliert die NOODP-Anweisung ihre Bedeutung.
Kann ich verhindern, dass Google den Content der Seiten als Snippet verwendet?
Ihr könnt verhindern, dass Google überhaupt Snippets erstellt, indem ihr die "nosnippet"-Robots-Anweisung festlegt. Es kann jedoch nicht verhindert werden, dass Seitencontent als Snippet verwendet wird, wenn gleichzeitig auch andere Quellen zulässig sind.
Wie immer könnt ihr eure Fragen in unserem Webmaster Forum stellen!
Die ersten Monate des Jahres 2017 liegen bereits hinter uns und wir möchten hiermit einige Erkenntnisse mit euch teilen, die wir bei unserem Kampf gegen Webspam 2016 gesammelt haben. Im Verlauf des letzten Jahres haben wir neue Möglichkeiten entdeckt, die negativen Auswirkungen von Spam auf die Nutzererfahrung bei der Suche zu reduzieren, und wir haben mit Webmastern weltweit zusammengearbeitet, um das Web zu verbessern.
Wir arbeiten hinter den Kulissen mit Hochdruck daran, dass unsere Nutzer das Web und die Möglichkeiten, die es heute bietet, vollständig ausschöpfen können, damit alle Menschen auf der Welt Zugang zu relevanten Ergebnissen erhalten. Hierzu gehört auch der Kampf gegen Webspam, der Nutzern potenziell schadet oder sie auch einfach nur belästigt.
Webspam-Trends im Jahr 2016
Die Sicherheit von Websites steht auf der Liste von Problemen weiterhin ganz oben. Im letzten Jahr wurden mehr Websites gehackt als je zuvor. Die Anzahl gehackter Websites stieg im Vergleich zu 2015 um 32 %. Deshalb haben wir weiter in die Verbesserung und Erstellung von Ressourcen investiert, die Webmaster einen schnelleren Lösungsansatz für den Fall liefern, dass ihre Websites gehackt werden.
Spam, den wir nicht mittels Algorithmen erkennen konnten, haben wir manuell bearbeitet. Wir haben über neun Millionen Nachrichten an Webmaster verschickt, um sie auf Probleme mit Webspam auf ihren Seiten aufmerksam zu machen. Darüber hinaus geben wir jetzt mehr Sicherheitsbenachrichtigungen über Google Analytics aus.
Gemeinsam mit Nutzern und Webmastern für eine bessere Erfahrung im Web
Wir haben im Jahr 2016 weltweit über 180.000 Spamreports von Nutzern erhalten. Nach sorgfältiger Prüfung der Echtheit kamen wir zu dem Schluss, dass 52 % der gemeldeten Websites Spam darstellten. Wir möchten uns bei allen bedanken, die Meldungen eingereicht und somit dazu beigetragen haben, dass das Web qualitativ besser und sicherer wird.
Wir haben über 170 Stunden in Onlinesprechstunden und Liveveranstaltungen auf der ganzen Welt investiert und dabei über 150.000 Website-Eigentümer, Webmaster und Werbetreibende für digitales Marketing erreicht.
Wir haben Website-Eigentümer weltweit weiter mit unseren Webmaster-Hilfeforen unterstützt, und das in 15 Sprachen. In diesen Foren wurden über 67.000 Fragen diskutiert, wovon die meisten dank unserer Top-Beitragenden, Aufsteiger und Google-Mitarbeiter geklärt werden konnten.
119 freiwillige Webmaster – Top-Beitragende und Aufsteiger – haben sich beteiligt. Diese haben wir zur Teilnahme an unseren lokalen Top-Beitragenden-Meetups an elf verschiedenen Standorten auf vier Kontinenten (Asien, Europa, Nordamerika und Südamerika) eingeladen.
Wir sind der Meinung, dass alle Menschen Zugang zu qualitativ hochwertigen und spamfreien Suchergebnissen haben sollten. Wir hoffen, dass euch dieser Bericht einen kleinen Einblick gegeben hat, wie wir dieses Vorhaben vorantreiben.
Post von Michal Wicinski, Search Quality Strategist, und Kiyotaka Tanaka, User Education
Mit der Funktion "Ähnliche Produkte" können Nutzer sich von Mode- und Produktfotos inspirieren lassen und direkt Infos zu den Produkten erhalten, für die sie sich interessieren. Probiert es mal aus und seht euch zum Beispiel ein paar Bildergebnisse zu [designer handtaschen] an.
Informationen zu Preisen und Verfügbarkeit in der Bildersuche war die am stärksten nachgefragte Funktion von Nutzern. Das Karussell mit ähnlichen Produkten verzeichnet täglich Millionen von Impressionen und Klicks aus aller Welt.
Wenn eure Produkte auch für diese Funktion infrage kommen sollen, achtet darauf, Schema.org-Produktmetadaten auf euren Seiten hinzuzufügen. Das Produkt-Markup von schema.org hilft Google dabei, Produktangebote im Web zu finden und Nutzern einen Überblick über das Produkt zu geben.
Damit eure Produkte für die neue Funktion infrage kommen, solltet ihr auf Folgendes achten:
Die Produktangebote auf euren Seiten sollten über ein Schema.org-Produkt-Markup verfügen, einschließlich eines Bildverweises. Produkte mit Metadaten zu Name, Bild, Preis und Währung sowie Verfügbarkeit auf ihrer Hostseite können in den ähnlichen Produkten erscheinen.
Seht euch eure Bilder in der Bildersuche an, indem ihr nach "site:ihrebeispielurl.de" sucht. Bei Ergebnissen mit gültigem Produkt-Markup können Produktinfos erscheinen, wenn ihr auf Bilder von eurer Website tippt. Es kann bis zu einer Woche dauern, bis der Googlebot eure Website erneut gecrawlt hat.
Momentan ist die Funktion "Ähnliche Produkte" weltweit in mobilen Browsern sowie in der Google App auf Android-Geräten verfügbar. Wir möchten sie 2017 außerdem auf weitere Plattformen ausweiten.
Wenn ihr noch Fragen habt, findet ihr uns im Webmaster Hilfeforum. Wenn eure Bilder nicht in den ähnlichen Produkten zu sehen sein sollen, könnt ihr verhindern, dass Bilder eurer Seite in den Suchergebnissen erscheinen.
Die neue Funktion trägt dazu bei, dass Nutzer eure Produkte im Web finden. Gemeinsam machen wir Shoppen im Web noch schöner.
Wir haben kürzlich eine neue Version des Websitestatus-Tools veröffentlicht. Die Ergebnisse sind jetzt noch einfacher und eindeutiger und das Design des Tools wurde an die größte Zielgruppe angepasst: Nutzer, die das Tool über eine empfangene Safe Browsing-Warnung aufrufen oder allgemeine Informationen zur Erkennung von Malware und Phishing-Inhalten bei Google erhalten möchten. Die Benutzeroberfläche ist übersichtlicher und die Ergebnisse sind einfacher zu verstehen und noch genauer. Die etwas technischeren Angaben zu autonomen Systemen haben wir in den Abschnitt "Malware-Dashboard" des Transparenzberichts verschoben.
Wir haben die Benutzeroberfläche optimiert, aber nicht auf Kosten der Diagnoseinhalte: Nutzer, die genauer recherchieren und mehr Details sehen möchten, finden diese Angaben an anderen Stellen im Safe Browsing-Transparenzbericht und Websiteinhaber finden zusätzliche Diagnoseinformationen in der Search Console. Eines der Ziele des Transparenzberichts ist es, komplexe Richtlinien und Sicherheitsprobleme näher zu beleuchten. Wir hoffen daher, dass das neue Design zu einem besseren Überblick beiträgt.
Post von Deeksha Padma Prasad und Allison Miller, Safe Browsing
Fangen wir mit den schlechten Nachrichten an. Die Zahl der gehackten Websites ist im Vergleich zu 2015 um ca. 32 % gestiegen. Und wir rechnen nicht damit, dass sich dieser Trend abschwächt. Die zunehmende Aggressivität der Hacker in Kombination mit der steigenden Zahl veralteter Websites führt dazu, dass Hacker immer mehr Websites infizieren, um daraus Kapital zu schlagen.
Aber es gibt auch gute Nachrichten: 84 % der Webmaster, die eine erneute Überprüfung beantragen, können ihre Websites erfolgreich bereinigen. Jedoch haben 61 % der Webmaster, deren Websites gehackt wurden, nie eine entsprechende Benachrichtigung von Google erhalten, weil ihre Websites nicht in der Search Console bestätigt wurden. Vergesst also nicht, euch in der Search Console zu registrieren, wenn ihr eine Website besitzt oder verwaltet. Dies ist der primäre Kommunikationskanal, den Google für Warnmeldungen zum Status von Websites nutzt.
Mehr Hilfe für gehackte Webmaster
Wir haben uns euer Feedback zu Herzen genommen, um Webmastern mit Sicherheitsproblemen noch besser helfen zu können. Dabei wurde immer wieder eine verständlichere Dokumentation zu gehackten Websites gefordert. Wir haben daher viel Herzblut investiert, um unsere Dokumentation nützlicher zu machen.
Als ersten Schritt haben wir eine neue Dokumentation erstellt, um Webmastern im Falle einer manipulierten Website mehr Informationen zur Verfügung zu stellen. Hier findet ihr eine Liste der neuen Hilferessourcen:
Anschließend haben wir Leitfäden zur Bereinigung von Websites erstellt, die von gängigen Hacking-Methoden betroffen sind. Wir haben festgestellt, dass die Auswirkungen von gehackten Websites meist ähnlich sind. Nach eingehender Analyse dieser Ähnlichkeiten haben wir für bestimmte Hacking-Angriffe Leitfäden zur Bereinigung erstellt. Unten findet ihr eine kurze Beschreibung der erstellten Leitfäden:
Unsinnige Inhalte: Bei dieser Hacking-Methode wird automatisch eine Vielzahl von Seiten mit sinnlosen Sätzen voller Keywords auf der Zielwebsite erstellt. Damit möchten Hacker erreichen, dass die gehackten Seiten in der Google-Suche erscheinen. Wenn Nutzer die Seiten dann besuchen möchten, werden sie auf eine völlig andere Seite weitergeleitet, zum Beispiel eine Website mit pornografischen Inhalten. Weitere Informationen zur Bereinigung. Japanische Keywords: Bei dieser Hacking-Methode werden in der Regel neue Seiten mit japanischem Text in zufällig generierten Verzeichnissen auf der Zielwebsite erstellt. Diese Seiten werden mithilfe von Links zu Online-Stores mit gefälschten Markenprodukten monetarisiert und dann in der Google-Suche angezeigt. Manchmal werden die Konten der Hacker in der Search Console auch als Website-Inhaber hinzugefügt. Weitere Informationen zur Bereinigung.
Keyword-Cloaking: Durch diese Art von Keyword- und Link-Hacking wird automatisch eine Vielzahl von Seiten mit sinnlosen Sätzen, Links und Bildern erstellt. Diese Seiten enthalten manchmal sogar Grundbausteine der Vorlage der Originalwebsite, sodass die Seiten auf den ersten Blick wie ganz normale Bestandteile der Zielwebsite aussehen, bis man den Inhalt liest. Bei einem solchen Angriff verwenden Hacker in der Regel Cloaking-Techniken, um die schädlichen Inhalte zu verstecken und die eingefügte Seite als der Teil der Originalwebsite oder als 404-Fehlerseite aussehen zu lassen. Weitere Informationen zur Bereinigung.
Prävention ist der Schlüssel
Wie immer ist es am besten, Präventivmaßnahmen zu ergreifen und die Website zu sichern, anstatt sich nachher mit den Folgen herumschlagen zu müssen. Denkt immer daran: Eine Kette ist nur so stark wie ihr schwächstes Glied. Weitere Informationen dazu, wie ihr Schwachstellen auf eurer Website erkennen könnt, findet ihr in unserem Leitfaden für gehackte Websites. Außerdem empfehlen wir, euch im Hinblick auf die neuesten Veröffentlichungen und Bekanntmachungen eurer CMS-Anbieter sowie Software-/Hardwareanbieter auf dem Laufenden zu halten. Ausblick
Hacking-Methoden entwickeln sich ständig weiter und dank unserer Forschungsbemühungen können wir die neuesten Trends verfolgen und dagegen vorgehen. Weitere Informationen zu unseren neuesten Forschungspublikationen findet ihr auf der Forschungswebsite zu Informationssicherheit. Hier haben wir einige Studien zu Websitemanipulationen für euch zusammengestellt:
Falls ihr Feedback oder Fragen zu manipulierten Websites habt, steht euch in den Webmaster-Hilfeforen eine aktive Gruppe von Google-Mitarbeitern und Technikexperten zur Seite, die Antworten liefern und weiteren technischen Support bieten können.
Veröffentlicht von Wafa Alnasayan, Trust & Safety Analyst und Eric Kuan, Webmaster Relations
In den obigen Abbildungen wird die Entwicklung der Suchergebnisse veranschaulicht. Dank Rich Cards können die Ergebnisse in Karussells präsentiert werden, in denen ganz einfach nach links und rechts gescrollt werden kann.
Websiteinhabern bietet sich dadurch eine neue Gelegenheit, sich in den Suchergebnissen stärker abzuheben und gezielter bestimmte Nutzergruppen auf ihre Website zu bringen. Wenn ihr z. B. eine Website mit Rezepten habt, könnt ihr eine noch ansprechendere Inhaltsvorschau mit einem speziellen Bild für jedes Gericht anbieten. Dank dieses visuellen Formats finden Nutzer schneller das, wonach sie suchen.
Rich Cards sind derzeit für drei Inhaltskategorien verfügbar: Rezepte, Filme und Restaurants in einer Region. Sie alle unterstützen das AMP-Format. Mehr über die Rich Card-Typen sowie darüber, wie ihr sie für eure Inhalte nutzen könnt, erfahrt ihr in der Galerie. Diese enthält Screenshots und Codebeispiele für die einzelnen Markup-Typen. Wir prüfen außerdem die Möglichkeiten, Rich Cards für weitere Branchen und Datentypen nutzbar zu machen.
Wir haben eine große Auswahl an Tools erstellt und die Dokumentation für Entwickler umfassend aktualisiert, um Websiteinhabern und Entwicklern auf dem Weg von der ersten Erkundung der Möglichkeiten über die Implementierung bis hin zur Leistungsüberwachung behilflich zu sein.
Im Test-Tool für strukturierte Daten werden Markup-Fehler aufgeführt und auf einer Vorschaukarte sind die Inhalte so zu sehen, wie sie in der Suche erscheinen könnten.
Im Rich Cards-Bericht in der Search Console ist zu sehen, welche Karten Fehler aufweisen und welche durch weiteres Markup verbessert werden könnten.
Mithilfe des AMP-Tests können AMP-Seiten und ihr Markup überprüft werden.
Falls ihr noch Fragen habt, könnt ihr diese gerne in unserem Webmaster Forum stellen.
Blogpost von Nicholas Yu, Software Engineer, Google Search
Wenn Nutzer lediglich am Kauf gehindert werden sollen, ist es am einfachsten, die entsprechende Funktion zu deaktivieren. In den meisten Fällen kann entweder das Crawlen von Einkaufswagenseiten über die robots.txt-Datei oder das Indexieren mithilfe eines Robots-Meta-Tags verhindert werden. Da Suchmaschinen diesen Inhalt entweder nicht sehen oder indexieren können, solltet ihr die Nutzer entsprechend informieren. Zum Beispiel könnt ihr den Link zum Einkaufswagen deaktivieren, eine entsprechende Nachricht einblenden oder anstelle des Einkaufswagens eine Seite mit weiteren Informationen anzeigen.
Option: Immer Interstitial oder Pop-up einblenden
Falls ihr die gesamte Website blockieren müsst, sei es mit einer Meldung "Vorübergehend nicht verfügbar", einer Informationsseite oder einem Pop-up, sollte der Server den HTTP-Statuscode 503 ("Service Unavailable") zurückgeben. So wird sichergestellt, dass Google den Inhalt, der den Nutzern vorübergehend angezeigt wird, nicht indexiert. Ohne diesen Statuscode würde das Interstitial als Inhalt der Website indexiert werden.
Googlebot versucht etwa eine Woche lang, Seiten mit dem Statuscode 503 zu crawlen, bevor sie als dauerhafter Fehler angesehen werden. Dies kann dazu führen, dass die Seiten aus den Suchergebnissen entfernt werden. Ihr könnt auch mithilfe eines Retry-After-Headers angeben, wie lange die Website nicht verfügbar sein wird. Wird die Website länger als eine Woche blockiert, kann dies negative Auswirkungen auf die Sichtbarkeit in den Suchergebnissen haben, unabhängig von der verwendeten Methode.
Option: Gesamte Website abschalten
Eine weitere Möglichkeit ist, den Server vollständig abzuschalten. Das wird zum Beispiel auch beim Umzug eines Servers in ein anderes Rechenzentrum gemacht. In diesem Fall sollte ein vorübergehender Server den HTTP-Statuscode 503 für sämtliche URLs sowie eine entsprechende Informationsseite für Nutzer ausgeben. Außerdem muss euer DNS für diese Zeit auf den vorübergehenden Server verweisen.
Legt einige Tage vorher einen niedrigen DNS TTL-Wert fest, zum Beispiel 5 Minuten.
Stellt den DNS auf die IP-Adresse des vorübergehenden Servers um.
Schaltet euren Hauptserver ab, sobald alle Anfragen über den temporären Server laufen.
Euer Server ist nun offline.
Wenn ihr fertig seid, kann der Hauptserver wieder ans Netz.
Stellt den DNS wieder auf die IP-Adresse des Hauptservers um.
Legt den DNS TTL-Wert wieder auf den normalen Wert fest.
Wir hoffen, mit diesen Optionen die häufigsten Situationen abzudecken, in denen ihr eure Website vorübergehend deaktivieren müsst. Bei Fragen könnt ihr im Webmaster-Forum vorbeischauen.
PS: Wenn euer Unternehmen einen Standort mit Kundenverkehr hat, solltet ihr auch eure Öffnungszeiten im Brancheneintrag entsprechend anpassen!
Post von John Mueller, Webmaster Trends Analyst, Schweiz
Kommentare und Forenbeiträge können als gute Informationsquelle dienen und Nutzer der Website optimal in Diskussionen einbeziehen. Diese wertvollen Inhalte sollten nicht durch automatisch generierte Keywords und Links von Spammern begraben werden.
Es gibt viele Möglichkeiten, wie ihr die Foren und Kommentare auf euren Websites sichern könnt, sodass sie für Spammer uninteressant sind:
Achtet darauf, dass die Software eurer Foren immer aktuell ist und ihr die neuesten Patches verwendet. Nehmt euch die Zeit, eure Software regelmäßig zu aktualisieren, und achtet dabei besonders auf wichtige Sicherheitsupdates. Spammer nutzen Sicherheitslücken in Blogs, auf Pinnwänden und in anderen Content-Management-Systemen aus.
Fügt CAPTCHAs hinzu. Anhand von CAPTCHAs können Nutzer nachweisen, dass sie Menschen sind und es sich nicht um ein automatisches Skript handelt. Ihr könnt dazu Dienste wie reCAPTCHA, Securimage und Jcaptcha nutzen.
Blockiert verdächtige Inhalte. In vielen Foren gibt es Zeitlimits zwischen Posts. Außerdem gibt es Plug-ins, mit denen nach übermäßigem Traffic von einer einzelnen IP-Adresse oder Proxys und anderen Aktivitäten, die wahrscheinlich von einem Bot und nicht von einem Menschen erzeugt werden, gesucht werden kann. Diese Konfiguration ist beispielsweise auf phpBB, Simple Machines, myBB und vielen anderen Foren-Plattformen möglich.
Überprüft täglich die Nutzer, die in euren Foren am meisten posten. Falls sich ein Nutzer erst kürzlich angemeldet hat und besonders viel postet, solltet ihr das Profil überprüfen, um sicherzugehen, dass es sich bei den Posts und Beiträgen nicht um Spam handelt.
Eventuell solltet ihr bestimmte Arten von Kommentaren deaktivieren. Beispielsweise ist es empfehlenswert, sehr alte Forenbeiträge zu schließen, bei denen keine seriösen Antworten mehr zu erwarten sind. Wenn ihr eure Foren in Zukunft nicht mehr kontrollieren möchtet und Nutzer darin nicht mehr interagieren, könnt ihr den Missbrauch durch Spammer verhindern, indem ihr Posts komplett sperrt.
Macht euch die Moderationsfunktionen zunutze. Ihr könnt Funktionen aktivieren, durch die Nutzer erst dann Links posten dürfen, wenn sie sich als vertrauenswürdig erwiesen haben, oder durch die Kommentare, welche Links enthalten, moderiert werden müssen. Wenn möglich solltet ihr die Einstellungen so ändern, dass anonyme Posts verboten werden und Posts von neuen Nutzern erst bestätigt werden müssen, bevor sie öffentlich sichtbar sind. Bei dieser Arbeit können euch Moderatoren sowie Freunde, Kollegen und andere vertrauenswürdige Nutzer unterstützen. Überprüft neue Nutzer in euren Foren, indem ihr euch deren Posts und Aktivitäten im Forum anseht.
Setzt Begriffe auf die schwarze Liste, die ganz offensichtlich Spam sind. Blockiert unangemessene Kommentare, indem ihr eine schwarze Liste mit Begriffen anlegt, die offensichtlich Spam sind (z. B. illegales Streaming oder Begriffe aus der Pharmabranche). Fügt häufige Begriffe aus Spam-Posts, die unangemessen sind, nichts mit den Forenthemen zu tun haben und nur von Spammern verwendet werden hinzu. Mit integrierten Funktionen und Plug-ins können Kommentare als Spam markiert oder gelöscht werden.
Nutzt das Attribut "nofollow" für Links im Kommentarfeld. Dadurch werden Spammer von euren Websites ferngehalten. Viele Blogwebsites, wie zum Beispiel Blogger, fügen dieses Attribut automatisch zu jedem veröffentlichten Kommentar hinzu.