Technische Richtlinien

  • Verwenden Sie zum Überprüfen Ihrer Website einen Textbrowser (beispielsweise Lynx), da Ihre Website für die meisten Crawler so dargestellt wird wie in Lynx. Verhindern Funktionen wie JavaScript, Cookies, Sitzungs-IDs, Frames, DHTML oder Flash die Anzeige Ihrer gesamten Website in einem Textbrowser, treten beim Durchsuchen der Website durch Crawler möglicherweise Probleme auf.
  • Ermöglichen Sie Suchrobots, Ihre Website ohne Sitzungs-IDs oder Parameter zu crawlen, die ihren Weg durch die Website aufzeichnen. Diese Methoden sind hilfreich, um die Aktivitäten einzelner Nutzer zu analysieren. Das Zugriffsmuster von Suchrobots gestaltet sich jedoch vollkommen anders. Das Verwenden solcher Techniken kann zu einer unvollständigen Indexierung Ihrer Website führen, da Suchrobots eventuell keine URLs entfernen können, die unterschiedlich aussehen, aber auf dieselbe Seite verweisen.
  • Stellen Sie sicher, dass Ihr Webserver den HTTP-Header “If-Modified-Since” unterstützt. Über diese Funktion kann Ihr Webserver Google mitteilen, ob der Inhalt seit dem letzten Crawling Ihrer Website geändert wurde. Mit dieser Funktion können Sie Bandbreite und Overhead sparen.
  • Nutzen Sie die Datei “robots.txt” auf Ihrem Webserver. Diese Datei teilt Crawlern mit, welche Verzeichnisse durchsucht werden dürfen und welche gesperrt sind. Vergewissern Sie sich, dass eine aktuelle Version der Datei für Ihre Website vorliegt, damit der Googlebot-Crawler nicht versehentlich blockiert wird. Informationen zum Erteilen von Anweisungen an Robots, die Ihre Website besuchen, erhalten Sie unter http://code.google.com/web/controlcrawlindex/docs/faq.html. Die Datei “robots.txt” kann mit dem in Google Webmaster-Tools verfügbaren “robots.txt”-Analyse-Tool getestet werden, um zu überprüfen, ob die Datei korrekt verwendet wird.
  • Ergreifen Sie angemessene Maßnahmen, um zu gewährleisten, dass sich Anzeigen nicht auf das Suchmaschinen-Ranking auswirken. Mit einer robots.txt-Datei kann beispielsweise verhindert werden, dass Google AdSense-Anzeigen und DoubleClick-Links gecrawlt werden.
  • Wenn Ihr Unternehmen ein System zur Verwaltung von Content erwirbt, stellen Sie sicher, dass das System Seiten und Links erstellt, die von Suchmaschinen gecrawlt werden können.
  • Mit der Datei “robots.txt” können Sie das Crawlen von Suchergebnisseiten und anderen automatisch erstellten Seiten verhindern, die keinen wirklichen Wert für über eine Suchmaschine auf Ihre Website geleitete Nutzer haben.
  • Testen Sie Ihre Website, um sicherzustellen, dass sie in verschiedenen Browsern richtig angezeigt wird.
  • Überprüfen Sie die Leistung Ihrer Website und optimieren Sie Ladezeiten. Google ist bestrebt, seinen Nutzern möglichst relevante Suchergebnisse und eine großartige Nutzererfahrung zu bieten. Schnelle Websites erhöhen die Zufriedenheit der Nutzer und verbessern die Gesamtqualität des Webs, insbesondere für Nutzer mit einer langsamen Internetverbindung. Wir hoffen, dass Webmaster durch die Verbesserung ihrer Websites auch zu einem insgesamt schnelleren Web beitragen.Google empfiehlt allen Webmastern dringend, die Website-Leistung in regelmäßigen Abständen mithilfe von Page Speed, YSlow, WebPagetest oder anderen Tools zu überprüfen. Weitere Informationen, Tools und Ressourcen finden Sie unter Tragen Sie zu einem schnelleren Web bei. Zusätzlich zeigt Ihnen das Tool zur Messung der Website-Leistung in Webmaster-Tools die Geschwindigkeit Ihrer Website aus Sicht von Nutzern auf der ganzen Welt.
VN:F [1.9.22_1171]
Rating: 10.0/10 (1 vote cast)
Technische Richtlinien, 10.0 out of 10 based on 1 rating

Über den Verfasser: 

Philipp war 6 Jahre lang Search Strategist und Product Manager bei Idealo.de. In seiner Funktion als Suchmaschinenspezialist hat er sich vor allem mit den Themen Crawlability, Accessability und OnPage-Optimierung von Webseiten mit mehr als einer Million SubPages befasst. Seit 2011 ist Philipp Klöckner als Angel Investor und Search Consultant tätig und teilt seine Erfahrung in den Bereichen Search (Paid/Organic), Comparison Shopping und Business Intelligence mit Verlagshäusern, eCommerce-Webseiten und Start-Ups.

Connect via: LinkedIn | XING | G+ | Facebook (Subscribe)