Korrektes Verwenden der robots.txt

Das Robots-Exclusion-Standard-Protokoll verpflichtet Webcrawler beim Durchsuchen einer Website als erstes die robots.txt zu lesen und deren Anweisungen zu befolgen. Dieses Protokoll kann natürlich nicht verpflichtend sein sondern ist auf das Mitmachen sogenannter "freundlicher" Webcrawler angewiesen. In der robots.txt können Bereiche ausgewiesen werden, welche in Suchmaschinen nicht auftauchen sollen. Lange war... Weiterlesen

Caching und Komprimieren über den Apache HTTP Server

Erneut ein Artikel der im Zusammenhang mit Google steht. In den letzten Tagen wurde viel über die neuen Kriterien für Googles Suchmaschinen-Ranking diskutiert. Unter anderem ist nun auch eine Optimierung für mobile devices ausschlaggebend für eine gute Platzierung in den Suchergebnissen. Google hat diesen mobile friendly-Test zur Verfügung gestellt, mit... Weiterlesen