Reload ohne Cache in Google Chrome

Für Entwickler bietet Google Chrome seit einigen Versionen ein neues Feature an. Durch längeres Klicken und Halten des Reload-Buttons, erscheint ein kleines Untermenü mit drei Optionen. Wie viele andere, bin auch ich eher zufällig über diese Funktion gestolpert, konnte sie aber anschliessend nicht immer reproduzieren. Des Rätsels Lösung ist sehr einfach:... Weiterlesen

Her mit den schnellen Seiten

Seit Ende Februar tauchen in den Suchergebnissen bei Google die neuen Accelerated Mobile Pages auf, also die abgespeckten Versionen von Websites, welche speziell für Mobilgeräte deutlich weniger Traffic benötigen und dadurch auch viel schneller laden (wir hatten in unserem Thema des Monats März darüber berichtet). Seit dem haben wir mit Spannung verschiedene Berichte wie diesen über das... Weiterlesen

Das hreflang Tag bei mehrsprachigen Sites

Bei Websites, die über mehrere Sprachversionen verfügen, gibt es dementsprechend für einzelne Pages unterschiedliche Versionen für die jeweiligen Sprachen. Dies kann unter Umständen in Suchmaschinen zu verschiedenen Problemen führen: In den Suchergebnissen wird nur ein Ergebnis in einer anderen Sprache angegeben, obwohl es eigentlich auch eine Version in der Sprache... Weiterlesen

Noch mehr Sicherheit durch HSTS

HTTP Strict Transport Security, kurz HSTS, ist ein Standard welcher verhindert, dass Websites über das unsichere HTTP-Protokoll aufgerufen werden. Somit wird die Website ein weiteres Stück sicherer, da die Wahrscheinlichkeit einer man-in-the-middle Attacke sinkt. Ein Eintrag im HTTP-Header teilt dem Client mit, die betreffende Domain ab jetzt nur noch verschlüsselt über HTTPS abzurufen.... Weiterlesen

Korrektes Verwenden der robots.txt

Das Robots-Exclusion-Standard-Protokoll verpflichtet Webcrawler beim Durchsuchen einer Website als erstes die robots.txt zu lesen und deren Anweisungen zu befolgen. Dieses Protokoll kann natürlich nicht verpflichtend sein sondern ist auf das Mitmachen sogenannter "freundlicher" Webcrawler angewiesen. In der robots.txt können Bereiche ausgewiesen werden, welche in Suchmaschinen nicht auftauchen sollen. Lange war... Weiterlesen

Probleme mit Google Chrome auf Windows 8.1

Seit kurzem hatten wir in der Agentur vermehrt Probleme mit Google Chrome. Websites brauchten extrem lange zum Laden und häufig blieb das Fenster einfach nur weiss. Schlechte Voraussetzungen für ein Unternehmen, das hauptsächlich mit dem Browser arbeitet. Seltsamerweise brachten ein Abbrechen des Ladevorgangs und ein Pagereload häufig augenblicklich die gewünschte Seite. Stutzig... Weiterlesen

Caching und Komprimieren über den Apache HTTP Server

Erneut ein Artikel der im Zusammenhang mit Google steht. In den letzten Tagen wurde viel über die neuen Kriterien für Googles Suchmaschinen-Ranking diskutiert. Unter anderem ist nun auch eine Optimierung für mobile devices ausschlaggebend für eine gute Platzierung in den Suchergebnissen. Google hat diesen mobile friendly-Test zur Verfügung gestellt, mit... Weiterlesen

Ghost referral spam bei Google Analytics

Beim heutigen Blick auf den Google Analytics Account für unsere Website k-webs.ch ist uns aufgefallen, dass derzeit wieder ein relativ grosser Teil unseres Traffics durch Spam Referrals zustande kommt. Und dies, obwohl wir seit Semalt und Co. (hier eine informative Zusammenfassung zum Thema: http://philiseo.de/semalt-crawler-blockieren/) bereits eine ellenlange Liste via .htaccess... Weiterlesen