Mobiles Web Debugging

Beim Thema Web Debugging denkt vermutlich fast jeder mit Webentwicklung auch nur ansatzweise Vertraute nicht zuletzt an diverse Tools, mit denen etwa aus einem Browser heraus Websites analysiert werden können. Treten externe Services hinzu, beispielsweise zur Untersuchung der Ladezeit einer Website und einer Einschätzung von deren "guter" Umsetzung hinsichtlich Performance,... Weiterlesen

DNS-Konfiguration: Nameserver überprüfen

Domains und Inhalte eines Webauftritts bei einem Hoster zu bündeln, ist sicherlich für die meisten privaten Websitebetreiber selbstverständlich und wird auch von vielen Firmen für deren Websites so gehandhabt, wenn keine eigenen Server zum Einsatz kommen. Dabei liegt es meist nahe, auch auf die Name- und oft auch die Mailserver... Weiterlesen

Website-Monitoring: Downtime oder Performanceproblem?

In unserem Thema des Monats Juni stellen wir Möglichkeiten vor, mittels verschiedener SaaS-Anbieter (Software as a Service) Websites und Server auf ihre Erreichbarkeit hin zu überwachen. Die dort getroffenen Aussagen sollen an dieser Stelle in keiner Weise widerrufen, vielmehr um einen wichtigen Hinweis ergänzt werden. Viele dieser Anbieter, beispielsweise das ausführlicher... Weiterlesen

Korrektes Verwenden der robots.txt

Das Robots-Exclusion-Standard-Protokoll verpflichtet Webcrawler beim Durchsuchen einer Website als erstes die robots.txt zu lesen und deren Anweisungen zu befolgen. Dieses Protokoll kann natürlich nicht verpflichtend sein sondern ist auf das Mitmachen sogenannter "freundlicher" Webcrawler angewiesen. In der robots.txt können Bereiche ausgewiesen werden, welche in Suchmaschinen nicht auftauchen sollen. Lange war... Weiterlesen