Bad Bots zum Nutzen der Website-Performance nutzen
Klingt irgendwie skurril: Bad Bots zur Optimierung der eigenen Webseite nutzen? Ja, wir tun das. Jeder “normale” Aufruf eines Beitrags durch einen Bot benötigt knapp über eine Sekunde bis zur Auslieferung. Dadurch wird dieser Beitrag als Datei im Cache generiert. Danach wird der Beitrag aus dem Cache geliefert – in 0.01xx Sekunden. Wenn also die Bad Bots unseren Cache aufbauen, werden “menschliche” Besucher mit einer schnellen Auslieferung des Beitrags belohnt. Wir gehen das Experiment ein und haben das Plugin Stop Bad Bots und auch andere deaktiviert. Come on baby light my cache
Travelers' Map is loading...
If you see this after your page is loaded completely, leafletJS files are missing.
If you see this after your page is loaded completely, leafletJS files are missing.
Das Experiment funktioniert – we drive a really fast car
Der Cache ist in drei Tagen auf 1.1 GB gewachsen. MultiPlusPerformanixOptimus in 0.01xx Sekunden aus dem Cache. Drive
Das Experiment scheint zu funktionieren
Der Cache ist in 48 Stunden auf 690 MB gewachsen. Unsere Artikel werden in 0.01xx Sekunden aus dem Cache bedient. Da hat sich offenbar die Windrichtung geändert. Wind of change. Only a fast traveLink is a good traveLink
400 MB in 24 Stunden
Die Bad Bots verursachen 10 bis 20 Seitenaufrufe pro Minute. Das war zu erwarten. Der Cache ist dadurch seit gestern innerhalb von 24 Stunden von 0 MB auf 402 MB gewachsen. Not bad. Seiten aus dem Cache werden in 0.01xx Sekunden ausgeliefert. Das Experiment scheint erfolgreich. Da rollt der Donner ganz gewaltig. Ich liebe es, wenn Pläne funktionieren