Bevor mit einer Optimierung der Performance begonnen wird, sollten die Ladezeiten und die damit verbundenen Optimierungspotentiale ermittelt werden. In dem weiteren Verlauf ist es empfehlenswert die Performance fortlaufend zu überwachen, um Abweichungen frühzeitig zu erkennen und beheben zu können. Dazu bietet sich eine Kombination verschiedener Werkzeuge an, die eine einfache Bewertung der Webseite anhand von Bewertungssystemen vornehmen [Ber15].
Die Entwickler-Tools in Browsern vergeben keine Bewertungen und ermöglichen somit keinen einfachen Vergleich verschiedener Webseiten, weil die Ergebnisse von den Entwicklern jeweils gelesen und entsprechend interpretiert werden müssen. Mit den Bewertungen von YSLOW, PageSpeed Insights oder dem Speed Index von WebPagetest hingegen lassen sich die Webseiten durch die erzielten Punkte vergleichen. Offensichtliche Optimierungspotentiale können auf diese Weise direkt aus den Handlungsempfehlungen entnommen werden. Wasserfalldiagramme zur Analyse und Auswertung werden jedoch weder von YSLOW, noch von PageSpeed Insights erstellt. WebPagetest ermöglicht umfassende Vergleiche zwischen mehreren Webseiten und bereitet die Messergebnisse in verschiedenen Diagrammen übersichtlich auf.
Bei der Analyse von Wasserfalldiagrammen ist auf Abweichungen der Erreichbarkeit der Webseiten zu achten, da es durch eine unterschiedlich starke Auslastung der Netze und die Wahl der Routingwege zu Verzögerungen beim DNS-Lockup sowie der Time to First Byte kommen kann. Sind in den Ergebnissen Abweichungen ersichtlich, ist ein erneuter Test durchzuführen, um die Vergleichbarkeit der Messwerte sicherzustellen.

Bei den Versuchen im Zuge dieser Arbeit zeigte sich, dass der Zeitpunkt und die Wahl des Teststandortes Auswirkungen auf die ermittelten Messergebnisse haben können. Abends durchgeführte Versuche erzielten zum Teil bessere Ergebnisse als Versuche am Vormittag. In der Abbildung 2.18 wird ein Unterschied der Ladezeit von 0,3 Sekunden zwischen den Standorten Frankfurt und Amsterdam während des unmittelbaren Abrufs der gleichen Webseite gezeigt. Aus diesem Grund ist es empfehlenswert vor der Durchführung von Vergleichstests zu prüfen, welcher Serverstandort die bessere Verbindung zum Webserver erreicht und die Testdurchläufe unmittelbar nacheinander auszuführen.
Bei der Performanceoptimierung ist nicht nur die erforderliche Ladezeit und der Umfang des Datenvolumens zu beachten, sondern auch die vom Nutzer wahrgenommene Ladezeit. Die Darstellung des sichtbaren Bereiches (Visually Complete) steht jedoch nicht zwingend in einem Zusammenhang mit dem Umfang des Datenvolumens. Scott Jehl schreibt dazu: „Weight doesn’t necesarily need to increase the time a user needs to wait to use a page“ [Jeh14a]. Aus Sicht der User Experience sollte auf die Zeit geachtet werden, die erforderlich ist, um eine Webseite bedienbar zu machen [Ber15]. Dieser Faktor wird auch zur Bildung des Speed Index von WebPagetest herangezogen.
Entwickler-Tools und YSLOW sollten laut Lara Hogan bereits während der Entwicklung genutzt werden. Nach der Fertigstellung der Website empfiehlt sie, einmal pro Quartal die erzielten Werte einzelner Seiten zu überprüfen. Nach umfassenden Änderungen sollten zusätzlich synthetische Tools genutzt werden und im Rahmen des Real User Monitoring eine wöchentliche Auswertung erfolgen, um die durchschnittliche Ladezeit und die demografische Ausrichtung der Nutzer zu analysieren [Hog15].
Beim Real User Monitoring ist zu hinterfragen, auf welcher Basis die Daten erhoben wurden. Ist die Grundmenge der Nutzer zu gering, lassen sich keine aussagekräftigen Ergebnisse erzielen. In diesem Fall ist eine Anpassung der Samplerate (siehe Kapitel 2.2.3) zu empfehlen. Die Nutzung von Google Analytics hat zum Nachteil, dass sich damit nur Durchschnittswerte ermitteln lassen und Ausreißer keine Beachtung finden [Ste12].
Sofern viele Personen an einer Website mitarbeiten empfiehlt es sich, in regelmäßigen Abständen Routine Checks vorzunehmen, um Änderungen, die negative Auswirkungen auf die Performance haben, frühzeitig zu identifizieren. Dies können beispielsweise zu große oder falsch komprimierte Bilder sein. Es ist daher von Vorteil bereits während der Planung ein Performance Budget (nachfolgend in Kapitel 2.3 behandelt) zu definieren und dessen Einhaltung zu prüfen [Hog15]. Die Messergebnisse lassen sich bei vielen Tools als HAR-Datei speichern, dabei handelt es sich um eine HTTP-Archive-Datei, in der Informationen zu den HTTP-Anfragen, den übertragenen Inhalten und die Übertra-gungsdauer enthalten sind [KR13]. Mit dieser Datei können Ergebnisse archiviert und mit Tools wie dem HAR Analyzer von Google analysiert und verglichen werden.