Op welke trends speel jij op dit moment in? Het interessante is dat de fundamenten van een snelle site geen trends zijn, zoals de fundamenten van SEO in het algemeen ook overeind blijven staan. Bijvoorbeeld qua content: blijf voor de gebruiker schrijven in plaats van te overdrijven. Tuurlijk komen er zaken voorbij als PWAs en SPAs, of Google introduceert een nieuwe metric (zoals INP in maart 2024). Daaromheen probeer ik op LinkedIn dan vooral te informeren, dus echt inspelen op een trend zou ik het niet noemen. Maar als ik dan toch iets moet noemen: Google is Speculation Rules aan het pushen en dat kan zeker voor statische sites interessant zijn. Tegelijkertijd zijn meer dan 90% van mijn cases echter e-commerce, en dan kan het sneller zijn dat een pagespeed best practice dat voor een statische website werkt, voor een webshop niet werkt of met veel meer nuances komt.
Wat is volgens jou de grootste uitdaging voor pagespeed in de toekomst? Frameworks. De hoeveelheid JavaScript wordt in frameworks namelijk steeds groter. De eenvoud van het starten met een framework kan er bovendien voor zorgen dat een developer niet meer bekend is met de fundamenten van het web. Een voorbeeld: doordat browsers blijven ontwikkelen, heb je tegenwoordig steeds minder JavaScript nodig. Zoals bij het lazy loaden van afbeeldingen of zelfs het bouwen van een interactieve image gallery. Wanneer een developer daar niet van op de hoogte is en blind vertrouwt op wat een framework doet, kan het zijn dat een site nog jarenlang onnodige JavaScript blijft serveren.
Hoe bepaal jij welke werkzaamheden prioriteit krijgen bij de optimalisaties? Dat baseer ik vooral op kennis en ervaring. Een Lighthouse rapport probeert de lezer een indruk te geven van de invloed van een aanbeveling. Echter, Lighthouse (wat een synthetische test is) en Core Web Vitals (wat gebaseerd is op een subset van echte gebruikers) zijn niet hetzelfde. Het gevolg kan zijn dat je dagen besteedt aan een Lighthouse aanbeveling waar je in praktijk niets van terugziet. Voordat ik daadwerkelijk mijn aanbevelingen deel, begin ik dan ook altijd met het inzichtelijk krijgen van RUM (Real User Monitoring) data. Ik heb dan immers een beeld van de condities als internetverbinding en type toestel, want de doelgroep verschilt altijd per website. Die data combineer ik met de waarde die elk individueel metric laat zien, waarmee ik inschat welke best practice of huidige anti-pattern een hogere prioriteit zou moeten krijgen dan een andere. Door dit te mengen met mijn kennis van hoe browsers werken en wat in andere cases heeft gewerkt, kan ik mijn aanbevelingen op de juiste manier prioriteren.
SEO en pagespeed optimization is hard werken, hoe meet jij het resultaat van je inspanningen? Dat heb ik eigenlijk al verklapt: met RUM data. Googleโs gratis Core Web Vitals data kan een begin zijn. Maar deze meet niet alles, mist nuances, heeft geen filtermogelijkheden in de data en loopt 28 dagen achter. Wanneer een developmentteam mijn aanbevelingen doorvoert en het marketingteam een week later een blik aan third parties open trekt en los laat op de site, wordt het met Googleโs data lastig bewijzen dat onze technische inspanning tot verbetering heeft geleid. Met real-time RUM data wordt de bewijslast sterker, waardoor voor mij de real-time data onmisbaar is.