Table des matières de l'article :
Introduction
Il y a des situations difficiles à expliquer d'un point de vue technique, et il y a des sentiments encore plus difficiles à expliquer d'un point de vue purement émotionnel. Il ne faut pas parler d'émotions sur un blog purement technique où l'on parle de Performance Web et d'Hébergement WooCommerce, cependant il est indéniable qu'il serait vraiment dommage de ne pas faire comprendre au lecteur à quel point cela peut être frustrant et insatisfaisant d'un point de vue humain être de se sentir Giovanna D. 'Tourner arc.
Jeanne d'Arc était célèbre dans l'imaginaire populaire pour avoir eu des visions et fait des prophéties auxquelles elle était généralement discréditée et non crue, nous n'avons heureusement pas de visions et les "prophéties" ne sont certainement pas le fruit du divin ou du surnaturel mais simplement de l'expérience acquise pendant plus d'une décennie qui nous a permis de faire des prédictions sur des situations à haut risque dans des sites tels que d'autres trafics .
Comment aurions-nous dû nous comporter, par exemple, en lisant l'histoire d'une agence de communication, de référencement et de relations publiques numériques très connue et talentueuse dans le Nord, qui communiquait le diffusion d'un spot publicitaire sur Sky Uno en prime time juste avant le très célèbre talent show X Factor ?
Combien coûte un tel événement ? Au-delà des coûts de production du Spot qui dépasse largement notre compétence mais dont on imagine tout de même qu'il a un coût non négligeable si l'on considère les acteurs, le maquillage, les perruques, les caméras, le montage vidéo, la post-production, la réalisation etc., les coûts les plus importants et les plus impactants ne sont probablement pas tant les coûts de création du spot, mais les coûts de transmission sur des réseaux importants tels que, par exemple, SKY Uno aux heures de grande écoute.
On sait que le monde de la publicité télévisée est très varié et que dans certaines conditions, les acheteurs médias peuvent se vanter d'offres commerciales ad hoc tout à fait convenables et très éloignées de ce que sont les offres "standard" souvent annoncées dans les tarifs canoniques qui, dans fait souvent que la fonctionnalité d'orientation.
Indépendamment des marchandages et des traitements extrêmement avantageux qui peuvent être obtenus, il faut cependant garder à l'esprit qu'il s'agit de chaînes de télévision importantes, avec des audiences impressionnantes et avec des offres de listes pourtant très, très chères.
Pour information, en fait, ce qui précède sont les coûts indicatifs pour gérer et passer des publicités lors d'un événement comme celui mentionné, c'est-à-dire XFactor 2022.
Sans vouloir rien dire, mais uniquement à titre indicatif, une telle démarche a un coût très élevé, c'est pourquoi il aurait été logique d'essayer de maximiser les profits en évitant les temps d'arrêt et les situations de ralentissement qui font peur à toute campagne publicitaire en ligne.
Par souci d'exhaustivité de l'information, il faut dire que plusieurs de nos clients (et clients de nos clients) au fil des années ont eu besoin de nos services précisément pour mettre des publicités qui auraient apporté beaucoup de trafic sur les réseaux nationaux (RAI et Mediaset ).
Des campagnes telles que Arquati Tende da Sole ont trouvé en nous la solution d'hébergement performante pour les temps d'arrêt et les plantages, ou l'apparition de Martina Gold dans le célèbre programme Ciao Darwin, des lancements pour n26 dans le cadre de collaborations avec les marques de football de nos clients, etc. sur.
Il était donc normal et peut-être même un devoir de conscience d'examiner comment le site qui aurait été soumis à beaucoup de trafic était technologiquement structuré, et constatant un TTFB décidément élevé, ainsi que l'absence de caches statiques côté serveur, le manque de formats d'images optimisés comme Webp et une mauvaise utilisation de l'en-tête Vary: User-Agent, nous avons eu le bon sens de communiquer à l'auteur du message ci-dessus que le site se déconnecterait probablement de la manière dont il était configuré.
Ayant parmi le cercle d'amis (parler dans le passé est objectivement nécessaire) l'auteur du message public mentionné ci-dessus, nous n'avons pas hésité à communiquer sans trop de mots que le site se déconnecterait, en prenant soin et diligence de communiquer également les raisons (et analyse super partes associée Google PageSpeed Insight) à ceux qui aiment Stefano (un autre expert en développement de commerce électronique et initié) ont minimisé avec sympathie ce qui, à notre avis, était désormais une dernière phrase.
Dans l'écran miniature nous sommes allés joindre en connaissance de cause les résultats du Google PageSpeed Insight qui ont montré de manière assez claire et éloquente des valeurs très éloignées des attentes de Google, qui bien qu'elles puissent constituer un problème "négligeable" avec peu de trafic, deviennent des problèmes aux proportions épiques si le site doit supporter un trafic élevé, comme celui qu'il aurait obtenu d'une émission télévisée avant X Factor.
Il est immédiatement évident que le TTFB élevé signifiait de faibles performances côté serveur, ainsi que l'utilisation de formats multimédias non récents (les anciens JPG et PNG au lieu du nouveau webp pour ainsi dire) auraient pu saturer la liaison montante (normalement à 1Gbit /s chez le fournisseur actuel), surtout en l'absence d'un CDN comme CloudFlare.
Globalement, les valeurs rapportées sont très médiocres pour un projet Web qui aspire à obtenir le succès dû et mérité.
Dès lors, rien de significatif n'a été fait en termes d'optimisation si ce n'est l'ajout d'un plugin d'optimisation et d'un cache côté application comme WP Rocket qui, comme nous l'avons toujours signalé, ne suffisent pas pour un site à fort trafic : Quand les plugins WordPress Cache ne suffisent pas. Reverse Proxy et Object Caching : des performances au plus haut niveau.
Les effets réels d'une connexion en ligne sans réglage côté serveur
Nous avons donc voulu voir en direct quels auraient été les prétendus effets néfastes de la mise en TV d'un site pas suffisamment optimisé pour supporter une quantité de trafic estimée de toute façon importante.
Nous nous sommes donc branchés sur Sky Uno et avons attendu smartphone en main le passage du spot publicitaire à la télé. Dès que la publicité a commencé, nous nous sommes dirigés vers la page d'accueil du site et nous l'avons rafraîchie à une fréquence plus ou moins régulière d'une toutes les deux secondes.
Après quelques secondes (une dizaine environ), le site est apparu comme vous pouvez le voir dans la vidéo suivante, avec des problèmes d'ouverture, une "roue" en perpétuelle attente et une barre de progression qui ne voulait pas savoir avancer face à un site qui ne se chargeait pas.
Même en allant sur le site .it (une redirection vers le site principal .com), nous étions confrontés exactement à la même situation, il n'y avait en aucun cas un moyen de le naviguer et d'être redirigé vers le site principal.
Après plusieurs minutes au cours desquelles l'afflux de visiteurs ne pouvant pas naviguer sur le site a probablement diminué, le temps d'ouverture du site (de la Homepage notamment) a été supérieur à 16 secondes (SEDICI), en utilisant l'utilitaire curl de Linux bien visible depuis le image suivante.
Est-ce la responsabilité et la faute de l'Hébergeur ? Ou peut être pas.
Il serait commode pour nous de dire avec certitude que la faute était à l'hébergement avec des technologies côté serveur qui n'étaient pas adéquates pour supporter une quantité importante de trafic. Cependant, cela peut être une fausse déclaration car nous ne savons pas vraiment comment les choses se sont passées.
Ce qui est certain, c'est que notre CTO Marco Marcoaldi, parlant avec celui qui dans Fattoretto Srl était chargé de faire des choix concernant l'hébergement (celui qui dit précisément qu'il évalue dans le message ci-dessus) a révélé les problèmes techniques et technologiques qui allaient certainement examiné, réfléchi, approfondi et analysé avec le soutien de l'hébergeur actuel.
Il n'est pas contesté qu'il était acquis qu'il y aurait eu un pic de trafic beaucoup plus important que le trafic standard, un trafic à tous égards qui ne peut être déterminé a priori, un événement qui doit être traité en tenant compte de la pire situation possible, c'est-à-dire trouver des centaines de milliers d'utilisateurs en ligne par minute.
Partant de ce postulat, la pratique consiste à se diriger vers des instances physiques dédiées de classe entreprise avec le nombre maximal de cœurs et de threads disponibles et une configuration réseau et logicielle à la perfection avec toutes les précautions nécessaires.
Qu'entend-on par "Enterprise Band" ? Nous ne parlons pas du vaisseau spatial Star Trek, mais plutôt d'une gamme Haute / Très Haute qui n'est normalement autorisée que par les grandes entreprises et les entreprises définies comme la gamme Enterprise.
Dépenser 50€ - 150€ pour un serveur dédié par mois est à la portée de tous, y compris des particuliers, faire un investissement de 1000€ par mois pour des serveurs commence déjà à être réservé à très peu d'entreprises.
Cela aurait permis, par exemple, de louer pour un mois (ou en tout cas la durée de la programmation du commercial) une machine très bien blindée avec au moins 32 cœurs / 64 threads d'un processeur de dernière génération et avec des disques nVME rapides .
Si cette nouvelle de problèmes potentiels n'a pas fait l'objet d'une enquête auprès du support technique, révélateur d'inquiétude, tout en précisant qu'elle serait diffusée avec le spot qui l'aurait renvoyé sur le site, en prime time, juste avant le début d'un très populaire programme comme X Factor , le problème et la responsabilité sont attribuables exclusivement à la personne qui, en possession d'informations techniques qui auraient dû s'alarmer d'un temps d'arrêt probable, n'a pas examiné avec diligence et responsabilité des données détaillées provenant d'une source fiable.
Bref, ce n'est pas le boulanger qui vous a dit que vous alliez peut-être vous déconnecter, mais une figure technique qui fait cela depuis 2005 et qui a également précisé les différentes motivations mesurées avec des outils officiels et des superpartes comme Google PageSpeed Insight, qui aurait donc dû vous laisser saisir la vérité de ses propos et la bonté de ce qui est dit.
Bref, si cette situation extraordinaire n'est pas précisée à l'Hébergeur, qui peut être gérée de manière extraordinaire avec des solutions matérielles et logicielles extraordinaires (où extraordinaire signifie extra - ordinaire, ou pas ordinaire, hors de l'ordinaire), il est évident et évident qu'un Hébergeur ne peut pas se charger de mettre en place sa meilleure solution matérielle/logicielle pour l'événement extraordinaire, également parce qu'elle nécessite un travail supplémentaire de la part de l'Hébergeur et des débours de sa part qui nécessiteront nécessairement une renégociation du contrat ou la facturation d'une partie de la prestation.
Cependant, nous pensons que même un investissement supplémentaire de 1000 euros, pour garantir la meilleure expérience utilisateur, compte tenu de l'investissement économique que peut nécessiter un commercial tant dans la réalisation que dans le passage sur une chaîne comme Sky Uno, était certainement un investissement de protection de sa propre entreprise.
Si en revanche le problème avait déjà été signalé à l'Hébergeur en prenant soin de préciser en détail et avec précision que le spot passerait en prime time, lors d'une émission télévisée très suivie, et que l'Hébergeur a minimisé la importance d'un réglage ad hoc, spécifique à l'éventualité, alors à ce stade, il est supposé que la responsabilité incombe exclusivement à l'hébergeur qui n'a pas été en mesure d'évaluer scrupuleusement une situation qui aurait nécessité au moins l'installation et un réglage de un cache HTML statique comme Varnish, LSCache ou NGINX FastCGI Cache, dont il n'y a aucune trace en examinant les en-têtes de réponse HTML.
Si l'on considère également que la configuration côté serveur est restée la même quatre jours après la communication du problème et le temps d'arrêt associé, il est bien évident qu'une fois de plus nous avons tendance à minimiser l'importance de ce qui a déjà été communiqué. C'est à dire que le site n'est pas prêt à supporter des pics de fréquentation mais malgré tout il est déjà comme ça.
Conclusion et matière à réflexion
Comme nous le répétons et nous le répétons habituellement, après tout dans la vie, ce n'est jamais perdu. Soit vous gagnez, soit vous apprenez.
À partir de cette histoire, nous avons eu l'occasion de dessiner, de documenter et de partager une étude de cas assez éloquente qui montre et démontre (vidéos et tests en main) comment parfois même les meilleures entreprises de communication italiennes et les meilleurs projets peuvent trébucher ruine sur ce qu'ils ne connaissent pas assez.
Parce qu'entre faire brillamment, la communication, les RP numériques, le marketing et le design, et savoir faire du réglage côté serveur et côté système, spécifiquement pour les sites WooCommerce (comme dans ce cas), trop de choses passent.
Le responsable avait été sensibilisé aux conséquences possibles (et probables) de s'exposer à la télévision avec un site web pas suffisamment optimisé pour gérer "tout" le trafic qui arriverait., mais peut-être que l'enthousiasme démesuré du moment a sans doute éclipsé l'aspect purement technologique, qui découlait certainement de moyens de fortune tels que WP Rocket, a au moins évité le pire, gérant au moins en partie le trafic suivant celui du pic initial que nous avons montré et documenté dans la vidéo.
Il est incontesté de dire et d'affirmer que même les meilleures initiatives et les meilleures intentions peuvent être vaines si l'on ne s'entoure pas de personnalités extrêmement techniques capables non seulement d'appréhender le problème, mais aussi des implications futures, qui dans ce cas ont certainement impacté économiquement. , ne permettant pas aux visiteurs (et donc aux clients potentiels) de visiter un site qui ne s'est pas ouvert et qui pendant un certain temps a été navigué à des vitesses certainement supérieures à celles recommandées pour maximiser les ventes.
Une fois de plus, donc, la démonstration pratique de comment le pire aurait pu être évité en suivant les conseils de professionnels spécialisés et verticalisés dans le domaine de la performance web, qui auraient géré la situation d'une manière extrêmement différente, dimensionnant un HW de niveau entreprise, spécifiquement pour l'événement. Un thread de 32 cœurs / 64 au minimum aurait configuré correctement un système de mise en cache d'entreprise comme Varnish et aurait utilisé des formats optimisés comme webp au lieu des très lourds jpeg et PNG.
Malheureusement, comme cela est arrivé à Giovanna D'Arco, nos avertissements n'ont pas été entendus et l'inévitable s'est produit, impactant à la fois en termes d'image et de retour économique manqué, une initiative marketing certainement gagnante et louable.
Lorsque vous sous-estimez l'importance d'une figure systémique, souvenez-vous de cet exemple et de cette étude de cas pour comprendre ce qu'il ne faut pas faire lorsque vous avez l'intention de porter un site Web à la télévision.
Par exemple, après 10 jours supplémentaires à partir de l'événement, un temps plus qu'adéquat et suffisant pour courir à couvert et résoudre les problèmes déjà communiqués à la propriété, on retrouve toujours le site avec la même pile technologique qui ressort de l'analyse des en-têtes et d'écarts importants et grossiers comme, par exemple, le manque de compression Brotli.
Ainsi que l'absence d'une fonctionnalité très importante ou du protocole HTTP2.
Lorsque nous naviguons sur un site Web via le navigateur, nous adressons essentiellement une demande au serveur et le serveur répond en envoyant les données de cette page spécifique. Cependant, les données ne sont pas envoyées toutes ensemble, mais sont décompressées en plus petits éléments d'information. La page du site, pour être chargée dans le navigateur de l'utilisateur, doit attendre l'arrivée de chaque information.
Cela vaut également pour le protocole HTTP (celui qui a pratiquement toujours été utilisé sur Internet).
Il multiplexage, c'est la nouvelle fonctionnalité utilisée par HTTP2, permet de "déchiqueter les demandes"Afin que plus d'informations puissent être envoyées dans les deux sens en même temps. Cela rend la connexion entre le navigateur et le serveur beaucoup plus flexible, efficace et - par conséquent - beaucoup plus rapide.
En moyenne, il a été calculé que les sites utilisant le protocole HTTP2 sont capables de charger des pages plus rapidement que 50 % !
Prenons un exemple : s'il faut actuellement environ 3 secondes pour charger la page d'accueil de votre site sur un smartphone avec connexion 8G, avec le Http2 vous aurez l'accueil beau et chargé en 4.
Il est incontesté d'affirmer sans trop d'euphémismes à la lumière de cette dernière lacune grave (l'absence de HTTP / 2) qu'il y a probablement eu un certain manque d'intérêt pour l'optimisation du site Web et que la structure d'hébergement actuelle qu'ils utilisent a plutôt des configurations. vetuste n'est pas en mesure de garantir et d'offrir les meilleures pratiques à ses clients.
Voyons, par exemple, la propagation de HTTP / 2 en octobre 2022, nous aidant avec les données de https://w3techs.com/technologies/details/ce-http2
Jusqu'à 42% des sites Web dans le monde utilisent HTTP / 2, un protocole très important capable d'au moins doubler la vitesse de transfert de données et de rendu de la page Web aussi facilement visible à partir de la démonstration animée ci-dessous.
Mis à jour le 3 novembre 2022.
Il semble que notre travail de suivi et de communication des problèmes à l'un des partenaires ait produit l'effet escompté, c'est-à-dire qu'une attention ait été portée aux problèmes de performances et d'optimisation de l'installation côté serveur afin d'héberger correctement WooCommerce.
Vérification sur SécuritéTrails.com, un service en ligne capable de montrer les variations IP et DNS, nous avons remarqué à partir de l'image suivante que le 31 octobre 2022 l'IP qui répond au domaine birredamanicomio.com est devenu 77.39.211.105, au lieu de l'ancien 185.81.1.17 qu'il était en service depuis près de 5 ans.
La motivation n'est pas connue, mais nous pensons qu'il est incontesté qu'ils souhaitaient faire évoluer leur pile technologique en optant pour des améliorations côté matériel (ce que nous ne pouvons que supposer) et certainement côté logiciel.
En fait, si jusqu'au 30 octobre ils utilisaient un serveur web Apache, à partir du 31 octobre les choses ont changé comme on peut le voir sur les en-têtes de la capture d'écran suivante produite par curl -I
Nous pouvons voir comment le serveur Web est maintenant devenu NGINX, notoirement plus performant qu'Apache , le tout sur un serveur géré via le panneau de contrôle Plesk.
Cependant, nous ne trouvons aucune trace dans les en-têtes des systèmes de cache côté serveur et de Full Page Cache tels que Varnish Cache qui auraient certainement pu améliorer les performances du site de manière absolument décisive, notamment face aux pics de trafic.
Pagespeed s'est-il amélioré ? Et les représentations ?
A ce jour (3 novembre à 13h48) le résultat de l'analyse Google PageSpeed Inside, apporte les résultats suivants qui en termes de performances sont tout simplement médiocres pour un projet qui vise à se présenter au grand public avec de la publicité télévisée campagnes d'un certain niveau.
Pour être honnête, le score de PageSpeed semble encore pire, affichant un 16 inconvenant, par rapport aux 20 tout aussi inconvenants qu'il a montrés dans l'analyse précédente que vous pouvez trouver ci-dessus.
Nous n'irons pas trop loin dans l'analyse des différents éléments du rapport Google PageSpeed Insight, pensez simplement qu'utiliser déjà la compression Brotli, les images HTTP/2 et webp aurait certainement fait beaucoup avec un minimum d'effort.
Il semble absurde et paradoxal qu'en 2023, il existe encore des sites Web qui n'ont pas activé la compression HTTP / 2 ou Brotli.
La nouvelle configuration est passée à la télévision le 2 novembre et s'est à nouveau déconnectée.
Le spot a été rediffusé le 2 novembre vers 21h30, en conjonction avec le X Factor Live sur TV8, la chaîne numérique terrestre du groupe Sky.
Et voici ce que nous dit notre système Uptime.
A 21h34 (les premiers signes commencent déjà à 21h33) le site met 16,2 secondes (seize secondes) pour pouvoir ouvrir la page d'accueil. Le problème persiste avec ce contenu jusqu'à 21h37 avec un trou d'environ 4 minutes, dans lequel le site était en fait inutilisable (qui attendrait 16 secondes pour ouvrir une seule page web ?).
Pratiquement exactement le même problème et exactement les mêmes valeurs que nous avons diagnostiquées la fois précédente avec beaucoup de curl -I et la commande de temps pour mesurer l'ouverture lente.
Les données parlent d'elles-mêmes, exactement le même problème : 16,277 secondes contre les 16,275 secondes précédentes que vous pouvez voir dans l'écran ci-dessus.
Nous ne sommes pas. Nous ne sommes pas.