Août 22 2022

Hébergement pour Affiliate Marketer, voyons quelles sont les caractéristiques idéales.

Si vous faites du marketing d'affiliation, vous ne pouvez pas choisir n'importe quel hébergement, mais vous devez choisir le bon pour augmenter les conversions.

Hébergement de marketing d'affiliation
Print Friendly, PDF & Email

Dans cet article, nous allons voir quelles sont les prérogatives et les besoins de ceux qui font du marketing d'affiliation et certaines des caractéristiques malheureusement non prises en compte par l'hébergement normal. qui ne connaissent pas le monde de l'affiliation, ni les problèmes techniques et les besoins que tout bon affilié devrait avoir.

En réalité, le problème n'est pas seulement celui des sociétés d'hébergement, mais également celui de l'affilié qui souvent, ce ne sont pas des personnalités techniques, mais plutôt des experts en publicité tels que FB ADS, Google AdSense, Outbrain, etc., et ils arrivent à se mesurer pour décider, mais sans aller trop loin dans la virtuosité technique à la base du métier d'affilié professionnel.

Si vous dépensez 100 euros par jour en publicité, maximiser un retour sur investissement de 5 % peut être plutôt hors de propos, mais si vous aimez certains de nos clients qui déplacent des centaines de milliers d'euros par jour en publicité, ces 5 % représentent la différence entre une entreprise rentable entreprise, non rentable ou extrêmement rentable.

Depuis 2017, nous collaborons avec Affiliation Park en tant qu'ingénieurs système, en même temps nous sommes actuellement fournisseurs des meilleurs affiliés italiens (dont nous ne pouvons pas divulguer les noms pour des raisons évidentes de confidentialité et de confidentialité), mais pensez simplement que ce sont eux qui font le enregistrements dans WorldFilia.

Bref, on connaît très bien le secteur, les acteurs impliqués, les cas, les besoins, le dépit que les différents commerçants affiliés souffrent (et subissent) entre DDOS et faux leads et nous avons créé un système de fourniture de services d'hébergement destiné précisément à cette niche extrêmement délicate et exigeante compte tenu des budgets en jeu.

Un bref examen est un must pour quiconque n'est pas un expert du secteur et ne sait pas ce qu'est le marketing d'affiliation (ou la génération de leads comme nous aimons l'appeler).

Qu'est-ce que le marketing d'affiliation ?

Le marketing d'affiliation ou le marketing d'affiliation est le processus de gagner une commission en faisant la promotion des produits d'autres personnes (ou entreprises). Vous trouvez un produit que vous aimez, en faites la promotion auprès des autres et gagnez une partie des bénéfices pour chaque vente que vous effectuez.

Evidemment promouvoir un produit signifie "le montrer" de manière attractive à un acheteur potentiel et par la communication, la rédaction, l'image et diverses créativités pour l'inciter à l'achat.

Pour chaque vente que nous effectuons, nous recevrons une commission qui est normalement d'environ 33% du montant vendu.

Une partie va au producteur, une partie va à la plateforme d'affiliation (voir WorldFilia par exemple), une partie va à l'affilié.

Évidemment, l'affilié pour faire connaître les produits à un public essaie de le cibler, de le profiler et de lui montrer une publicité inhérente et ciblée.

Très souvent, les publicités Facebook sont utilisées pour générer du trafic comme celui que vous voyez.

C'est Facebook à tous égards est une source de trafic.

C'est-à-dire qu'il s'agit du moyen payant par lequel nos messages promotionnels sont transmis et l'utilisateur est invité sur notre site Web ou notre page d'accueil pour conclure la vente.

Évidemment si le site n'est pas rapide, il ne s'ouvre pas, vous ne voyez pas qu'il n'y aura pas de vente, mais seulement un clic payant sur Facebook qui n'entraînera pas de conversion, ni de vente.

En bref, vous créez une campagne ADS, sélectionnez votre audience idéale, définissez votre budget quotidien. Facebook vous montrera la portée estimée de vos publicités. Vous pouvez choisir de diffuser vos annonces auprès de certaines personnes et de les filtrer par âge, sexe, lieu et centres d'intérêt.

Une fois la campagne lancée, elle commencera à toucher les utilisateurs. Évidemment, vous aurez une dépense dérivée des coûts des campagnes Facebook et un gain relatif de commissions.

Si nous imaginons que le coût des campagnes était de 1000 euros et que vous avez gagné 1000 euros de commissions, votre ROI était de 0 (vous avez atteint le seuil de rentabilité), si vous avez dépensé 1000 et que vous avez gagné 2000, votre ROI est de 100%.

Il est incontesté de dire que sur de gros volumes et de grands nombres dépensés en ADS un bon rendement moyen est attendu entre 25 et 33%.

Imaginez maintenant qu'en raison d'une erreur très insignifiante (la résolution coûte 4 euros) 10% des "femmes au foyer" ne peuvent pas voir et utiliser votre site, (mais évidemment vous payez quand même l'annonce FB ADS à Facebook).

Imaginez qu'à cause d'une autre erreur vous perdiez 5% de conversions, toujours sur la même campagne et sur la même audience.

Imaginez également qu'en raison de 2 autres petites erreurs, vous perdez encore 5 % de conversions.

Compte serviteur : vous avez perdu 20 % des conversions. Soit 20% des ventes. C'est 20% des gains.

Le site idéal pour tout Affiliate Marketer

Il est rare qu'un spécialiste du marketing affilié se soucie des aspects technologiques si un site est suffisamment converti. Ce qui compte vraiment dans ce type d'activité entrepreneuriale, ce sont les gains, les profits, les profits.

Aussi trivial que cela puisse paraître dans la définition elle-même, le site idéal pour tout affilié est un site qui vend, un site qui convertit le trafic en ventes et permet d'avoir un retour sur investissement positif, c'est-à-dire de pouvoir obtenir des bénéfices et non des pertes.

Mais comme l'argent ne tombe pas du ciel et qu'aucun entonnoir de vente n'est parfait puisqu'il y a toujours place à l'amélioration, les spécialistes du marketing affilié deviennent de véritables chiens de chasse pour identifier tous les problèmes et anomalies de l'entonnoir de vente, nous aidant à déterminer lesquels sont les meilleures pratiques pour un hébergement adapté à leurs besoins.

mais qu'est ce que ça veut dire? Signifie que un site doit être rapide, extrêmement rapide, compatible avec tous les appareils (connaissez-vous Android 6 installé sur l'ancien modèle Samsung Galaxy de la ménagère de 60 ans à qui vous offrez la crème pour le traitement de l'hallux valgus ?), et toutes les plateformes.

De même, il doit très bien fonctionner avec les plateformes d'affiliation, les réseaux sociaux et les actions de remarketing, avec Google Tag Manager par exemple, et ne pas subir une forte baisse du suivi des clics.

Évidemment, le temps de disponibilité doit être de 100% et vous devez avoir une assistance H24 sur des problèmes importants tels que les attaques DDOS Layer3 ou les applications Layer7 capables de filtrer les attaques ciblées de ce type en 15 minutes.

Les erreurs d'hébergement les plus courantes pour ceux qui font du marketing d'affiliation

Nous laisserons de côté tous les aspects d'une campagne réussie dans ce chapitre.

La créativité, la copie, les couleurs, la position des boutons et l'appel à l'action, les polices à choisir, etc., après tout, nous sommes des ingénieurs système orientés vers la performance et nous ne voulons pas nous considérer comme des experts en génération de leads. , Dieu pardonne.

Mais nous voulons lister les principales erreurs qui sont couramment commises par les spécialistes du marketing affilié, souvent de manière complètement inconsciente puisque personne ne l'a jamais communiqué et évidemment ils n'en sont pas toujours conscients.

Il faut dire que les points à traiter sont multiples si bien que la suite de l'article sera structurée comme suit : une liste à puces, avec son titre, une description plus ou moins large du problème et le cas échéant une référence à un lien possible à l'intérieur du blog comme une étude spécifique du sujet.

Ce faisant, vous pouvez prendre ce guide comme un manuel avec les différents points à barrer une fois que vous souhaitez mettre en production un projet de génération de leads basé sur des sites Web (peut-être WordPress) ou des pages de destination générées en mode auto-hébergé avec la norme couplée WordPress plus quelques outils WYSIWYG comme Elementor, Brizy, Divi, BeaverBuilder ou similaire.

Dans tous les cas, nous traiterons les arguments sur un plan purement théorique, en vous rappelant que ce qui est exprimé ici est généralement valable pour chaque site Web présent en ligne, qu'il s'agisse d'un site de marketing d'affiliation ou de génération de leads ou autre.

1. Faible disponibilité et temps d'arrêt fréquents.

Avoir un site fréquemment down, c'est avoir un site qui vous fait gaspiller votre budget inutilement, les campagnes risquent aussi d'être arrêtées car le site n'est pas joignable et vous met aussi dans la condition psychologique de ne pas vivre sereinement. Il est évident que vous devez au moins avoir un fournisseur d'hébergement avec une disponibilité d'au moins 99.99 % déclarée et un système de conduite proactif qui signale chaque temps d'arrêt en tant que robot de disponibilité ou si vous voulez faire vous-même l'excellent Uptime Kuma que nous avons revu ici Uptime Kuma, alternative open source et auto-hébergée à Uptime Robot et Status Cake.

Exemple de robot de disponibilité

Si vous vous rendez compte que votre hébergeur a tendance à avoir beaucoup de temps d'arrêt, tant en termes de fréquence qu'en termes de durée, envisagez judicieusement de changer d'hébergeur. En 2022, les normes sont désormais très élevées et trouver une infrastructure réseau garantissant une disponibilité telle qu'indiquée n'est pas absolument difficile.

2. Disponibilité de l'assistance technique

Si vous ne le faites pas déjà, vous devez commencer à considérer la loi de Murphy : si quelque chose peut mal tourner, cela arrivera tôt ou tard. Bref, évaluez la pire situation qui puisse arriver à votre site web et à votre landing page, une indisponibilité, une attaque de hacker, une défiguration, cela peut arriver n'importe quand, n'importe quel jour. Pensez à avoir un interlocuteur technique et technologique hautement compétent qui pourra vous assister en cas de problème grave et bloquant à tout moment de la journée, même le midi le jour de Noël ou le jour de l'An pour être clair. Évaluez un service de systèmes gérés plutôt qu'un webmaster normal, car en cas de problèmes graves, notamment de nature réseau ou matérielle, il est beaucoup plus probable que l'administrateur système retire les marrons du feu plutôt qu'un développeur Web. Si vous avez à la fois des chiffres disponibles et disponibles, eh bien pour vous : "Deux valent mieux qu'un" (Cit.).

Envisagez toujours d'avoir la possibilité de passer à un support de deuxième ou troisième niveau en 15 minutes, c'est-à-dire de pouvoir parler non seulement avec le helpdesk de l'entreprise où vous êtes hébergé, mais de pouvoir s'interfacer avec une figure technique qui peut comprendre et surtout résoudre le problème en quelques minutes. Avoir une assistance disponible et répondre H24 est certainement utile, mais il est plus utile qu'en plus de la réponse rapide, il y ait également une résolution rapide du problème.

Il existe des services gérés comme le nôtre dans lesquels vous pouvez avoir une disponibilité 24 heures sur XNUMX avec des techniciens et des ingénieurs système Linux expérimentés.

Cela coûte un peu plus cher qu'un hébergement classique, mais en cas de besoin vous comprendrez la différence.

3. Absence d'outils de protection et d'atténuation DDOS au niveau du réseau et des applications

Malheureusement, l'environnement du marketing d'affiliation est un environnement problématique, très problématique. Comme le monde du jeu en ligne, le monde de l'affiliation est également visé par des attaques DDOS assez élaborées. Un Affiliate Marketer performant doit nécessairement estimer qu'il sera tôt ou tard victime d'attaques de ce type, tant au niveau du réseau qu'au niveau des applications.

Il est donc important que votre hébergement dispose de mesures technologiques adéquates pour limiter et atténuer les dégâts et rejeter avec succès toutes les tentatives réussies.

Concernant les attaques réseau au niveau 3 de la pile ISO/OSI, il est bon de vérifier que le fournisseur de référence dispose des bonnes contre-mesures en plus de la capacité volumétrique pour absorber la tentative d'attaque.

Par exemple, bien que nous soyons un fournisseur indépendant, nous préférons toujours ont des centres de données qui ont une collaboration avec Arbor Networks (l'actuel Netscout). Les avantages sont nombreux comme, par exemple, pouvoir mitiger des attaques de plusieurs centaines de gigabits de manière absolument automatisée sans avoir à faire quoi que ce soit.

En bref, nous nous limitons à prendre note des notifications par e-mail du début de l'attaque, de la mise en service des systèmes d'atténuation automatique et de la fin de l'attaque.

Pour les attaques DDOS au niveau 7 du modèle ISO / OSI, c'est-à-dire celles applicatives, la chose est différente et rarement vous pouvez rencontrer des systèmes d'atténuation automatisés car vous devez d'abord analyser l'attaque (ou les attaques, au pluriel), les modèles relatifs et procéder ensuite à l'application des différentes règles de filtrage.

Tout d'abord, vous devez avoir une capacité d'analyse et une méthode éprouvée, ainsi que les bons outils. En ce qui concerne l'analyse, il est évident qu'il faut s'adresser à un fournisseur qui sait analyser, donc comprendre la portée et le type de l'attaque, l'origine au niveau géographique, puis savoir déployer des règles de pare-feu sur quoi nous avons choisi comme outil d'excellence, à savoir CloudFlare.

Nous avons bien parlé de CloudFlare dans plusieurs articles, dont celui-ci : Attaques DDOS et extorsion de paiements en Bitcoin ? Comment vous protéger avec CloudFlare

L'alternative à la mitigation DDOS serait de suspendre toutes les campagnes, de se précipiter dans un hébergement comme le nôtre, de tout migrer en urgence (prise en charge au moins 500€ uniquement pour le supplément d'urgence dans la phase d'onboarding du nouveau client) et de redémarrer après avoir perdu des ventes et du budget.

Évidemment, parmi les critères de sélection, le coût et les coûts cachés des solutions de mitigation DDOS doivent aussi nécessairement être évalués. Il existe des entreprises qui facturent entre 500 $ et 1000 XNUMX $ de l'heure pour le service d'atténuation DDOS Managed. Cela peut certes être bon pour une multinationale ou une entreprise d'une certaine importance ou taille, mais ce n'est pas le moins du monde possible pour des entreprises non structurées disposant de budgets adéquats.

Pensez simplement que dans notre service géré La gestion DDOS est incluse sans frais supplémentaires comme valeur ajoutée pour le client final.

4. Latence DNS élevée

Nous avons écrit un article entier sur le choix de serveurs de noms efficaces à haut débit et à faible latence : L'importance d'un DNS rapide faisant autorité pour la vitesse de votre site Web.

En bref, nous pouvons dire qu'avoir un temps de résolution DNS de 10 ms au lieu de 200 ms signifie gagner 0,2 seconde qui à son tour s'ajoute à d'autres facteurs et à d'autres délais. Si vous traitez également des connexions 3G problématiques dans des zones avec une couverture moins qu'idéale (avez-vous déjà vu ces structures italiennes du XIXe siècle avec des murs en briques pleines d'un demi-mètre d'épaisseur ?), Avoir un DNS rapide est toujours une bonne chose.

Meilleures performances DNS

Nous vous renvoyons à l'article ci-dessus, rejetant ce chapitre avec des conseils vraiment impartiaux; Utilisez les serveurs de noms de CloudFlare.

5. Absence de TCP BBR pour le contrôle de la congestion TCP

Et si je vous disais qu'en 2022, la plupart des connexions TCP/IP sont gérées par un algorithme de contrôle appelé CUBIC développé dans les années 80 ?

Aussi pour ce sujet, nous avons écrit un article sur: BBR TCP : la formule magique pour la performance du réseau.

Dans les années 80, on peut dire qu'il n'y avait pas de technologie de l'information à certains moments, encore moins le Wi-Fi. Pour cette raison, il est clair et évident que les algorithmes de contrôle de la congestion du trafic ont été conçus et développés en pensant que tout était connecté par câble. S'il y a un retard de communication ou une perte de paquets, peut-être que le câble dégrade le signal et ne supporte pas le débit initialement négocié pour lequel CUBIC a permis de renégocier le débit en bauds entre deux hôtes en abaissant le débit en bauds jusqu'à ce que ces erreurs et pertes de paquets soient réduit à zéro ou presque.

Aujourd'hui les choses ont changé, tout est sans fil, tout en wi-fi, 3g, 4g, 5g, une perte de paquets ou une augmentation de la latence ne veut pas forcément dire que "le câble ne supporte pas cette vitesse", donc ça ne sert à rien de renégocier rapidité s'il n'est pas vraiment nécessaire de le renégocier. TCP BBR est un protocole de contrôle de congestion écrit par Google qui permet de tirer le maximum d'une connexion en évitant de renégocier la vitesse nominale si ce n'est pas nécessaire.

Prenons un exemple pratique : vous disposez d'une connexion 3G dans une partie moche du sous-sol où vous avez décidé de déplacer le bureau l'été pour rester au frais, cependant vous arrivez à avoir une bande passante de 1mégabit, peu, mais pas très peu. La latence passe à 500ms au lieu des 10ms standards, et le serveur avec lequel vous visualisez le dernier électrostimulateur pour les abdominaux fabriqué en Chine mais sponsorisé par Cristiano Ronaldo, décide que puisque vous tardez à renégocier la vitesse à 0,1megabit soit 100kbit seconde .

Le site devient encore plus lent, vous vous impatientez, vous fermez le site et il perd une vente.

Pensez maintenant si au lieu de l'algorithme CUBIC des années 80, le serveur sur lequel le site fonctionne avait utilisé TCP BBR. Elle aurait raisonné différemment et compris qu'elle pouvait continuer à maintenir une connexion à un mégabit au lieu de la réduire par erreur à 0,1. Vous n'auriez pas fermé la connexion en raison de la lenteur du site et le site aurait fait une vente supplémentaire.

TCP BBR concerne non seulement les connexions 3G inexpliquées comme dans l'exemple ci-dessus, mais toutes les connexions wi-fi, 3g, 4g, 5g, qui à certains moments peuvent renégocier la vitesse de connexion. 100 mégabits, c'est le double de 50 mégabits et vous permet toujours de télécharger au double de la vitesse.

Bien que TCP BBR soit un produit voulu et conçu par Google et utilisé sur tous ses produits ainsi que sur Google Cloud, aujourd'hui l'implémentation est très facile à partir du Kernel 4.10 et plus.

Assurez-vous que votre hébergeur l'utilise dans son intérêt et dans le vôtre. Nous le faisons TOUJOURS comme une pratique.

Bref, TCP BBR, toujours.

6. Absence de compression BROTLI

Brotli est un algorithme de compression développé par Google, qui est utilisé pour réduire la taille des fichiers envoyés aux navigateurs Web. L'algorithme a été publié en open source en septembre 2015 et a depuis été adopté par la plupart des principaux navigateurs.

Brotli peut compresser des fichiers jusqu'à 20 % plus petits que gzip. Cela peut ne pas sembler beaucoup, mais chaque kilo-octet compte en ce qui concerne la vitesse du site. Cette statistique provient d'une recherche Google, où ils ont testé Brotli contre gzip sur un certain nombre de sites Web différents et ont constaté que Brotli était toujours meilleur.

L'avantage de Brotli par rapport à gzip est qu'il utilise un dictionnaire et n'a donc besoin d'envoyer que les clés de ce dictionnaire au lieu de la phrase entière. Cela améliore la compressibilité, en particulier sur les fichiers qui contiennent beaucoup de texte répétitif. L'inconvénient de Brotli est qu'il peut être plus coûteux en termes de temps CPU à compresser, mais c'est une considération relativement mineure étant donné que le temps CPU est bon marché.

Si vous souhaitez vérifier la compression Brotli d'un site, nous vous recommandons cet outil en ligne : https://tools.keycdn.com/brotli-test

7. Absence de HTTP / 2

Si on voulait associer une chanson pour expliquer le concept de HTTP/2 je choisirais « I Want it all » de Queen. Surtout dans le refrain "Je veux tout, et je le veux MAINTENANT".

HTTP / 2 (initialement appelé HTTP / 2.0) est une révision majeure du protocole de réseau HTTP utilisé par le World Wide Web. Il est dérivé du protocole expérimental SPDY antérieur, développé à l'origine par Google.

HTTP/2 permet une utilisation plus efficace des ressources réseau et une perception de latence réduite en introduisant une compression des champs d'en-tête et en autorisant plusieurs échanges simultanés sur une même connexion. Il introduit également la poussée non sollicitée d'emprunts d'identité des serveurs vers les clients.

L'objectif principal de HTTP / 2 est de réduire la latence en permettant un multiplexage complet des demandes et des réponses, en minimisant la surcharge du protocole grâce à une compression efficace des champs d'en-tête HTTP et en ajoutant la prise en charge de la hiérarchisation des demandes et de la poussée du serveur.

Par rapport à HTTP/1.1, les principales différences sont :

Multiplexage des requêtes sur une seule connexion TCP par rapport à plusieurs connexions parallèles dans HTTP 1.1 ;

Fragmentation binaire au lieu d'en-têtes de texte ;

Encodage Huffman pour un encodage plus efficace des données textuelles ;

Mécanisme push du serveur qui permet à un serveur d'envoyer des réponses supplémentaires avant de recevoir une demande correspondante d'un point de terminaison ;

Compression d'en-tête à l'aide de HPACK pour réduire les frais généraux.

La nouvelle version permet d'obtenir :

  • meilleure performance,
  • requêtes et réception de plusieurs objets dans une même connexion TCP grâce au multiplexage,
  • une latence plus faible,
  • compression des en-têtes HTTP,
  • une utilisation plus efficace des ressources.

http2

 

8. Manque d'utilisation des images Webp

Nous savons tous à quel point les images sont importantes dans la communication « une image vaut mille mots » (Cit.) Mais peu savent qu'une même image peut peser 1 Méga ou 100 Ko, soit 10 fois moins.

Surtout quand on parle d'images PNG haute résolution qui auraient pu facilement être servies au format webp optimisé.

Vous pouvez considérer le format .WebP comme n'importe quel autre format d'image (JPG, GIF, PNG…) mais avec des caractéristiques de compression et de qualité supérieures. En d'autres termes, les images au format .WebP peuvent être de plus petite taille tout en restant à un haut niveau de qualité.

Le principal avantage de l'utilisation de .WebP est que vous pouvez avoir des images de haute qualité avec des tailles plus petites, ce qui est excellent pour les performances de votre site Web. La taille plus petite signifie des temps de chargement plus rapides et plus de trafic vers votre site Web, car les utilisateurs n'ont pas besoin d'attendre longtemps pour voir le contenu.

La qualité d'une image webp est très élevée, à tel point que dans notre tutoriel précédent nous l'avons utilisée sur un site de photographe de mariage sans dégrader les images de quelque manière que ce soit et en économisant des mégaoctets importants : Diminuer le poids d'un site Web avec des images WebP

Il y aura toujours quelqu'un qui dira qu'il est impossible d'utiliser les webps car Safari et iOS ne les affichent pas pour des raisons de compatibilité ou que CloudFlare dans la version gratuite, ne vous permet pas de les utiliser avec succès. Ce sont des légendes urbaines assez répandues, ce qui signifie seulement qu'ils ne savent pas comment le faire, pas que cela ne peut pas être fait, alors contactez-nous.

9. Manque de dimensionnement adéquat des ressources matérielles

Si nous parlons de solutions auto-hébergées, nous retiendrons certainement les systèmes de gestion de contenu tels que WordPress et les plugins associés. Bien sûr, on ne peut pas dire que WordPress repose sur des technologies modernes et rapides. Si nous devions comparer les technologies asynchrones modernes comme Node.js, Golang et DB noSQL comme MongoDB, à PHP et MYSQL, ce serait un peu comme comparer un avion supersonique et une petite voiture comme la Fiat Punto. Cependant, la Fiat Punto est à la portée de tous, tant en termes de coûts que de conduite et il n'est donc pas surprenant qu'il y ait plus de fiat punto que d'avions supersoniques dans le monde, encore moins que la plupart des solutions d'atterrissage auto-hébergées. réalisé sur WordPress.

Cependant, il y a un prix à payer qui est celui du bon dimensionnement matériel et logiciel (le logiciel nous le verrons plus tard). En effet, il peut arriver qu'au moment du choix de l'instance (dédiée ou virtuelle) vous fassiez des achats sous-dimensionnés aux besoins réels qui peuvent être très différents en fonction des plugins utilisés et en fonction de la quantité de trafic que nous sommes capables d'apporter sur notre site .

Certainement pour bien fonctionner, avec la bonne mémoire réservée aux différents caches logiciels, les caches DB, et l'espace d'exécution de l'interpréteur PHP, vous ne devriez JAMAIS descendre en dessous d'une configuration avec 4 cœurs et au moins 8 Go et au moins des disques SSD, mieux si nVME.

Donc, si vous prévoyez de continuer Amazon AWSpar exemple, et débrouillez-vous avec un budget mais inférieur à celui proposé ci-dessus, commencez à budgétiser un budget de 80 $ par mois UNIQUEMENT pour l'instance. L'administrateur système vous demandera plus ou moins la même chose pour une dépense mensuelle d'environ 150 dollars.

Si vous optez pour différents prestataires comme Hetzner.de (notre prestataire de référence pour environ 90 % des services proposés), les coûts sont très différents et beaucoup moins chers.

Évidemment, du moins en théorie, les services de Amazon AWS sont le non plus ultra en termes de disponibilité et de disponibilité, donc si vous voulez vraiment éviter (toujours théoriquement) même ces 5 minutes d'indisponibilité par an, la seule solution actuellement sur le marché semble être Amazon AWS. Nous parlons toujours de la ligne théorique, comme nous l'avons vu dans la pratique Amazon AWS sont en panne depuis plus de 4 heures et font tomber tous leurs clients les plus importants

Or, choisir AWS au moins pour un dirigeant, c'est faire le choix du marché, ou avoir choisi la meilleure solution que n'importe qui aurait choisi, et c'est une belle indemnité en cas de panne de service en avançant ses raisons : "J'ai choisi Amazon et j'ai fait le choix du marché" .

Ce qui revient un peu à dire que personne n'a jamais été licencié pour avoir acheté Microsoft.

Certains affiliés débutants seront sûrement tentés de faire des économies en choisissant un Hébergement Mutualisé, eh bien il ne pourrait y avoir de pire choix que celui de mélanger un business performant et exigeant avec des sites du petit bar près de la maison, de la laverie et du petit blog de Mme Pina de Mostrapiedi dans la province de Macerata qui nous parle de ses 4 amis à fourrure.

Vous devez choisir des instances dédiées. Qu'il s'agisse de VPS, de Cloud, de Serveurs dédiés, dans tous les cas une seule IP qui vous est dédiée et une puissance entièrement disponible sans les limitations d'aucune sorte qui se produisent sur les services mis au rebut qui mettent le site hors ligne au premier pic.

 

10. Manque de réglage adéquat de l'interpréteur PHP

Ici on pourrait passer un livre de 1000 pages, il y a tant à dire. Il faut tout d'abord essayer d'utiliser la dernière version de PHP compatible avec votre site sans donner d'erreurs de fonctionnement. À ce jour, par exemple, PHP 8.2 semble toujours incompatible avec la plupart des plugins WordPress ; par conséquent, le meilleur choix est de se concentrer sur la version de PHP 7.4.

Attention à disposer d'un système de PHP Caching pour accélérer l'exécution du code. Le choix standard actuel est basé sur Zend OpCache distribué avec toutes les dernières versions de PHP dont vous pouvez trouver une description et une explication dans cet article Zend OpCache. Comment accélérer PHP ?

Un autre aspect dont vous devriez vous soucier est d'utiliser la méthode de génération de processus PHP la plus rapide possible. Nous savons qu'il existe 3 modes prédéfinis :

  • Dynamic
  • On Demand
  • Statique

Eh bien, chacun de ces modes a un décalage dans le processus d'apparition du processus d'interprétation PHP à chaque requête et, par conséquent, l'utilisation du mode statique, c'est-à-dire prêt à générer et en attente de servir de nouvelles requêtes, est certainement plus rapide que les deux autres modes.

Comme vous pouvez le voir sur le benchmark ci-dessous, à mesure que le nombre de requêtes simultanées augmente, le délai entre le mode statique et les autres modes peut varier même de l'ordre de 0,2 seconde (ce qui est une éternité en termes de performances).

Si vous êtes un casse-cou faites-le vous-même et utilisez des panneaux scraudés comme Plesk ou cPanel, faites attention à modifier les paramètres en amenant le spawn des processus en mode statique.

11. Manque de réglage adéquat du DMBS MySQL.

Évidemment si vous utilisez WordPress, vous utiliserez également une base de données comme MySQL ou ses forks et dérivés (MariaDB, Percona Server par exemple).

Pour avoir de bonnes performances MySQL, vous devez utiliser un réglage de configuration ad hoc en personnalisant judicieusement my.cnf.

Le cache innodb, le nombre de threads, la gestion des jointures en mémoire plutôt que sur disque et bien d'autres paramètres qui déterminent la vitesse et l'efficacité d'une base de données doivent être réglés de manière appropriée.

De plus, vous devez vous assurer que votre base de données NE PAS utiliser les tables MyISAM ma les tables InnoDB modernes et performantes. En bref, lorsque vous chargez une base de données, votre administrateur système doit également optimiser et éventuellement convertir ces tables dans les nouveaux formats.

MyISAM est le moteur de stockage par défaut à partir de MySQL 3.23 avec d'excellentes performances pour la vitesse de lecture. Toutes les tables MyISAM sont stockées sur disque dans trois fichiers. Les fichiers ont des noms qui commencent par le nom de la table et ont une extension indiquant le type de fichier. Un fichier .frm stocke le format du tableau ; un fichier de données a une extension .MYD (MYData) ; et un fichier d'index a une extension .MYI (MYIndex).

InnoDB prend en charge les transactions avec des capacités de validation, de restauration et de récupération sur incident pour protéger les données des utilisateurs. Le verrouillage au niveau des lignes d'InnoDB (sans escalade vers des verrous plus grossiers) et les lectures cohérentes non bloquantes de style Oracle augmentent la simultanéité et les performances multi-utilisateurs. InnoDB stocke les données utilisateur dans des index clusterisés afin de réduire les E/S pour les requêtes courantes basées sur les clés primaires.

InnoDB est un moteur de base de données entièrement compatible ACID. ACID signifie Atomicité, Cohérence, Isolation et Durabilité. Ce sont quatre concepts de base de la gestion des systèmes de bases de données qui sont respectés par le moteur de stockage InnoDB.

Le principal avantage de l'utilisation d'InnoDB par rapport à MyISAM est que vous obtenez un verrouillage au niveau de la ligne lorsque vous utilisez InnoDB. Cela signifie qu'il est possible que plusieurs utilisateurs accèdent à la même base de données en même temps sans conflits. Un autre avantage est qu'avec InnoDB, lorsqu'une base de données plante, elle ne plantera que pour un utilisateur et non pour tous les utilisateurs de la base de données. Avec MyISAM, lorsqu'une base de données plante, elle plante pour tous les utilisateurs de cette base de données.

12. Absence de cache statique comme le cache Varnish de NGINX ou le cache FastCGI

Si vous cherchez à optimiser et accélérer l'ouverture de votre site WordPress, WooCommerce ou autre, vous serez sûrement tombé sur des articles et des conseils qui vous ont parlé de l'installation de logiciels ou de plugins Cache.

Si vous avez eu de la chance, vous aurez également entendu certains professionnels en parler Cache de vernis, plutôt que Cache inutile côté plugin ou le plus banal et moins fonctionnel serveur de cache NGINX FastCGI Cache. C'est un cache très prometteur et facile à installer et à configurer ; Toutefois, NGINX FastCGI Cache a quelques problèmes pas vraiment trivial du moins dans la version Free contrairement à la version NGINX PLUS.

Opération Vernis Reverse Proxy WordPress

 

 

 

 

Varnish Cache est un logiciel côté serveur écrit en langage C et donc très performant. Il a été conçu et développé en gardant à l'esprit les meilleurs concepts et bonnes pratiques de développement logiciel comme la gestion dynamique de la mémoire, l'utilisation de threads, la mémoire partagée, les sockets standard POSIX et bien d'autres précautions qui seraient effectivement IMPOSSIBLE avec un langage interprété comme PHP .

Tandis que les caches PHP mentionnés ci-dessus sont activés après avoir exécuté le code du cache PHP et donc engendré (généré) un processus d'interpréteur PHP via le thread PHP-FPM (Fast Process Manager), un cache Varnish répond d'abord immédiatement sans faire apparaître PHP et générer de nouveaux threads et processus le moins du monde, et donc d'économiser beaucoup de CPU pour ces opérations qui peuvent être très lourdes devant un trafic Web très important de milliers ou dizaines de milliers de visiteurs.

Si vous voulez mieux comprendre Varnish, vous pouvez lire un article comme celui-ci : Hébergement de vernis

Aujourd'hui il y a plusieurs hébergeurs qui disent utiliser Varnish mais beaucoup l'utilisent de manière non fonctionnelle, avec un ratio HIT très faible et totalement inutile pour le trafic et les campagnes publicitaires Facebook.

13. Utiliser des certificats SSL comme Lets'Encrypt qui ne fonctionnent pas sur les anciens appareils.

Imaginez concevoir la page de destination du produit oignon et cibler toutes les femmes au foyer italiennes de plus de 50 ans sur la campagne FB ADS. Imaginez maintenant qu'une partie d'entre eux, disons environ 5%, utilise un appareil Android peu coûteux et un peu ancien. Imaginons maintenant que la ménagère Carmela intéressée par l'annonce et par les locaux miraculeux et promette clique sur l'annonce pour effectuer l'achat. Vous utilisez Lets'Encrypt car c'est gratuit et vous économisez 10 euros de certificat SSL pour HTTPS, elle utilise un vieux Samsung 8 car elle aussi, comme vous, préfère économiser.

Savez-vous ce qui se passe ? Que votre site donnera une erreur pourquoi une CA ROOT Authority Let's Encrypt a expiré il y a des mois et des mois, et donc le certificat HTTPS qui fonctionne correctement sur tous les autres appareils génère une exception de sécurité sur le site de Mme Carmela de Palerme.

HTTPS SSL Erreur Smartphone

Alors adieu leads, adieu ventes, adieu retour sur investissement, adieu budget publicitaire. Soyons clairs, un 3-5 % pourrait également être une valeur non pertinente qui pourrait également être ignorée ; cependant, je suis sûr que certains produits destinés à certains acheteurs personnels, plutôt que d'autres, peuvent être plus susceptibles de rencontrer des appareils obsolètes. Et dire qu'il aurait suffi d'installer un certificat SSL validé par domaine tel que RapidSSL, Verisign et autres, pour résoudre définitivement le problème.

14. Avoir une forte baisse des campagnes Facebook en raison du retard JS des scripts d'optimisation.

Il est courant d'utiliser des scripts tels que Wp Rocket pour pousser les valeurs essentielles du Web. Cependant, peu de gens savent qu'une utilisation malsaine du délai JS a pour effet secondaire de ne pas activer le pixel Facebook, générant une série de réactions en cascade qui vont jusqu'à la désactivation de la campagne pour cause de forte baisse.

Le sujet de Delay JS et les effets néfastes sur une campagne Facebook ne peuvent pas être couverts dans un paragraphe de cet article ; par conséquent, nous avons délibérément écrit un bel article à ce sujet qui explique aux débutants et aux experts certains problèmes que l'on peut rencontrer lorsque l'on vise un score Google PageSpeed ​​​​élevé sans tenir compte des techniques utilisées telles que celle de Delay JS : Retarder JS pour optimiser le Vitaux Web de base et la faible performance des campagnes Facebook ADS.

En conclusion

La philosophie à adopter pour améliorer les performances des pages de destination pour ceux qui font du marketing d'affiliation n'est pas d'utiliser une seule approche d'amélioration de 50%, mais plutôt d'avoir toutes ces meilleures pratiques à appliquer pour apporter de petites améliorations qui, une fois additionnées, apportent à améliorations importantes en termes de vitesse et d'expérience utilisateur.

Cela peut sembler évident, mais faire cette optimisation n'est pas faisable en utilisant des formules magiques ou des automatismes, mais cela nécessite une optimisation manuelle pour chaque site individuel qui peut prendre au mieux 30 ou 60 minutes d'optimisation.

Si vous planifiez une campagne publicitaire à grande échelle et dans laquelle vous souhaitez investir un joli budget, il convient d'évaluer tous ces aspects évoqués jusqu'ici, afin d'obtenir les meilleures performances et d'essayer de maximiser les profits et les conversions.

 

 

 

Vous avez des doutes ? Vous ne savez pas par où commencer ? Contactez-nous


Nous avons toutes les réponses à vos questions pour vous aider à faire le bon choix.

Discute avec nous

Discutez directement avec notre support avant-vente.

0256569681

Contactez-nous par téléphone pendant les heures de bureau 9h30 - 19h30

Contactez-nous en ligne

Ouvrez une demande directement dans l'espace contact.

INFORMATIONS

ManagedServer.it est le premier fournisseur italien de solutions d'hébergement hautes performances. Notre modèle d'abonnement est abordable et prévisible, afin que les clients puissent accéder à nos technologies d'hébergement fiables, à nos serveurs dédiés et au cloud. ManagedServer.it offre également d'excellents services d'assistance et de conseil sur l'hébergement des principaux CMS Open Source tels que WordPress, WooCommerce, Drupal, Prestashop, Magento.

haut