Table des matières de l'article :
En matière de cloud computing, l'un des noms qui ressort immédiatement est Amazon Web Services (AWS). AWS représente sans aucun doute l'une des plateformes les plus puissantes et fiables au monde, capable d'offrir une large gamme de services pour prendre en charge des infrastructures de toute taille et complexité. Cependant, la question fondamentale qu’il faut se poser est la suivante : AWS est-il toujours le meilleur choix ?
Dans cet article, nous analyserons le cas réel d'une infrastructure AWS utilisée pour héberger un site Magento 2 avec environ 200.000 XNUMX visiteurs mensuels. Nous aborderons les coûts directs, les performances et la façon dont nous avons pu optimiser radicalement les dépenses en migrant vers une architecture dédiée avec réplication dans le cloud, en maintenant ou même en améliorant les performances.
Le point de départ : 26.000 XNUMX euros par an sur AWS
Comme on peut le voir à partir du « facture » AWS. et du résumé de frais remboursables au cours des 6 derniers mois Comme le montre l'image suivante, l'infrastructure d'origine sur AWS avait un coût annuel total d'environ 26.000€, ou au-delà 2.300 par mois.
Cette dépense représentait l'ensemble des coûts de plusieurs services clés, chacun ayant un rôle spécifique au sein de l'écosystème. Cependant, l'analyse détaillée des coûts a mis en évidence à quel point une grande partie des ressources était sous-utilisée par rapport aux besoins réels du projet, rendant l'investissement disproportionné et plus qu'un investissement, une simple dépense sans valeur ajoutée.
Bien que ces services soient conçus pour être performants et évolutifs, la somme de ces coûts, comme le souligne le projet de loi, représentait une charge importante qui ne reflétait pas pleinement les besoins du projet. Cet écart a incité à explorer des solutions alternatives plus efficaces et économiquement durables.
La liste des services comprenait :
RDS (Service de Base de Données Relationnelle) : environ 400 euros/mois
RDS est le service géré d'AWS pour les bases de données relationnelles, conçu pour simplifier la configuration, la mise à l'échelle et la gestion. Ce service comprend des sauvegardes automatiques, des mises à jour de sécurité et une surveillance intégrée. Cependant, l'utilisation de RDS entraîne des coûts importants, en particulier dans les scénarios où une configuration avancée avec haute disponibilité et réplication est requise.
ECS avec EC2 (Elastic Compute Service) : environ 900 euros/mois
ECS (Elastic Container Service) est le service d'orchestration de conteneurs d'AWS, souvent associé à des instances EC2 pour exécuter des charges de travail conteneurisées. Dans ce cas, une instance EC2 avec 16 vCores a été utilisée pour gérer un trafic de 200.000 XNUMX visiteurs mensuels. Bien qu’efficace, le coût était élevé par rapport aux ressources réellement exploitées.
ElastiCache : 140 euros/mois pour la gestion du cache
ElastiCache est le service de gestion de cache en mémoire géré d'AWS utilisé pour améliorer les performances des applications. Dans ce cas, il avait été configuré pour gérer les sessions utilisateur et le cache des pages. Bien qu'il s'agisse d'une solution efficace, le coût mensuel de 140 euros a été un élément critique dans l'analyse globale.
OpenSearch : 125 euros/mois pour la recherche avancée
OpenSearch, anciennement connu sous le nom d'Elasticsearch Service, est un service géré permettant de rechercher et d'analyser des données. Utilisé pour fournir une fonctionnalité de recherche avancée sur Magento, il représentait une dépense importante pour un composant qui pouvait être remplacé par des alternatives auto-hébergées sans compromettre les performances.
Route53, WAF et CloudFront : environ 50 euros/mois
Cette combinaison de services fournis:
- Itinéraire53 : un DNS fiable et évolutif
- WAF (pare-feu applicatif Web) : protection contre les attaques courantes telles que l'injection SQL et le cross-site scripting
- CloudFront : distribution de contenu via CDN (Content Delivery Network) pour améliorer les temps de chargement globaux
Bien qu’indispensable pour assurer la sécurité et la rapidité, l’utilisation combinée impliquait des coûts supplémentaires qui pourraient être réduits grâce à des solutions alternatives.
CloudWatch : 30 euros/mois pour le monitoring
CloudWatch est le service de surveillance d'AWS permettant de collecter et d'analyser des métriques en temps réel. Bien qu'utile pour diagnostiquer les problèmes et optimiser les performances, il représentait un coût non négligeable par rapport aux alternatives open source disponibles.
EFS (Elastic File System) : utilisé pour le stockage partagé
EFS est un système de fichiers partagés entièrement géré et évolutif utilisé pour stocker des données partagées sur plusieurs instances. Cependant, les performances étaient limitées à environ 150 Mo / s, ce qui entraîne un goulot d'étranglement dans certains scénarios et génère des coûts mensuels élevés.
Ces prestations inefficaces et peu performantes ont généré des dépenses importantes qui, pour de nombreux projets, ne sont pas justifiables au regard des résultats. De plus, de nombreux services gérés par AWS, tout en simplifiant la gestion opérationnelle, limitaient le contrôle direct sur les configurations, ce qui rendait difficile l'optimisation de l'infrastructure pour des besoins spécifiques. D’où la nécessité d’une refonte complète pour réduire les coûts tout en conservant des performances élevées.
Le changement : migration vers une architecture dédiée et réplication dans le cloud
Après une analyse minutieuse des besoins du client et des besoins réels de l'application, nous avons décidé de migrer l'infrastructure vers un serveur dédié de bonne taille et correctement configuré avec une réplication cloud, en mettant l'accent sur les performances et la résilience. Le résultat ? Une réduction drastique des coûts annuels à environ 3.000€, par rapport aux 26 mille euros d'origine ou moins de 10 fois le coût initial.
Voici comment nous avons optimisé chaque composant :
1. Bases de données (RDS vs Percona Server pour MySQL 8)
La base de données représente le cœur battant de toute application Web, en particulier pour les plateformes complexes telles que Magento 2. Amazon RDS (Relational Database Service) est une solution gérée qui simplifie la configuration et la maintenance des bases de données relationnelles, offrant des fonctionnalités avancées telles que la sauvegarde automatique, la réplication. et mise à jour des correctifs. Cependant, son coût élevé, environ 400 par mois, peut être prohibitif pour les projets avec des budgets plus petits.
Migration:
Pour optimiser les coûts sans sacrifier la fonctionnalité, RDS a été remplacé par Serveur Percona pour MySQL 8, une solution open source très performante et compatible avec les mêmes caractéristiques que RDS.
Mise en œuvre:
- La nouvelle configuration a été créée sur un serveur dédié, garantissant un environnement optimisé pour les besoins spécifiques du client.
- Des sauvegardes et une réplication automatiques ont été mises en œuvre via scripts personnalisés, garantissant une protection complète des données et une gestion flexible.
Les avantages:
- Réduction des coûts: L'adoption de Percona Server a complètement éliminé les coûts associés au RDS.
- Un plus grand contrôle : La gestion auto-hébergée permet un contrôle plus granulaire sur la base de données, vous permettant d'optimiser les requêtes et d'adapter les configurations aux besoins réels de l'application.
- Performance améliorée: Grâce à l'optimisation matérielle et logicielle, les performances de la base de données ont été considérablement augmentées par rapport à la solution précédente.
Avec cette migration, il a été possible d'obtenir un système de base de données performant, fiable et beaucoup plus économique, démontrant que les solutions open source et les configurations dédiées peuvent rivaliser avec les services cloud gérés sans compromis.
2. Traitement (ECS avec EC2 vs serveur dédié)
Amazon ECS (Elastic Container Service) est une plateforme d'orchestration pour les conteneurs Docker, utilisée pour exécuter, arrêter et gérer les conteneurs dans un cluster. Généralement, ECS est associé à des instances EC2 (Elastic Compute Cloud), qui fournissent la puissance de calcul nécessaire. Dans ce cas précis, une instance EC2 a été utilisée avec 16 cœur virtuel pour prendre en charge la charge de travail du site Magento 2. Cependant, le coût mensuel est d'environ. 900€ il s'est avéré excessif par rapport au rapport entre les ressources fournies et les besoins réels.
Migration:
Pour réduire les coûts et augmenter les performances, l'infrastructure ECS/EC2 a été remplacée par un serveur dédié traits Noyau 48 et fil 96, au prix de seulement 199 euro / mois.
Mise en œuvre:
- Le serveur dédié a été configuré pour héberger les conteneurs dans un environnement virtualisé, garantissant flexibilité et évolutivité.
- Des hyperviseurs ont été utilisés pour isoler les services de base, en maintenant une séparation claire entre les applications et les processus système.
- La répartition des conteneurs a été optimisée pour exploiter pleinement les ressources matérielles, permettant une augmentation significative de la capacité de calcul disponible.
Les avantages:
- Augmentation des ressources : Avec le nouveau serveur, les ressources disponibles ont été triplées, passant de 16 vCores à 48 cœurs physiques e fil 96, une amélioration significative pour gérer des charges de travail intensives.
- Réduction des coûts: Le coût mensuel a été réduit à moins d'un quart par rapport à la solution précédente, générant des économies considérables.
- Un plus grand contrôle : La migration vers un serveur dédié a permis une gestion plus directe et personnalisée des ressources, sans les limitations imposées par l'environnement géré ECS.
- Flexibilité opérationnelle : L'environnement virtualisé permet de s'adapter rapidement aux nouveaux besoins, tout en assurant isolement et sécurité.
Grâce à cette stratégie, il a été possible d'améliorer considérablement les performances et de réduire les coûts, démontrant que les solutions auto-hébergées et bien optimisées peuvent rivaliser avec les offres cloud, même pour les charges de travail exigeantes.
3. Mise en cache (ElastiCache vs Redis.io)
Amazon ElastiCache est le service géré d'AWS conçu pour simplifier la mise en œuvre des caches en mémoire, à l'aide de technologies telles que Redis ou Memcached. Le cache est essentiel pour améliorer les performances des applications Web, réduire la charge sur la base de données et accélérer les temps de réponse. Dans ce cas précis, le service ElastiCache a été utilisé pour gérer le cache des sessions et des pages utilisateurs, pour un coût mensuel d'environ 140€.
Migration:
Pour réduire les coûts tout en conservant les mêmes fonctionnalités, ElastiCache a été remplacé par Redis.io, un système open source robuste et largement adopté qui offre des performances élevées sans frais.
Mise en œuvre:
- Redis a été installé et configuré sur une instance dédiée pour garantir des performances et une isolation des ressources optimales.
- Des paramètres personnalisés ont été appliqués pour adapter Redis aux besoins spécifiques du projet, tels qu'une gestion efficace des sessions utilisateur et la mise en cache dynamique des pages.
- Une surveillance continue a été mise en œuvre pour garantir la stabilité du service et identifier tout goulot d'étranglement.
Les avantages:
- Réduction des coûts: L'adoption de Redis.io a complètement éliminé le coût mensuel d'ElastiCache, conduisant à des économies immédiates.
- Amélioration des performances: L'utilisation de matériel dédié et de configurations personnalisées a permis d'optimiser les temps de réponse du cache, réduisant ainsi la latence des requêtes.
- Plus grande flexibilité : Redis, étant auto-hébergé, offre un contrôle total sur les paramètres et l'évolutivité, s'adaptant mieux aux besoins de votre infrastructure.
- Fiabilité: Redis.io est connu pour sa stabilité et sa prise en charge de fonctionnalités avancées telles que la persistance des données et les réplications maître-esclave.
Cette migration a démontré qu'une solution open source auto-hébergée peut offrir les mêmes fonctionnalités qu'un service géré, tout en réduisant les coûts et en garantissant d'excellentes performances.
4. Recherche (OpenSearch vs ElasticSearch)
Amazon OpenSearch (anciennement Elasticsearch Service) est un service géré qui simplifie la gestion et l'utilisation d'Elasticsearch, l'un des moteurs de recherche et d'analyse les plus populaires au monde. Ce service est souvent utilisé pour mettre en œuvre des fonctionnalités avancées de recherche et d’analyse de données. Dans ce cas précis, OpenSearch avait un coût mensuel de 125€, ce qui entraînerait une charge économique importante pour le projet.
Migration:
Pour réduire les coûts sans renoncer aux fonctionnalités avancées, OpenSearch a été remplacé par ElasticSearch, une solution gratuite et open source qui offre les mêmes capacités d'indexation et de recherche.
Mise en œuvre:
- ElasticSearch a été installé sur un serveur dédié pour garantir des performances maximales et un contrôle total sur l'infrastructure.
- Des optimisations spécifiques ont été appliquées pour améliorer l'efficacité des requêtes de recherche et de l'indexation des données, réduisant ainsi les temps de réponse.
- Une intégration a été développée via API personnalisées, permettant une communication transparente entre ElasticSearch et le reste de l'infrastructure applicative.
Les avantages:
- Réduction des coûts: L'utilisation de la version open source d'ElasticSearch a complètement éliminé le coût mensuel associé à OpenSearch, générant ainsi des économies immédiates.
- Amélioration des performances: Grâce à des configurations personnalisées et à un environnement dédié, les temps de réponse aux requêtes ont été considérablement réduits.
- Plus grande flexibilité : ElasticSearch auto-hébergé offre un contrôle total sur les configurations, permettant une meilleure adaptabilité aux besoins spécifiques du projet.
- Compatibilité: L'intégration via des API personnalisées a assuré une transition transparente et amélioré l'efficacité de l'infrastructure globale.
La migration vers ElasticSearch nous a permis d'obtenir une solution tout aussi puissante mais plus économique et personnalisable, démontrant une fois de plus l'intérêt des solutions open source pour des projets très complexes.
5. DNS, CDN et sécurité (Route53, WAF et CloudFront vs Cloudflare Pro)
AWS propose une série de services dédiés au DNS (Route53), à la sécurité web (WAF – Web Application Firewall) et à la distribution de contenus via CDN (CloudFront). Ces services fonctionnent avec un modèle de tarification basée sur la consommation, où les coûts varient en fonction de l'utilisation réelle, comme le nombre de requêtes, la bande passante consommée et les règles de sécurité configurées. Bien que cette flexibilité soit utile pour les environnements à charges variables, elle peut entraîner des coûts imprévisibles et difficiles à contrôler.
Migration:
Pour obtenir une plus grande prévisibilité des coûts et réduire les dépenses globales, l'infrastructure AWS a été remplacée par Cloudflare Pro, qui utilise un modèle de prix forfaitaire à un coût fixe de 25 par mois, quel que soit le trafic ou les demandes traitées.
Mise en œuvre:
- DNS Anycast : Cloudflare utilise une architecture DNS distribuée à l'échelle mondiale, garantissant des temps de résolution rapides et une résilience élevée, y compris une protection native contre les attaques DDoS.
- Protection DDoS : Cloudflare Pro offre une protection avancée contre les attaques DDoS incluse dans le plan, sans coûts supplémentaires basés sur l'intensité des attaques, comme cela pourrait arriver sur AWS.
- Optimisation des images et prise en charge de WebP : Le service propose des optimisations automatiques pour réduire la taille des images et améliorer les temps de chargement, avec une conversion native au format WebP pour réduire davantage la bande passante.
- CDN mondial : Le réseau de diffusion de contenu de Cloudflare accélère le chargement des pages partout dans le monde, grâce à des fonctionnalités avancées telles que la mise en cache et le service de contenu dynamique.
- Règles de sécurité personnalisables : Cloudflare vous permet de configurer des règles de sécurité avancées pour protéger les applications et les serveurs, ce qui rend la configuration plus facile qu'AWS WAF.
Différences d’approche :
- AWS (tarification à l'utilisation) : Le modèle AWS repose sur une tarification variable, liée au nombre de requêtes DNS, à la quantité de trafic géré par le CDN et aux règles appliquées par le WAF. Bien que flexible, cette approche peut entraîner des coûts élevés, difficiles à estimer à l’avance, notamment en cas de pics de trafic ou d’attaques inattendues.
- Cloudflare Pro (tarif forfaitaire) : Cloudflare adopte un modèle de tarification fixe, qui vous permet de planifier avec précision les coûts d'exploitation quel que soit le volume de trafic, offrant ainsi une protection et une optimisation sans surprise.
Les avantages:
- Coûts prévisibles et réduits : Cloudflare Pro a réduit de moitié les coûts mensuels par rapport aux services AWS, les ramenant ainsi de 50 euros à 25 euros par mois avec des frais fixes et prévisibles.
- Haute performance: Grâce à Anycast DNS et au CDN global, les temps de chargement des pages et de résolution DNS ont été améliorés, avec une haute disponibilité garantie.
- Simplicité opérationnelle : Cloudflare intègre la protection DNS, CDN et DDoS dans une plate-forme unique, réduisant ainsi la complexité de gestion et l'interopérabilité entre les services distincts.
- Plus de sécurité : La protection incluse contre les attaques DDoS et la gestion simplifiée des règles de sécurité font de Cloudflare Pro une solution robuste et fiable.
Cette migration a mis en évidence comment un modèle de tarification forfaitaire, comme celui proposé par Cloudflare Pro, peut être plus avantageux que le modèle de paiement à l'utilisation d'AWS, tout en garantissant des performances élevées et une infrastructure simplifiée.
6. Surveillance (CloudWatch vs Netdata et CheckMK)
Amazon CloudWatch est le service géré d'AWS pour surveiller les ressources et les applications cloud, offrant une collecte de métriques, de journaux et d'alertes. Ce service a un coût mensuel qui varie en fonction du nombre de métriques surveillées, des requêtes API et de la quantité de données enregistrées, et dans ce cas précis, il a généré une dépense d'environ 30 par mois. Bien qu'efficace, CloudWatch présente certaines limites en termes de personnalisation et d'évolutivité pour les environnements sur site ou hybrides.
Migration:
Pour obtenir une surveillance plus granulaire et réduire les coûts, CloudWatch a été remplacé par netdata e VérifierMK, deux solutions open source qui offrent des fonctionnalités avancées sans frais de licence.
Mise en œuvre:
- Données nettes :
- Installé pour la surveillance en temps réel des métriques du système, telles que le processeur, la RAM, l'utilisation du disque et le réseau.
- Il fournit un tableau de bord interactif et détaillé, permettant une analyse rapide des performances.
- VérifiezMK :
- Utilisé pour la surveillance proactive des services, applications et infrastructures distribués.
- Configuré pour collecter des données à partir de plusieurs hôtes et générer des alertes sur des mesures critiques, telles que l'utilisation des ressources et la disponibilité des services.
- Intégration et alertes :
- Les deux outils ont été intégrés dans une plateforme de gestion unique, avec des alertes personnalisées envoyées par e-mail ou webhooks pour répondre rapidement aux événements inattendus.
Les avantages:
- Élimination des coûts : L'adoption de Netdata et CheckMK a complètement éliminé les coûts de surveillance, éliminant ainsi les 30 euros de dépenses mensuelles de CloudWatch.
- Suivi plus détaillé : Grâce à la granularité offerte par Netdata et CheckMK, il a été possible de collecter des métriques plus approfondies, améliorant ainsi la capacité de diagnostic et d'optimisation des performances.
- personnalisation: Les alertes personnalisées et la possibilité d'adapter les configurations aux exigences spécifiques du projet ont rendu le système plus réactif et polyvalent que CloudWatch.
- Évolutivité : Les solutions open source utilisées s’adaptent facilement aux infrastructures on-premise, hybrides ou cloud, sans restrictions liées à un fournisseur spécifique.
Cette migration a démontré que des outils open source tels que Netdata et CheckMK peuvent remplacer efficacement les services gérés tels que CloudWatch, améliorant ainsi la surveillance et offrant une plus grande flexibilité opérationnelle à un coût nul.
7. Stockage (EFS contre ZFS)
Amazon Elastic File System (EFS) est un service de stockage partagé évolutif et entièrement géré, idéal pour les applications nécessitant un accès simultané aux données de plusieurs instances. Cependant, EFS a des coûts proportionnels à l'utilisation et, dans ce cas précis, offrait une vitesse de transfert de données limitée à environ 150 Mo / s, ce qui entraîne un goulot d'étranglement pour les applications gourmandes en E/S.
Migration:
EFS a été remplacé par une configuration locale ZFS en mode OpenZFS su Alma Linux 9, implémentant un système RAIDZ1 sur trois disques SSD NVMe de 3,84e génération de XNUMX To chacun. De plus, des fonctionnalités avancées d’instantané ZFS et de sauvegarde à distance ont été ajoutées pour garantir la résilience et la continuité des activités.
Mise en œuvre:
- Disque SSD NVMe de quatrième génération :
- Trois disques SSD hautes performances d'une capacité totale de 11,52 To (réellement utilisable environ 7,68 To avec RAIDZ1).
- Vitesse de lecture et d'écriture optimisée pour les applications nécessitant un accès rapide aux données.
- RAIDZ1 :
- Implémentation de RAIDZ1 pour garantir tolérance aux pannes avec la perte d'un seul disque, en maintenant des performances élevées.
- Redondance intégrée, protégeant les données en cas de panne matérielle.
- OpenZFS sur AlmaLinux 9 :
- Configurez le système de fichiers ZFS pour profiter de fonctionnalités avancées telles que la compression automatique, la mise en cache intelligente et les instantanés.
- Optimisez pour des charges de travail spécifiques, telles que les lectures et écritures séquentielles de haute intensité.
- Instantanés fréquents :
- Implémentation d'instantanés ZFS toutes les minutes 15 pour créer des points de restauration fréquents, utiles pour protéger les données contre les erreurs humaines ou la corruption.
- Les instantanés sont conservés à la fois localement et transférés à distance.
- Réplication à distance :
- Utilisation de ENVOYER ZFS e RÉCEPTION ZFS pour répliquer des instantanés sur un SAN dans le Cloud distant, garantissant une copie sécurisée et géographique des données.
- Cette configuration offre une protection supplémentaire en cas de sinistre local, permettant une récupération rapide des données.
Les avantages:
- Performance exceptionnelle: La nouvelle configuration a abouti à une vitesse de transfert de données allant jusqu'à 5800 Mo / s, une amélioration spectaculaire par rapport aux 150 Mo/s de l'EFS.
- Zéro frais : Le stockage local a complètement éliminé les coûts mensuels EFS, générant ainsi des économies significatives.
- Fiabilité avancée : RAIDZ1 protège les données contre les pannes matérielles, tandis que les instantanés fréquents et la réplication à distance garantissent une haute résilience contre la perte de données ou les sinistres.
- Flexibilité opérationnelle : L'utilisation d'OpenZFS permet un contrôle complet sur les configurations, offrant des fonctionnalités telles que des instantanés programmables et une réplication à distance en temps quasi réel.
- Récupération rapide : Les instantanés ZFS vous permettent de récupérer des données en quelques minutes en cas d'erreurs ou de corruption, à la fois localement et à partir de la copie distante.
- Évolutivité : La configuration est facilement extensible, aussi bien localement en ajoutant de nouveaux disques, que dans le cloud en augmentant l'espace du SAN distant.
Cette solution a transformé l'infrastructure de stockage, offrant des performances supérieures, une sécurité avancée et une flexibilité sans précédent, prouvant qu'une configuration bien conçue peut dépasser de loin les capacités des services gérés à des coûts bien inférieurs.
RPO et RTO : reprise après sinistre avec instantanés ZFS, sauvegardes incrémentielles et automatisation
Un élément crucial de la nouvelle conception était la mise en œuvre d'un reprise après sinistre avancée, basé sur des instantanés fréquents, des sauvegardes incrémentielles et l'automatisation. Cette approche garantit une protection complète des données et une récupération rapide en cas de panne ou de sinistre, minimisant ainsi la perte de données et les temps d'arrêt.
RPO (objectif de point de récupération) : 15 minutes
Grâce à l'utilisation de Instantanés ZFS configuré pour s'exécuter toutes les 15 minutes, à la fois sur les fichiers système et la base de données, vous pouvez maintenir un RPO extrêmement faible. Les instantanés sont répliqués sur un SAN distant moyens ENVOYER ZFS e RÉCEPTION ZFS, garantissant une copie géographique des données toujours à jour.
Sauvegardes incrémentielles avancées
Par mesure de précaution supplémentaire, le système fournit :
- Sauvegarde de fichiers avec Borg Backup et Restic :
- Deux sauvegardes incrémentielles par jour sont enregistrées sur deux SAN géographiquement séparés, configuré dans RAID 6 pour garantir une tolérance élevée aux pannes.
- L'utilisation combinée de Borg Backup et Restic vous permet de profiter d'une compression et d'une déduplication avancées, réduisant ainsi au minimum l'espace occupé et les temps de sauvegarde.
- Sauvegarde de base de données avec Percona Xtrabackup :
- La base de données est sauvegardée deux fois par jour à l'aide de sauvegardes incrémentielles Percona Xtrabackup dans le format Xbstream compressé Zstandard, ce qui garantit rapidité d’exécution et réduction de l’espace de stockage.
- Les sauvegardes sont synchronisées avec les SAN géographiques, garantissant que les copies sont sécurisées et disponibles en cas de besoin.
RTO (objectif de temps de récupération) : 60 minutes
Un Manuel de jeu Ansible a été mis en œuvre pour automatiser la récupération de l'ensemble de l'infrastructure en cas de sinistre. Cette automatisation vous permet de :
- Recréez l'environnement complet (serveurs, configurations, services) sur de nouvelles ressources en moins d'une heure.
- Récupérez les dernières données à partir d'instantanés ZFS ou de sauvegardes incrémentielles, selon le cas.
- Restaurez le fonctionnement de l'application avec une perte de données minimale (maximum 15 minutes, conformément au RPO).
Avantages du système de reprise après sinistre
- Redondance totale : Des instantanés fréquents et des sauvegardes incrémentielles réparties sur plusieurs SAN géographiques garantissent que vos données sont toujours protégées.
- Récupération rapide : Grâce à l'automatisation avec Ansible, la récupération est rapide et exempte d'erreurs manuelles.
- Souplesse: La combinaison de ZFS, Borg Backup, Restic et Percona Xtrabackup vous permet de couvrir tous les scénarios, de la récupération de fichiers individuels à la récupération complète de l'environnement.
- Résilience: RAID 6 sur les SAN géographiques ajoute une couche supplémentaire de protection contre les pannes matérielles multiples.
Cette configuration garantit une gestion proactive et résiliente de la reprise après sinistre, minimisant à la fois les temps de récupération et la perte de données, et garantissant la continuité opérationnelle même dans des scénarios d'urgence.
Considérations sur AWS et valeur perçue
AWS est incontestablement l'un des meilleurs réseaux au monde. Il offre une large gamme de services, une évolutivité instantanée et une fiabilité inégalée, ce qui en fait souvent le choix préféré des grandes entreprises ou des projets aux budgets illimités. Cependant, Est-ce toujours le meilleur choix ?
Le coût réel d'AWS
Lorsque l'on considère AWS, il est important de faire la distinction entre les Coûts de la vie des services d'assurance-emploi frais de gestion associés. Dans le cas analysé, l'infrastructure sur AWS avait un coût direct de EUR 26.000 par an, mais ce chiffre ne représente qu’une partie du total.
- Frais de gestion proportionnels : L'ancien fournisseur ajoutait des frais de gestion basés sur la valeur globale des dépenses sur AWS. Ces coûts, souvent calculés comme un pourcentage important du total, pourraient facilement ajouter 20 à 30 % au coût global.
- Coût annuel total : Par conséquent, aux 26.000 XNUMX euros par an de débours sur AWS, une dépense de gestion importante s'est ajoutée, portant le total à des chiffres bien plus élevés.
Avec migration vers une infrastructure dédiée et gestion complète "clés en main", les coûts d'exploitation ont diminué de plus de 70%, garantissant au client non seulement des économies immédiates, mais également un service personnalisé optimisé pour ses besoins. Cela a démontré qu'une gestion autonome et bien conçue peut réduire les coûts sans compromettre la qualité du service.
Le prestige de la marque et la perception du client
L'une des raisons pour lesquelles AWS, comme Google Cloud ou Azure, est souvent choisi est la perception de prestige et de fiabilité associée à la marque. De nombreux clients finaux considèrent ces plateformes comme synonymes de qualité et de sécurité, justifiant ainsi leurs coûts élevés. Cependant, cette perception ne reflète pas toujours une véritable compréhension des besoins techniques et opérationnels de l’application.
Architecte Cloud vs Ingénieur Systèmes
Le rôle d’un Cloud Architect est souvent perçu comme une figure de haut niveau, associée à des compétences avancées et un travail sophistiqué. Cependant, en pratique, le travail d'un Cloud Architect peut se réduire à configurer des instances, des services et des règles via interfaces graphiques fournis par des plateformes telles qu'AWS, Google Cloud ou Azure. Cette approche, bien qu'utile pour simplifier la gestion, cela n'ajoute pas toujours une valeur significative en plus du choix de la plateforme elle-même.
Un ingénieur systèmes experts, au contraire, se distingue par sa capacité à dépasser les limites des plateformes gérées, en proposant des solutions plus flexibles, personnalisées et, souvent, moins chères.
Les atouts d’un ingénieur système expert
- Répliquez la même fonctionnalité sur des infrastructures alternatives :
- Un ingénieur système possède des compétences approfondies qui lui permettent de répliquer des fonctionnalités telles que la haute disponibilité, l'équilibrage de charge, la mise à l'échelle dynamique et la sécurité sur infrastructures alternatives, souvent auto-hébergés ou auprès de fournisseurs moins chers.
- Cela vous permet d'obtenir les mêmes résultats fonctionnels sans les coûts élevés des plates-formes gérées, tout en conservant un contrôle total sur chaque aspect de l'infrastructure.
- Personnalisez l'architecture pour répondre aux besoins des clients :
- Alors que les plateformes cloud gérées offrent des solutions standardisées et préconfigurées, un ingénieur système peut concevoir et mettre en œuvre une architecture ad hoc, optimisé pour les besoins spécifiques de performance, de charge et de sécurité du projet.
- Par exemple, vous pouvez choisir des technologies open source ou des configurations spécifiques pour améliorer les performances des bases de données, optimiser la gestion du stockage ou mettre en œuvre des solutions de mise en cache avancées.
- Garantissez des performances supérieures à moindre coût :
- En éliminant le poids de la marque et les coûts de paiement à l'utilisation des plates-formes cloud, un ingénieur système peut concevoir des solutions qui offrent performance supérieure à une fraction du coût.
- Avec une configuration dédiée, les ressources matérielles peuvent être dimensionnées exactement selon les besoins du projet, évitant ainsi le gaspillage ou les coûts inutiles liés à la surcapacité.
La principale différence : connaissance vs dépendance
Un architecte cloud qui travaille exclusivement sur des plateformes gérées développe souvent un dépendance aux outils fournis par la plateforme elle-même, limitant sa capacité à opérer en dehors de cet environnement. Cela peut s'avérer problématique lorsque vous devez réduire les coûts ou vous adapter à des situations dans lesquelles la plateforme que vous avez choisie n'est pas disponible ou idéale.
L'ingénieur système, quant à lui, développe un connaissance approfondie des technologies sous-jacentes, ce qui lui permet de :
- Gérez directement la configuration des serveurs, des bases de données et des réseaux, sans avoir besoin d'interfaces graphiques.
- Choisissez les meilleures technologies et stratégies, quel que soit le fournisseur.
- Mettez en œuvre des solutions flexibles, réplicables sur n’importe quelle infrastructure, à la fois sur site et dans le cloud.
Une approche globale des infrastructures
Un ingénieur système expert ne se limite pas à la conception et à la configuration initiales, mais propose une approche holistique aux infrastructures :
- Optimisation continue : Surveillez et améliorez constamment les performances, en réduisant les goulots d'étranglement et en mettant en œuvre des mises à niveau technologiques si nécessaire.
- Gestion proactive : Mettez en œuvre des solutions de prévention des pannes et de gestion de la reprise après sinistre, telles que des instantanés fréquents, la réplication à distance et des sauvegardes incrémentielles.
- Réduction des coûts d'exploitation : Identifiez les opportunités de réduction des coûts sans sacrifier la qualité de service, par exemple grâce à l'adoption de technologies open source ou de configurations personnalisées.
Un petit exemple concret
Considérons la gestion d'une base de données. Un architecte cloud pourrait simplement configurer une base de données RDS sur AWS, en choisissant les options disponibles via l'interface. Un ingénieur système pourrait cependant :
- Choisissez une base de données open source comme Percona Server pour MySQL.
- Configurez manuellement les optimisations de réplication, de sauvegarde et de requêtes.
- Garantissez de meilleures performances et des coûts réduits en éliminant complètement les dépenses RDS.
La vraie valeur pour le client
Grâce à cette combinaison de compétences techniques et de flexibilité, l'ingénieur système est en mesure de proposer :
- Un rapport qualité-prix supérieur.
- Une plus grande indépendance par rapport à un seul fournisseur.
- Gestion personnalisée et « clé en main » de l'ensemble de l'infrastructure.
Dans un monde où la valeur perçue dépasse souvent la valeur réelle, l'ingénieur système représente une figure capable de remettre l'accent sur l'efficacité, l'optimisation et les économies, sans sacrifier la qualité du service.
La qualité du réseau
Une autre objection courante est que les fournisseurs alternatifs tels que Hetzner ou OVH ne disposent pas de la même qualité de réseau qu'AWS. S'il est vrai qu'AWS propose un réseau de premier plan au monde, l'expérience pratique montre que les temps d'arrêt importants sont extrêmement rares, même avec des fournisseurs moins chers.
- Exemple pratique : Cette année, Hetzner a connu moins d'une heure d'arrêt total, ce que de nombreux clients peuvent facilement accepter compte tenu des économies réalisées.
- Question critique : Ça vaut l'argent 19.000 euro plus par an pour éliminer cette heure d'arrêt ? Pour la plupart des projets, la réponse est non.
La nouvelle approche : économies et contrôle
En migrant vers une infrastructure dédiée, non seulement les coûts directs ont été considérablement réduits, mais le client a également bénéficié de :
- Coûts prévisibles : La suppression de la facturation au fur et à mesure a permis de planifier votre budget avec précision et sans surprise.
- Gestion centralisée : Un service « clé en main » a simplifié les opérations et réduit les coûts de gestion.
- Un plus grand contrôle : La possibilité d'optimiser chaque aspect de l'infrastructure a garanti des performances supérieures par rapport à la configuration sur AWS.
Cette expérience a montré que AWS n'est pas toujours le choix idéal, surtout lorsque le coût est un facteur critique. Avec une analyse minutieuse des besoins et une autogestion experte, vous pouvez obtenir des résultats identiques ou meilleurs, avec des coûts globaux nettement inférieurs.
Conclusions
AWS représente l'une des plateformes les plus avancées et fiables au monde, capable de répondre aux besoins des projets les plus complexes et évolutifs. Cependant, ce n'est pas toujours le choix le plus pratique ou le plus approprié, en particulier lorsque le budget est un facteur critique ou que les besoins techniques peuvent être satisfaits avec des alternatives moins chères et plus flexibles.
L'expérience montre que des performances égales, voire meilleures, peuvent être obtenues avec des configurations personnalisées sur Serveurs Dédiés ou des fournisseurs de cloud moins chers. Cette approche réduit non seulement considérablement les coûts directs, mais permet également une plus grande personnalisation et optimisation de l'infrastructure, en l'adaptant précisément aux besoins du projet.
La réduction des coûts n’est pas seulement une question économique. C'est l'occasion de :
- Optimiser les ressources : Éliminer le gaspillage et les surcharges inutiles souvent imposées par les plateformes gérées.
- Améliorer le contrôle : Grâce à la possibilité de choisir et de configurer des technologies open source et des solutions auto-hébergées, garantissant indépendance et flexibilité opérationnelle.
- Créer des infrastructures durables : Concevez des environnements qui non seulement réduisent les coûts à court terme, mais qui sont également facilement évolutifs et gérables à long terme.
Une invitation à une évaluation consciente
Le prestige d’une marque comme AWS ne doit pas automatiquement guider le choix de la plateforme. Chaque projet a des besoins uniques qui nécessitent une analyse minutieuse et personnalisée. Le choix de la technologie doit être basé sur des critères pratiques : coût, performances, évolutivité et contrôle, plutôt que sur une perception de fiabilité associée au nom du fournisseur.
La vraie différence réside dans le design
La capacité d'obtenir des performances élevées à moindre coût ne réside pas dans la plateforme choisie, mais dans la compétence avec laquelle l'infrastructure est conçue et gérée. Une configuration bien pensée, soutenue par des outils open source et une expertise opérationnelle approfondie, peut surpasser de loin les solutions disponibles dans le commerce proposées par les plateformes cloud populaires.
En fin de compte, le succès d'un projet ne se mesure pas par le fournisseur utilisé, mais par l'efficacité, la durabilité et le contrôle que l'infrastructure est capable d'offrir. Se concentrer sur des solutions flexibles et une gestion experte vous permet d'atteindre des objectifs ambitieux sans compromettre le budget ou la qualité du service.