12 janvier 2024

Comprendre la logique de Varnish Cache

Guide pour une compréhension avancée de la logique Varnish Cache et de son impact sur les performances du site Web.

Varnish Cache, un proxy inverse HTTP avancé, est conçu pour maximiser la vitesse des sites Web. En se plaçant stratégiquement entre le client et le serveur, Varnish réduit non seulement considérablement le Time To First Byte (TTFB) et allège la charge sur le serveur backend, mais exploite également son mécanisme de mise en cache sophistiqué pour gérer efficacement le contenu statique et dynamique. Cette approche de la mise en cache accélère non seulement le chargement des pages pour les utilisateurs finaux, mais contribue également de manière significative à l'évolutivité de l'infrastructure du serveur, faisant de la gestion des pics de trafic inattendus une tâche plus facile à gérer.

Un aspect clé de Varnish est son langage de configuration propriétaire, le Varnish Configuration Language (VCL). La VCL offre une flexibilité sans précédent, permettant une personnalisation détaillée des politiques de mise en cache et des règles de gestion du trafic. Pour utiliser efficacement Varnish et exploiter tout son potentiel, il est essentiel de comprendre non seulement la logique sous-jacente de Varnish, mais également le flux de données à travers ses différents sous-programmes. Cette compréhension approfondie de la logique VCL et Varnish est cruciale pour optimiser les performances d'un site Web et créer des configurations qui répondent spécifiquement aux besoins de l'entreprise. Notre analyse ci-dessous vise à explorer en détail ce flux de travail et les sous-programmes Varnish, en mettant l'accent sur la contribution de chaque étape à l'amélioration des performances et de l'efficacité globales.vernis-machine à états finis

Phase 1 : traitement initial et détermination de la mise en cache.

Dans cette section, nous explorerons la phase 1 du processus Varnish Cache, un point critique qui détermine le traitement des requêtes HTTP entrantes. Connue sous le nom de « Détermination du traitement initial et de la capacité de mise en cache », il s'agit de la phase au cours de laquelle les décisions clés en matière de gestion de la mise en cache sont prises. Nous verrons comment Varnish effectue des vérifications initiales pour évaluer si une requête peut être servie à partir du cache, optimisant ainsi la livraison du contenu et réduisant la charge sur le serveur backend. Nous analyserons également la sophistication avec laquelle Varnish gère les cookies, l'authentification des utilisateurs et l'analyse des en-têtes HTTP pour déterminer la stratégie de mise en cache la plus efficace.

vcl_recv : Réception et évaluation préliminaire des demandes

Lorsqu'une requête HTTP arrive, Varnish l'intègre dans son cycle de vie initial via le sous-programme vcl_recv. C’est le point critique où sont prises des décisions fondamentales qui influenceront tout le cheminement ultérieur de la demande. À ce stade, le Varnish Configuration Language (VCL) permet aux administrateurs système d'écrire des règles complexes et hautement configurables qui examinent chaque aspect de la demande entrante.

Ce sous-programme est responsable d'un large éventail de contrôles :

  • Contrôle des cookies: Varnish peut inspecter les cookies de requête pour décider si une requête est personnelle et donc ne peut pas être mise en cache, ou si elle peut être ignorée pour faciliter la mise en cache.
  • Authentification et autorisation: vérifie l'identité et les autorisations de l'utilisateur. Si une ressource nécessite une authentification ou a des restrictions d'accès, Varnish peut transmettre la demande directement au backend sans mise en cache.
  • Analyse d'en-tête: les en-têtes HTTP sont examinés pour déterminer si la requête répond aux critères de mise en cache définis. Par exemple, des en-têtes comme Cache-Control: no-cache peut indiquer que la réponse ne doit pas être mise en cache.
  • Gestion des politiques de mise en cache: des paramètres personnalisés peuvent être écrits pour gérer des scénarios spécifiques, tels que le contournement du cache basé sur des paramètres de requête, des méthodes HTTP ou d'autres politiques commerciales.

vcl_hash : calcul de hachage et correspondance du cache

Après la première évaluation en vcl_recv, la requête passe au sous-programme vcl_hash. Ici, Varnish effectue une tâche critique dans le processus de mise en cache : calculer un hachage unique pour chaque requête. Ce hachage est essentiel car il permet à Varnish d'identifier efficacement si une version mise en cache de la réponse est déjà présente, permettant ainsi une livraison rapide sans avoir à interroger le serveur backend.

Le calcul du hachage est influencé par des facteurs tels que :

  • URL de la demande: Le composant principal du hachage est l'URL, qui garantit que les requêtes pour la même ressource sont regroupées.
  • En-tête de demande: les en-têtes HTTP peuvent affecter la mise en cache. Par exemple, les variations dans les langues acceptées ou les types de contenu demandés peuvent nécessiter des versions mises en cache distinctes.
  • Personnalisation: les administrateurs peuvent influencer le calcul du hachage en ajoutant ou en excluant des en-têtes ou des paramètres spécifiques, permettant ainsi un contrôle granulaire sur les décisions de mise en cache.

Le résultat de vcl_hash est un identifiant que Varnish utilise pour rechercher rapidement ses mémoires cache. S'il trouve une correspondance, il suit le chemin de remise du cache ; sinon, il poursuit la requête auprès du backend. La capacité de Varnish à le faire extrêmement rapidement est ce qui lui permet de réduire considérablement le TTFB et d'offrir des améliorations significatives en termes de réactivité aux utilisateurs finaux.

Phase 2 : Résolution des demandes de cache (accès et échecs du cache)

Dans cette section, nous approfondirons la phase 2 du processus Varnish Cache, en nous concentrant sur la « Gestion des succès et des échecs du cache ». Cette phase est fondamentale pour le fonctionnement de Varnish, puisqu'il s'agit ici de déterminer si une requête peut être satisfaite directement depuis le cache (un « hit ») ou si elle doit être transmise au serveur backend (un « manque »). Nous approfondirons la logique et les opérations derrière le sous-programme vcl_hit, où Varnish décide si une réponse mise en cache peut être fournie au client. Nous examinerons également la dynamique de vcl_miss et la gestion complexe des situations dans lesquelles les requêtes ne correspondent pas à une entrée de cache existante. De plus, nous aborderons le concept de « Hit-for-Pass », une fonctionnalité essentielle pour gérer efficacement le contenu dynamique ou des scénarios spécifiques nécessitant de contourner le cache. Cette phase est cruciale pour comprendre comment Varnish optimise les ressources et offre des performances élevées, en maintenant un équilibre entre réactivité et précision du contenu fourni.

vcl_hit : Optimisation de la livraison de contenu mis en cache

Lorsqu'un « hit » de cache se produit, le sous-programme vcl_hit entre en action. Un hit se produit lorsque le hachage est calculé dans le vcl_hash correspond à une entrée déjà présente dans le cache Varnish. Dans ce scénario, la demande n'a pas besoin d'être transmise au serveur backend, ce qui entraîne une amélioration substantielle de la vitesse de livraison du contenu.

À l'intérieur vcl_hit, les opérations critiques ont lieu :

  • Contrôle de fraîcheur: Avant de livrer le contenu du cache, Varnish vérifie sa « fraîcheur », en comparant l'âge du contenu avec les directives du cache telles que max-age o Expires. Si le contenu est considéré comme obsolète, Varnish peut le renouveler automatiquement.
  • Logiques personnalisées: Les administrateurs peuvent introduire une logique personnalisée pour gérer des cas particuliers, par exemple pour gérer un contenu qui varie en fonction des sessions utilisateur ou pour mettre en œuvre des stratégies d'invalidation sophistiquées.
  • Contrôle du délai de grâce: Même si un élément de contenu est techniquement expiré, Varnish peut servir de cache pendant une courte période de « grâce » pendant que le nouveau contenu est récupéré, assurant ainsi la continuité du service.

vcl_miss : Gestion des requêtes sans correspondance dans le cache

Un échec de cache se produit lorsque la requête n'a pas de correspondance directe dans le cache. vcl_miss est le sous-programme qui gère ces scénarios, et ses fonctions incluent :

  • Récupération de la décision: vcl_miss détermine si et comment le contenu doit être récupéré du serveur principal. C'est à ce moment-là que vous pouvez décider de stocker le contenu nouvellement récupéré pour de futures requêtes, optimisant ainsi l'utilisation du cache.
  • Configuration des règles de mise en cache: les administrateurs peuvent configurer des règles spécifiques qui définissent quels types de contenu doivent être mis en cache et pendant combien de temps, en personnalisant la politique de mise en cache en fonction des besoins en matière de trafic et de contenu.

hit-for-pass : contourner le cache lorsque cela est nécessaire

Le mécanisme « hit-for-pass » est une fonctionnalité avancée de Varnish qui est activée lorsque, malgré la présence d'un hit, le contenu ne doit pas être servi depuis le cache. Cela peut être crucial pour :

  • Contenu dynamique: Pour le contenu qui change fréquemment ou qui est propre à chaque utilisateur, comme les données de session utilisateur ou les informations personnalisées, la mise en cache peut s'avérer contre-productive.
  • Configuration dynamique: Varnish vous permet de configurer dynamiquement ces exceptions dans la VCL, vous permettant de contourner le cache lorsque les critères définis indiquent que le contenu est servi le plus efficacement directement depuis le backend.

Phase 3 : Mise en œuvre d'actions alternatives pour la gestion du cache

Dans cette phase, nous plongerons dans « Mise en œuvre d'actions alternatives pour la gestion du cache », une phase essentielle pour maintenir l'intégrité et l'actualité du cache. Ici, nous explorons les sous-programmes vcl_purge e vcl_ban, qui permettent aux administrateurs d'effectuer des actions d'invalidation du cache de manières diverses et sophistiquées. Nous verrons plus en détail comment la commande PURGE supprime des entrées spécifiques du cache, tandis que BAN vous permet d'invalider des groupes d'entrées en fonction de critères plus larges. Cette phase souligne l'importance d'une gestion du cache efficace et sélective pour garantir que les contenus servis sont toujours à jour et pertinents. De plus, nous examinerons le sous-programme vcl_pipe, utilisé pour contourner la mise en cache pour des types de contenu spécifiques, soulignant ainsi la flexibilité et l'adaptabilité de Varnish dans la gestion de divers scénarios de mise en cache. La phase 3 est cruciale pour comprendre comment Varnish gère les exceptions et maintient des performances optimales même dans des conditions dynamiques.

vcl_purge et BAN : stratégies d'invalidation différenciées

Dans Varnish, une gestion efficace du cache ne se limite pas au stockage et à la livraison du contenu ; il est également essentiel de pouvoir invalider un contenu qui n'est plus d'actualité ou qui n'est plus correct. Le sous-programme vcl_purge est conçu à cet effet : il permet d'invalider sélectivement les entrées mises en cache de manière précise et ciblée.

  • PURGE: La commande PURGE est utilisée pour supprimer des entrées individuelles du cache. Lorsqu'une réponse mise en cache devient invalide, par exemple en raison d'une modification du contenu d'origine, la commande PURGE garantit que cette réponse spécifique est purgée du cache. Cette méthode est optimale pour invalider des objets individuels et est généralement invoquée via des requêtes HTTP avec la méthode PURGE.
  • INTERDIRE: En revanche, BAN est une commande qui vous permet d'invalider un large ensemble d'entrées de cache en fonction d'expressions régulières ou d'autres critères complexes. Avec BAN, vous pouvez spécifier des modèles qui correspondent aux en-têtes de réponse ou à d'autres attributs, supprimant ainsi en masse toutes les entrées de cache correspondant aux critères. Ceci est particulièrement utile lorsque vous devez invalider plusieurs caches partageant un attribut commun, tel qu'une balise de section ou un type de contenu.

Le choix entre PURGE et BAN dépend du besoin spécifique : PURGE lorsque vous devez agir sur une seule ressource, BAN pour une stratégie d'invalidation plus large et plus puissante.

vcl_pipe : contournement du cache pour un contenu spécifique

Le sous-programme vcl_pipe représente un choix stratégique pour les contenus qui, de par leur nature, ne bénéficient pas de la mise en cache. Voici quelques scénarios clés d'utilisation vcl_pipe:

  • Contenu non mis en cache: Certains types d'interactions, tels que les transactions chiffrées ou les flux de données en temps réel, ne conviennent pas à la mise en cache. vcl_pipe vous permet d'acheminer ces requêtes directement vers le backend sans passer par la logique de mise en cache.
  • Gestion du trafic en temps réel: Pour les demandes nécessitant des mises à jour instantanées ou des données en direct, telles que des cotations boursières ou des chats interactifs, vcl_pipe garantit que les données sont récupérées directement à partir de la source d'origine.

En résumé, vcl_purge e vcl_ban fournir aux administrateurs système les outils nécessaires pour maintenir le cache à jour et pertinent, tout en vcl_pipe offre une solution efficace pour gérer les exceptions qui ne correspondent pas au modèle de mise en cache.

Phase 4 : Dynamique de communication et gestion des réponses backend

Dans cette phase, nous nous concentrerons sur « l'interaction avec le backend (Backend Workthread) », un composant clé pour gérer les requêtes qui ne peuvent pas être satisfaites par le cache. Dans cette étape, nous approfondirons le sous-programme vcl_backend_fetch, où Varnish établit une connexion avec le serveur backend pour récupérer les données demandées. Nous verrons comment des aspects cruciaux tels que la configuration des délais d'attente, le maintien des connexions persistantes et la manipulation des en-têtes de requête sont gérés pour optimiser l'interaction avec le backend. De plus, nous discuterons du rôle de vcl_backend_response, qui détermine si et comment les réponses du backend peuvent être mises en cache en évaluant les en-têtes de réponse comme Cache-Control e Expires. Cette phase est également celle où vous corrigez les erreurs de récupération de données, avec vcl_backend_error qui entre en jeu pour gérer des situations inattendues, en proposant des réponses de secours ou des tentatives de récupération. Comprendre cette phase est essentiel pour apprécier comment Varnish optimise les interactions avec le backend, garantissant des performances élevées et une gestion efficace des demandes.

vcl_backend_fetch : optimisation de la récupération de données

Le sous-programme vcl_backend_fetch c'est le cœur de l'interaction de Varnish avec le serveur backend. A ce stade, Varnish initie une connexion active avec le backend pour récupérer les ressources demandées par une requête « manquée ». La configuration de cette phase est cruciale et comprend plusieurs aspects techniques :

  • Gestion des délais d'attente: Il est possible de définir des délais d'attente spécifiques pour les connexions au backend, évitant ainsi des temps d'attente prolongés qui pourraient impacter négativement l'expérience utilisateur.
  • Connexions persistantes: En gardant les connexions avec le backend ouvertes (keep-alive), la surcharge associée à l'ouverture de nouvelles connexions pour chaque requête est réduite, améliorant ainsi l'efficacité.
  • Définition des en-têtes de demande: les administrateurs peuvent manipuler les en-têtes de requête envoyés au backend pour contrôler la négociation de contenu et d'autres politiques de mise en cache du backend.

vcl_backend_response : évaluation des réponses et mise en cache

Après avoir reçu la réponse du backend, vcl_backend_response entre en action pour évaluer et traiter la réponse. Ce sous-programme a pour tâche d'analyser la réponse et de décider de son sort par rapport au cache :

  • Analyse des en-têtes de réponse: En-têtes comme Cache-Control e Expires ils sont essentiels à ce stade car ils informent Varnish de la possibilité de cache de la réponse. Une configuration détaillée à cette étape permet de respecter les politiques de mise en cache backend et d'assurer la cohérence des données.
  • Règles de mise en cache personnalisées: Les administrateurs ont la possibilité de remplacer ou de compléter la logique de mise en cache back-end avec des règles personnalisées pour adapter le comportement de mise en cache aux besoins spécifiques de leur système.

vcl_backend_error : Gestion des erreurs de communication backend

L'interaction avec le backend n'est pas toujours réussie. Lorsqu'une erreur se produit lors de la récupération des données, le sous-programme vcl_backend_error est conçu pour gérer ces événements inattendus :

  • Mise en œuvre de réponses de secours: En cas d'erreur, Varnish peut fournir une réponse de secours préconfigurée, telle qu'une page d'erreur personnalisée ou un message de maintenance.
  • Tentatives de récupération: La configuration peut inclure une logique pour réessayer automatiquement la demande, potentiellement vers un autre backend, afin de garantir la résilience du service.

Grâce à ces mécanismes, Varnish garantit que chaque interaction avec le backend est gérée avec une efficacité maximale et que tout problème est résolu avec des solutions qui maintiennent une haute qualité de service aux utilisateurs finaux. La phase backend est critique car elle prend en charge la robustesse et l'évolutivité de l'infrastructure de mise en cache, permettant à Varnish de proposer un contenu récent et à jour tout en maintenant des temps de réponse rapides et une bonne expérience utilisateur.

Phase 5 : Finalisation et optimisation de la diffusion du contenu

Dans cette phase, nous explorerons les « Content Delivery », moment décisif où les réponses, qu'elles proviennent du cache ou directement du backend, sont enfin envoyées au client. Dans cette partie, nous nous concentrerons sur le sous-programme vcl_deliver, où Varnish effectue les derniers ajustements et optimisations avant la livraison réelle. Cela inclut l'adaptation des en-têtes de réponse, la compression éventuelle du contenu pour améliorer sa transmission et la mise en œuvre d'une logique personnalisée pour optimiser l'expérience de l'utilisateur final. La phase 5 est cruciale pour garantir que le contenu livré est non seulement rapide à charger, mais également sûr et conforme aux attentes des utilisateurs. Cette section souligne l'importance de la phase finale du processus de mise en cache, où se matérialise l'efficacité de Varnish dans l'amélioration des performances générales et de la convivialité des sites Web.

vcl_deliver : Raffinement et présentation de la réponse

Le sous-programme vcl_deliver représente la dernière étape du parcours d’une demande au sein de Varnish. C'est à ce stade que la réponse, qu'elle soit extraite du cache ou fraîchement sortie du backend, est affinée et préparée pour sa livraison finale au client. vcl_deliver est le point où peuvent être réalisées les actions essentielles suivantes :

  • Modification des en-têtes de réponse: Avant l'envoi de la réponse, des en-têtes peuvent être supprimés ou ajoutés pour se conformer aux meilleures pratiques de sécurité, de confidentialité ou simplement pour adapter l'en-tête à la politique de mise en cache.
  • Optimisation du contenu: Dans certains cas, vous pouvez compresser davantage le contenu ou effectuer d'autres formes d'optimisation pour réduire le temps de chargement côté client.
  • Journalisation personnalisée: C'est également le moment de mettre en œuvre une journalisation des requêtes personnalisée, qui peut fournir des informations précieuses pour l'analyse et l'optimisation des performances.
  • Vérification finale de la mise en cache: Même si une réponse a déjà été mise en cache ou nouvellement récupérée, vcl_deliver permet d'effectuer une dernière vérification de sa cacheabilité avant de le sortir de Varnish.

Impact sur les performances et l'expérience utilisateur

La phase de vcl_deliver il est crucial non seulement de garantir que le contenu est servi de manière optimale, mais également de garantir que l'expérience utilisateur répond aux attentes en matière de performances. Puisqu’il s’agit du dernier point de contrôle avant que la réponse n’atteigne le navigateur de l’utilisateur, toute optimisation à cette étape peut avoir un impact significatif sur les temps de chargement perçus par l’utilisateur.

Grâce à la configuration minutieuse de vcl_deliver, les administrateurs peuvent influencer l'impression finale que les utilisateurs ont du site, tant en termes de rapidité que de qualité du contenu délivré.

Phase 6 : Traitement des réponses récapitulatives et des messages d'erreur

Dans cette phase, nous approfondissons la « Gestion des erreurs et des réponses synthétiques », un aspect fondamental pour garantir une gestion fluide et professionnelle des situations anormales. A ce stade, l'accent est mis sur le sous-programme vcl_synth, qui est invoqué lorsqu'il est nécessaire de générer des réponses synthétiques, telles que des pages d'erreur ou des messages d'avertissement. Cette phase est cruciale pour fournir aux utilisateurs finaux des informations claires et utiles en cas d'erreurs ou d'interruptions de service, en maintenant un haut niveau de communication et de transparence. Nous verrons comment vcl_synth permet aux administrateurs de personnaliser entièrement ces réponses, en garantissant qu'elles sont conformes à l'image de marque et aux politiques du site. Une gestion efficace des erreurs et la capacité de réagir à des situations inattendues avec des réponses appropriées sont des éléments clés pour maintenir la fiabilité et la confiance des utilisateurs, faisant de cette phase un pilier clé de la stratégie globale de mise en cache de Varnish.

vcl_synth : création du contenu du système et gestion des exceptions

Le sous-programme vcl_synth joue un rôle crucial dans la gestion des situations où Varnish ne peut pas fournir une réponse valide via les canaux de mise en cache normaux ou depuis le backend. Cette étape du processus est dédiée à la génération de réponses synthétiques, qui sont des contenus générés dynamiquement par Varnish lui-même en réponse à des erreurs ou des événements particuliers. Les principales fonctionnalités incluent :

  • Génération de pages d'erreur personnalisées: Lorsqu'une demande ne peut être satisfaite, au lieu d'afficher une page d'erreur générique, vcl_synth vous permet de présenter une page d'erreur personnalisée qui peut être conçue pour maintenir la cohérence avec l'image de marque de votre site et fournir des conseils utiles aux utilisateurs.
  • Messages d'avertissement et d'entretien: En cas de maintenance programmée ou d'évènements techniques inattendus, vcl_synth peut être configuré pour fournir des messages clairs et informatifs, garantissant que les utilisateurs sont conscients de la situation actuelle.
  • Gestion des exceptions: Cette phase permet également de gérer les cas exceptionnels comme les requêtes mal formées ou les comportements inattendus des utilisateurs, en proposant une réponse cohérente et maîtrisée.

Personnalisation et configuration

La configuration de vcl_synth Il est hautement personnalisable grâce à la VCL, qui permet aux administrateurs de définir précisément comment gérer différents scénarios d'erreur. Ceci comprend:

  • Codes d'état HTTP: Définissez les codes d'état à renvoyer pour des scénarios spécifiques, améliorant ainsi la communication avec les clients et les systèmes de surveillance.
  • Contenu dynamique: insérez du contenu dynamique dans les pages d'erreur, tel que des horodatages, des messages spécifiques à une erreur ou des informations de dépannage.
  • Journaux détaillés: configurez la journalisation détaillée des erreurs pour aider les administrateurs à analyser et à résoudre les problèmes.

Impact sur l'expérience utilisateur et les diagnostics

La mise en œuvre efficace de vcl_synth aide non seulement à maintenir une communication claire avec les utilisateurs en cas d'erreurs, mais sert également d'outil de diagnostic pour les administrateurs système. En fournissant des commentaires immédiats et pertinents, les administrateurs peuvent rapidement identifier et résoudre les problèmes, améliorant ainsi la résilience et la fiabilité du système.

En conclusion, vcl_synth représente le dernier filet de sécurité au sein de l’architecture Varnish. Sa configuration et sa gestion minutieuses garantissent que même lorsque les choses ne se passent pas comme prévu, l'expérience utilisateur reste aussi fluide et informative que possible, et les administrateurs disposent des outils nécessaires pour une analyse et une intervention efficaces.

conclusion

Varnish Cache s'est imposé comme une solution d'entreprise de classe mondiale pour optimiser les performances des sites Web. Grâce à son architecture robuste et flexible, Varnish améliore non seulement considérablement les temps de chargement des pages et réduit la charge sur les serveurs backend, mais offre également un contrôle granulaire et une configurabilité qui le rendent idéal pour les applications Web à fort trafic et les sites de grandes dimensions. Son efficacité se reflète dans son adoption par certains des sites Web les plus importants au monde. Des exemples marquants incluent des plateformes telles que le New York Times, Wikipedia ou CNN, qui s'appuient sur Varnish pour garantir une diffusion de contenu rapide et fiable. Cette large acceptation démontre la capacité de Varnish à répondre aux besoins d'optimisation Web les plus exigeants, ce qui en fait un choix de premier ordre pour les entreprises cherchant à améliorer l'expérience utilisateur, à optimiser les ressources du serveur et à évoluer efficacement dans un environnement numérique de plus en plus compétitif.

Vous avez des doutes ? Vous ne savez pas par où commencer ? Contactez-nous !

Nous avons toutes les réponses à vos questions pour vous aider à faire le bon choix.

Discute avec nous

Discutez directement avec notre support avant-vente.

0256569681

Contactez-nous par téléphone pendant les heures de bureau 9h30 - 19h30

Contactez-nous en ligne

Ouvrez une demande directement dans l'espace contact.

INFORMATIONS

Managed Server Srl est un acteur italien leader dans la fourniture de solutions système GNU/Linux avancées orientées vers la haute performance. Avec un modèle d'abonnement peu coûteux et prévisible, nous garantissons que nos clients ont accès à des technologies avancées en matière d'hébergement, de serveurs dédiés et de services cloud. En plus de cela, nous proposons des conseils système sur les systèmes Linux et une maintenance spécialisée en SGBD, sécurité informatique, Cloud et bien plus encore. Nous nous distinguons par notre expertise dans l'hébergement de CMS Open Source de premier plan tels que WordPress, WooCommerce, Drupal, Prestashop, Joomla, OpenCart et Magento, soutenus par un service d'assistance et de conseil de haut niveau adapté aux administrations publiques, aux PME et à toutes tailles.

Red Hat, Inc. détient les droits de Red Hat®, RHEL®, RedHat Linux® et CentOS® ; AlmaLinux™ est une marque commerciale d'AlmaLinux OS Foundation ; Rocky Linux® est une marque déposée de la Rocky Linux Foundation ; SUSE® est une marque déposée de SUSE LLC ; Canonical Ltd. détient les droits sur Ubuntu® ; Software in the Public Interest, Inc. détient les droits sur Debian® ; Linus Torvalds détient les droits sur Linux® ; FreeBSD® est une marque déposée de la FreeBSD Foundation ; NetBSD® est une marque déposée de la Fondation NetBSD ; OpenBSD® est une marque déposée de Theo de Raadt. Oracle Corporation détient les droits sur Oracle®, MySQL® et MyRocks® ; Percona® est une marque déposée de Percona LLC ; MariaDB® est une marque déposée de MariaDB Corporation Ab ; REDIS® est une marque déposée de Redis Labs Ltd. F5 Networks, Inc. détient les droits sur NGINX® et NGINX Plus® ; Varnish® est une marque déposée de Varnish Software AB. Adobe Inc. détient les droits sur Magento® ; PrestaShop® est une marque déposée de PrestaShop SA ; OpenCart® est une marque déposée d'OpenCart Limited. Automattic Inc. détient les droits sur WordPress®, WooCommerce® et JetPack® ; Open Source Matters, Inc. détient les droits sur Joomla® ; Dries Buytaert détient les droits sur Drupal®. Amazon Web Services, Inc. détient les droits sur AWS® ; Google LLC détient les droits sur Google Cloud™ et Chrome™ ; Facebook, Inc. détient les droits sur Facebook® ; Microsoft Corporation détient les droits sur Microsoft®, Azure® et Internet Explorer® ; La Fondation Mozilla détient les droits sur Firefox®. Apache® est une marque déposée de The Apache Software Foundation ; PHP® est une marque déposée du groupe PHP. CloudFlare® est une marque déposée de Cloudflare, Inc. ; NETSCOUT® est une marque déposée de NETSCOUT Systems Inc. ; ElasticSearch®, LogStash® et Kibana® sont des marques déposées d'Elastic NV. Ce site n'est affilié, sponsorisé ou autrement associé à aucune des entités mentionnées ci-dessus et ne représente aucune de ces entités de quelque manière que ce soit. Tous les droits sur les marques et noms de produits mentionnés sont la propriété de leurs titulaires respectifs des droits d'auteur. Toutes les autres marques mentionnées appartiennent à leurs titulaires. MANAGED SERVER® est une marque déposée au niveau européen par MANAGED SERVER SRL Via Enzo Ferrari, 9 62012 Civitanova Marche (MC) Italie.

Retour en haut de page