+33 1 42 44 13 30

INTRODUCTION

Cet article sera scindé en deux parties afin de le rendre plus digeste.

Les posts seront présentés comme suit :

  • Décembre 2020    – Du monitoring à l’observabilité – Généralités
  • Janvier 2021          – Du monitoring à l’observabilité – Approche technique

Au cours des dernières années, les systèmes d’information évoluent de façon exponentielle. Entre les années 2015 et 2019, l’adoption du Cloud par les moyennes et grandes entreprises Françaises s’est avérée lente, mais massive. Est venue ensuite, de 2019 à 2020, de façon assez logique, l’ère d’adoption des microservices. Cette dernière étape a vu également apparaître les besoins d’hybridation du Cloud. Nous sommes maintenant entrés dans la période de déploiement en Multi-Cloud dynamique, qui prendra toute son ampleur au cours des trois années à venir. 

Cette forte évolution technologique oblige les professionnels IT à faire évoluer leurs méthodes de contrôle des performances. Il serait totalement inimaginable, en 2021, d’aborder l’analyse des performances applicatives de la même manière que dans les années passées.

Jusqu’en 2018, les environnements applicatifs d’entreprise étaient de type monolithique. L’utilisateur accédait à un serveur frontal positionné dans un Data Center. L’application pouvait ensuite rendre les services attendus par la sollicitation d’autres tiers serveurs, au sein du même Data Center. En ces temps-là, l’instrumentation du réseau à l’aide de sondes de collecte et des serveurs à l’aide d’agents applicatifs, était relativement simple à dessiner. 

L’apparition de la virtualisation est venue compliquer le sujet. Il était de plus en plus délicat d’instrumenter les serveurs et de trouver les points de collecte réseau judicieux. Mais ceci était tout de même possible, par la multiplication des points d’analyse. Nous étions toujours dans le périmètre du Data Center.

CLOUD DYNAMIQUE – CLOUD HYBRIDE – MULTI CLOUD

La migration des applications en environnements Cloud qui a suivi est venue perturber encore les possibilités d’instrumentation. En termes réseau, le positionnement de sondes de collecte devant les serveurs est devenu totalement inadéquat. L’utilisation d’agents applicatifs, de son côté, s’est complexifiée. En mode Platform as a Service ou Infrastructure as a Service, la maîtrise interne des assets serveurs était encore d’actualité. Des agents pouvaient toujours instrumenter ces dits serveurs. Par contre, en mode Software as a Service, il devenait impossible de les instrumenter, ces serveurs n’étaient plus la propriété des entreprises clientes.

A présent, l’adoption des architectures microservices devient inévitable. Les services applicatifs sont maintenant hébergés au sein de containers. Une des fonctions de cette technologie fait que ces dits containers ont la faculté de se mettre en route ou s’arrêter ainsi que de se déplacer à convenance, suivant les besoins. En environnements Hybride ou Multi-Cloud ces microservices peuvent aussi bien se déplacer géographiquement que de migrer de fournisseur à fournisseur.

Il est donc évident que les approches ancestrales de supervision ou de monitoring deviennent totalement obsolètes. Dans cet article, nous abordons la raison pour laquelle l’adoption de la nouvelle approche « Observabilité » s’avère dorénavant incontournable. 

L’ancienne forme de monitoring permettait d’obtenir la vue des performances par le biais des métriques collectées dans les différents environnements. Ces métriques étaient de type infrastructure ou applicatif. Nous ne pouvons plus, aujourd’hui, rester dans ce mode « silos » que représentaient le Network Performance Monitoring, l’Application Performance Monitoring et L’End User Experience Monitoring, pris séparément. 

A présent, nous devons déplacer notre champ de vision. Nous ne pouvons plus nous référer aux seules métriques systèmes par une unique vue interne des environnements. Les environnements monolithiques antérieurs se sont transformés en environnements totalement fragmentés. A la suite de ce constat, nous devons rechercher une vision extérieure de la qualité de production des services. Cette transformation va faire évoluer naturellement la question du « comment le faisons-nous ? », en « le faisons-nous bien ? ».

Pour analyser cette évolution, nous partirons du monde du « Monitoring » pour nous diriger vers celui de « l’Observabilité », en tentant de répondre aux deux questions de base.

QU’EST-CE QUE LE MONITORING ?

Le Monitoring est la routine d’inspection et de compte rendu des activités qui prennent place dans un projet ou un programme. Il représente une méthode de collecte régulière d’informations techniques et métiers sur toutes les phases du projet. Les outils de surveillance examinent les métriques aussi bien que les fichiers logs pour recueillir des informations ou effectuer des actions. 

Les fonctionnalités inhérentes au monitoring sont :

  • La détection des problèmes et l’envoi de messages d’alertes vers des tableaux de bord.
  • L’enregistrement des données et métriques en temps réel, conservées en historiques.
  • La surveillance du comportement des utilisateurs d’une application ou d’un réseau.

La détection des sources de dysfonctionnement et leur dépannage passent par :

  • Le traitement des dégradations de la satisfaction clients.
  • Le dépannage des problèmes dans l’environnement de production.
  • La fourniture des données pour exploration.
  • L’examen quantitatif des problèmes pour aider à identifier les business case à même de le résoudre.

QU’EST-CE QUE L’OBSERVABILITÉ ?

La réponse la plus simple à apporter est que l’Observabilité serait un moyen d’obtenir des informations sur l’ensemble d’une infrastructure, essentielles pour les missions confiées aux équipes opérationnelles. Pour ce faire, l’Observabilité assemble les journaux pertinents, puis surveille et organise les outils. L’Observabilité combine ces différents éléments pour créer une vision approfondie et centralisée de l’état de santé de l’environnement, des problèmes et de ce qui pourrait être amélioré.

L’Observabilité peut répondre à l’ensemble des problèmes relevés à l’intérieur du système, via l’observation d’évènements extérieurs. Les systèmes d’entreprise se complexifient, jour après jour. Dans les environnements actuels, de plus en plus orientés Cloud, Cloud-Hybride et Multi-Cloud, l’Observabilité s’avère être un excellent moyen de contrôle de l’état de santé des microservices.

POURQUOI L’OBSERVABILITÉ ?

Pour conduire convenablement les processus d’Intégration Continue (CI) et de Livraison Continue (CD), le retour d’informations pertinentes pour alimenter les équipes DevOps s’avère primordial.

Il serait inutile, voire pernicieux, de pousser tel ou tel changement d’infrastructure ou de code applicatif sans contrôler son impact, aussi bien en termes d’amélioration que de dégradation. 

Le domaine monitoring du circuit DevOps ou BizDevOps fournit l’information de première importance pour les futures implémentations.

L’Observabilité aide à documenter l’environnement de production et à acquérir les informations les plus pertinentes pour son amélioration continue.

SERVICE LEVEL OBJECTIVE (SLO)

Il est une différence fondamentale entre les niveaux de services (SLA) et l’objectif de ces dits niveaux de services (SLO).

Le SLA est la compréhension du niveau de fourniture d’un service, de la manière dont il est maintenu, des coûts, des lieux, des performances et des responsabilités des différents acteurs.

Le SLO est la mesure spécifique de disponibilité, de débit, de répétition, des performances ou de la qualité du SLA.

Les SLOs sont contractualisés pour matérialiser les engagements du binôme client/fournisseur. Ils varient en termes de besoins, de ressources et en fonction du budget octroyé au service.

Une fois les SLOs définis, l’Observabilité permet de trouver ensuite les SLIs (indicateurs de niveau de service) de haut niveau représentant l’état de santé général des services. 

La figure ci-dessous, présente un exemple de suivi temps réel de SLOs sous l’angle de l’Observabilité, par la solution Dynatrace.

Exemple de suivi de QoS, sur une période d’une semaine via l’angle de l’Observabilité, par la solution Dynatrace.

Suivi temps réel de SLOs via l’angle de l’Observabilité, par la solution New Relic One.

CE QU’EN PENSENT LES DIRECTIONS INFORMATIQUES

En 2020, la société Dynatrace a commissionné le cabinet Vanson Bourne pour interviewer 700 Directeurs de systèmes d’information. Ce sondage permet de relever quelques constats et chiffres clés.

Dans un premier temps, nous constatons que les entreprises sont toujours en pleine phase de transformation digitale. Cette évolution s’est bien amorcée lors des deux dernières années. Il est prévu qu’elle accélère au cours des deux années à venir.

Ce panel de 700 directeurs informatiques confirme que les entreprises investissent massivement vers les technologies Cloud natives.

Pour bien accompagner leur transformation digitale et acquérir une vision globale, les attentes actuelles des CIOs sont très orientées Observabilité, Intelligence Artificielle et Automatisation.

CONCLUSION

Cette première partie du post nous a permis d’aborder le grand virage immiscé dans la gestion des performances. Il est évident que les évolutions digitales constatées, jour après jour, font que les métiers de l’IT doivent évoluer de pair.

Dans la prochaine partie de notre post, le mois prochain, nous nous focaliserons sur les aspects techniques de l’Observabilité.

Bernard THEOT
Directeur Technique Métrologie
+33 (0) 142 441 33
0