2022 sera une nouvelle année d’expansion et d’adoption pour l’observabilité. L’observabilité offre aux ingénieurs un traitement unifié en temps-réel des données de télémétrie full-stack, et grâce à cela la compréhension et la maîtrise de la performance de leurs architectures applicatives. Les ingénieurs et développeurs peuvent ainsi planifier, développer, déployer et opérer des applications plus fiables et performantes, qui génèrent des expériences numériques optimales et accélèrent l’innovation. En intégrant les six grandes tendances suivantes de l’observabilité, ils continueront d’alimenter la croissance de leurs organisations en 2022 – et au-delà.
L’observabilité est désormais critique pour le business
Le succès de toute organisation moderne repose sur la fourniture d’expériences numériques fiables et excellentes aux clients, partenaires et employés. Cette tendance a bien sûr été très fortement accélérée par la pandémie. Le succès de l’entreprise dépend donc plus que jamais de la compréhension et de la maîtrise de l’infrastructure, des applications, des microservices et des middlewares qui délivrent ces expériences. Les nouvelles architectures, si elles sont plus performantes et scalables, sont aussi plus complexes, plus volatiles et fragmentées. C’est parce que l’observabilité répond à ces défis qu’elle connaît une croissance et une adoption très fortes.
L’Observability Forecast 2021 (enquête mondiale auprès de près de 1 300 responsables informatiques, ingénieurs logiciels et développeurs) confirme cette tendance. 90 % des répondants ont déclaré que l’observabilité est essentielle au succès de leur entreprise, et 94 % déclarent qu’elle est essentielle à leur rôle. Gartner de son côté prévoit que les entreprises augmentent leur adoption d’outils d’observabilité de 30 % par an d’ici 2024. Plus de 80 % des dirigeants de C-Suite ont déclaré dans cette même prévision d’observabilité qu’ils s’attendaient à voir leurs budgets d’observabilité augmenter l’année prochaine, 20 % s’attendant à ce que les budgets augmentent de manière significative, poussant encore l’observabilité comme une tendance clé.
L’avenir s’écrit aussi à l’Edge avec la convergence physique-digital
Alors que quelques-uns se préoccupent de transposer nos vies dans le Métavers, une réalité plus immédiate est que les mondes numériques et physiques sont en train de fusionner. Que ce soit l’explosion des objets connectés et des ‘touchpoints’ numériques qui font désormais partie intégrante de l’expérience client dans le commerce de détail, ou encore les capteurs IoT et les systèmes critiques pilotés en temps réel dans le manufacturing 4.0, l’automobile ou les transports, l’Edge Computing et l’informatique ubiquitaire connaissent un essor incontournable. Pour être à l’avant-garde ou simplement s’adapter à ces évolutions, génératrices d’un nombre exponentiel de données et de complexité de bout-en-bout, les organisations sont en plein redéploiement et re-architecture de l’informatique et des logiciels, depuis le cœur de l’entreprise jusqu’à la périphérie.
Cette situation crée un nouvel impératif d’observabilité. En effet, les entreprises doivent être en mesure de surveiller, d’observer et de comprendre leur architecture, qu’elle soit déployée sur site, dans le cloud ou à la périphérie et qu’elle soit accessible par le biais du navigateur ou d’autres dispositifs physiques. Cette vision holistique leur permettra d’automatiser le déploiement de l’observabilité, de bout en bout, dans leur pipeline de développement et de livraison.
Garantir sa performance à l’ère de l’IA, du Machine Learning et de la donnée complexe
De très nombreuse entreprises ont désormais dépassé la phase d’exploration et de prototypage des applications basées sur des pipelines de données complexes et sur l’IA/ML. La part de l’architecture logicielle qui s’appuie désormais sur des approches DataOps, ModelOps, MLDevOps et la Data factory augmente rapidement, y compris en production.
Les organisations sont donc plus directement dépendantes de la fiabilité et de la performance de leurs pipelines de données et de leur ML Factory. Ces composants souffrent cependant encore d’une lacune l’observabilité pour en assurer la disponibilité, la fiabilité et la performance tout au long cycle Data/Model/MLDevOps. Bien que ces technologies soient très prometteuses, les équipes réalisent désormais que les pannes et les problèmes de performance risquent d’entraver leur adoption rapide et d’impacter largement les clients et le business.
Le moment est venu d’adopter une approche proactive et d’instrumenter les DataOps et les MLOps avec les mêmes techniques d’observabilité qui ont démontré leur valeur dans le cycle « DevSecOps traditionnel ».
Conformité et sécurité : élever le niveau d’exigence pour tout l’écosystème
La digitalisation accrue dans toutes les industries entraîne un accroissement inévitable de la surface d’attaque cyber et une augmentation du risque associé. C’est la raison pour laquelle les entreprises doivent continuellement élever leur niveau d’exigence et de pratique en termes de sécurité, comme l’a fait par exemple l’industrie automobile avec la norme TISAX[1]. Le défi de la sécurité requiert des compétences et en engagement de ressources importants qui s’étend sur l’ensemble de la chaine de valeur. Il est donc logique de privilégier les partenaires qui sont fortement engagés sur la protection des données et la sécurité et qui sont certifiés sur la base de normes élevées telles que SOC2, ISO27001, TISAX, HIPAA, FedRamp, GDPR, etc. cela permet souvent de déporter une partie du fardeau de la sécurité et de la conformité sur ces partenaires qui font partie intégrante de la chaine de valeur et de l’écosystème.
Pour fournir de la performance, les architectures logicielles modernes doivent donc s’appuyer à la fois sur l’observabilité et sur des pratiques de sécurité solides et exigeantes. Si les solutions d’observabilité adoptées par les entreprises répondent elles même à ces critères élevés de sécurité et de certification, alors ces entreprises pourront maximiser la valeur de toutes leurs données de télémétrie et tirer le meilleur parti de leurs pratiques d’observabilité.
“Top down is the new fast”
Les architectures modernes sont de plus en plus fragmentées et complexes. Elles intègrent des micro-services, de composants middlewares spécialisés, des conteneurs ainsi qu’une mise à l’échelle horizontale qui peut aller de 100, 1 000 à 10 000 composants au sein de l’architecture. Comprendre les problèmes de disponibilité, de fiabilité et de performance dans de tels environnements pose de nouveaux défis. Même les meilleures méthodes traditionnelles de détection, d’alerte et de dépannage « bottom-up » peuvent perdre progressivement en efficacité.
On peut toutefois obtenir une performance optimale dans la gestion de la détection (MTTD), de compréhension (MTTU) et de résolution des incidents et des problèmes de performance. (MTTR). Il faut pour cela de nouvelles visualisations full-stack de l’ensemble de l’architecture, qui permettent de comprendre le comportement et l’état global de l’architecture instantanément, associée à la détection automatisée d’anomalies. De nouvelles approches existent aussi pour fournir une compréhension topologique temps-réel de l’ensemble du parc applicatif, visualiser l’ensemble des dépendances de bout-en-bout entre toutes les entités de l’architecture et contextualiser les changements de santé et de performance en temps réel.
L’entreprise « composable » : modularité, micro-services et intégration
De nombreux analystes – dont Gartner – ont souligné le fait que nous ne savons pas quand surviendra la prochaine crise, ni quelle sera la prochaine opportunité. Les entreprises doivent donc disposer d’une architecture hautement modulaire, leur permettant de prendre des éléments clés de leurs processus métier, de les assembler et de les réorganiser rapidement pour réagir à une nouvelle situation. Pour gagner en agilité, certaines entreprises choisissent de mettre à niveau et de moderniser leurs plateformes ERP, CRM, de commerce électronique et d’entreposage, en passant au cloud et au SaaS. Pourtant, un grand nombre de leurs processus opérationnels de base reposent toujours sur des flux de données et d’applications situés entre de multiples composants et les couches d’intégration complexes localisées entre ces composants.
Les nouveaux processus et les nouvelles plates-formes que les entreprises mettent en œuvre nécessitent toujours une visibilité de bout en bout. Celle-ci doit s’appliquer sur l’ensemble de leur architecture, de leurs applications et micro-services, des modules de leur plate-forme logicielle de base, de leurs systèmes principaux de back end jusqu’au client et à l’utilisateur final. L’observabilité leur permet d’atteindre cet objectif. En effet, aucun composant de ces architectures n’est réellement suffisant pour surveiller et comprendre ce qui se passe réellement dans l’entreprise.
Ces six tendances de fond impliquent la fin de la surveillance telle que nous la connaissons aujourd’hui. En effet, face à la sophistication croissante des architectures logicielles des entreprises et à un environnement économique incertain, l’impératif de performance, de sécurité et d’agilité représente un défi de plus en plus de plus complexe. Face à ces nouvelles exigences, l’observabilité est la réponse évidente. C’est la raison pour laquelle de plus en plus de DSI et de CTO en ont fait un instrument essentiel de leur stratégie de croissance. Et vous ?
Tribune rédigée Par Grégory Ouillon, CTO EMEA New Relic
<<< À lire également : PORTRAIT | Clara Chappaz, nouvelle patronne de la mission French Tech >>>
Vous avez aimé cet article ? Likez Forbes sur Facebook
Newsletter quotidienne Forbes
Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.
Abonnez-vous au magazine papier
et découvrez chaque trimestre :
- Des dossiers et analyses exclusifs sur des stratégies d'entreprises
- Des témoignages et interviews de stars de l'entrepreneuriat
- Nos classements de femmes et hommes d'affaires
- Notre sélection lifestyle
- Et de nombreux autres contenus inédits