News

Les outils d’observabilité ajoutent FinOps au milieu des préoccupations macroéconomiques

Les équipes informatiques des entreprises concernées par la gestion des coûts du cloud disposent de nouvelles options FinOps intégrées aux outils d’observabilité alors que les prévisions concernant l’économie mondiale de l’année prochaine deviennent pessimistes.

L’inflation, les conflits tels que la guerre de la Russie en Ukraine et la pandémie de COVID-19 en cours ralentiront la croissance économique mondiale de 6,0 % en 2021 à 3,2 % en 2022 et 2,7 % en 2023, selon un rapport publié ce mois-ci par le Fonds monétaire international.

En réponse à ces préoccupations macroéconomiques, la ruée des entreprises vers le cloud computing au cours des deux dernières années, stimulée par la pandémie et alimentée par un «chéquier ouvert» pour l’informatique, a maintenant commencé à céder la place à la pression pour réduire les dépenses informatiques, selon un rapport publié cette semaine par Andy Thurai, vice-président et analyste principal chez Constellation Research.

La plupart des organisations, en particulier celles qui n’ont pas mûri leurs opérations numériques, sont à un incident majeur près de se mettre en faillite.

Andy ThurayVice-président et analyste principal, Constellation Research

“Le début de la pandémie de COVID-19 a forcé les entreprises à se connecter plus rapidement qu’elles ne le souhaitaient, plutôt que d’évoluer ou d’améliorer leur progression vers la maturité numérique”, indique le rapport de Thurai. “Bien que certains de ces projets de transformation numérique aient répondu aux attentes, la plupart des organisations – en particulier celles qui n’ont pas mûri leurs opérations numériques – sont à un incident majeur près de se mettre en faillite.”

Une approche aléatoire de la transformation numérique a conduit à une prolifération d’outils qui menace la fiabilité des services d’entreprise, affirme le rapport de Thurai. L’observabilité, dans laquelle tous les types de données de tous les systèmes d’une organisation sont regroupés dans un seul référentiel, sera importante pour réduire la prolifération de cet outil et améliorer la fiabilité informatique de l’entreprise à l’avenir, selon le rapport.

“L’observabilité consiste à savoir à tout moment ce qui se passe avec vos systèmes et si quelque chose va tomber en panne dans un avenir proche”, indique le rapport de Thurai. “La pratique répandue consistant à renforcer la surveillance et la gestion après le déploiement des applications n’est plus suffisante.”

Les fournisseurs d’observabilité jouent aux chaises musicales alors que les utilisateurs recherchent la consolidation

Pour tirer parti de ces tendances, les fournisseurs d’observabilité, dont beaucoup ont commencé comme spécialistes de la surveillance des performances des applications (APM), ont progressivement élargi les types de données qu’ils collectent. Les outils de fournisseurs tels que Dynatrace et New Relic incluent désormais des journaux et des traces en plus des métriques et des événements. Ces fournisseurs ont également élargi l’analyse des données pour inclure la fiabilité et la sécurité des applications en plus des performances, dans le but d’être le choix de leurs clients pour la consolidation des outils.

Cette semaine, alors que l’examen minutieux des coûts informatiques continuait de s’intensifier, deux fournisseurs d’observabilité, Datadog et Sysdig, ont également ajouté le support FinOps. FinOpsun terme plus récent pour la gestion des coûts informatiques, est un mélange entre les opérations financières et informatiques.

Un client de Datadog qui a présenté cette semaine lors de la conférence Dash annuelle du fournisseur, a déclaré que le nouveau module complémentaire Cloud Cost Management FinOps du fournisseur est opportun.

“Compte tenu du climat macroéconomique actuel, l’accent a été mis sur l’Opex et, par conséquent, sur les coûts du cloud”, a déclaré Martin Amps, ingénieur principal du détaillant de vêtements en ligne Stitch Fix, lors d’une session en petits groupes.

Stitch Fix avait un accès bêta à Cloud Cost Management, qu’il a ajouté à ses tableaux de bord d’observabilité des ingénieurs logiciels. Amps a montré un exemple d’un tel tableau de bord lors du discours d’ouverture de la conférence Dash, qui comprenait des données sur Amazon Relational Database Service (RDS) dépenses.

« Notre plan fonctionne subtilement, mais avec succès ; le propriétaire du service était coupable d’avoir optimisé son service », a-t-il déclaré. « Avant, ils dépensaient 430 USD par jour en RDS, mais n’utilisaient qu’une fraction de la capacité des clusters. Grâce à ces informations supplémentaires, ils ont pu identifier qu’ils devaient redimensionner l’utilisation de leur cluster, réalisant ainsi des économies de 78 %. »

“Les données d’utilisation en temps réel changent la donne”

Dans sa première version, qui est devenue généralement disponible cette semaine, la gestion des coûts du cloud de Datadog se limite à l’analyse des services AWS sur les machines virtuelles, bien que la prise en charge de davantage de fournisseurs de cloud et d’environnements Kubernetes soit prévue. Cloud Cost Management coûte 7,50 $ par hôte/par mois pour les utilisateurs de Datadog.

Sysdig, qui a ses racines dans la surveillance et la sécurité des conteneurs, adoptera une approche différente dans sa première version d’une fonctionnalité gratuite Cost Advisor cette semaine. Cost Advisor se concentre uniquement sur l’utilisation des ressources dans les environnements Cloud Kubernetes, mais prend en charge AWS, Azure et Google Cloud Platform.

Les outils FinOps de Datadog et de Sysdig émettent des alertes sur les pics de coûts et classent les services qui coûtent le plus cher au sein des organisations clientes. Le service de Datadog met en évidence les changements dans les dépenses quotidiennes, hebdomadaires et mensuelles, tandis que Sysdig Cost Advisor place les données de coûts en temps réel et historiques dans une base de données de séries chronologiques pour une analyse à long terme.

Ces outils rejoignent d’autres ajouts FinOps relativement récents, notamment Cloud Custodian et Apptio open source, qui s’associent à ServiceNow. Les outils CI/CD de Harness.io peuvent également intégrer des données FinOps dans les flux de travail des développeurs.

Les outils de gestion des coûts du cloud ne sont pas non plus un nouveau concept, a déclaré Gregg Siegfried, analyste chez Gartner, citant des exemples passés tels que CloudHealth, désormais VMware Aria Cost., et Turbonomic, entre autres.

Ce qui est nouveau, c’est l’utilisation généralisée des fournisseurs de cloud public, qui ont des taux de facturation standard et à partir desquels les fournisseurs d’observabilité peuvent collecter des données d’utilisation à la minute près, a déclaré Siegfried. En revanche, les outils de fournisseur de cloud tels qu’AWS Cost Explorer ont une latence d’environ 24 heures entre l’utilisation des ressources et la livraison des données de coût.

Cet accès rapide aux données de coût peut être utilisé pour prévoir et éviter les dépassements de coûts, de la même manière que les données d’observabilité peuvent aider à prévoir et à éviter les défaillances de performances ou de disponibilité, selon Siegfried.

“Soudain, tout le monde est préoccupé par les coûts dans le climat macroéconomique, et maintenant nous avons cela en combinaison avec les données qui nous sont disponibles en temps relativement réel”, a-t-il déclaré. “Données d’utilisation en temps réel [delivered] de manière à pouvoir prendre des décisions de placement de la charge de travail en fonction de cela change le jeu et rend le tout beaucoup plus intéressant.

L’observabilité elle-même nécessite une gestion des coûts

La réduction du nombre d’outils et des frais de licence associés peut avoir un impact évident sur les dépenses informatiques. De plus, le type d’analyse prédictive que les outils d’observabilité peuvent effectuer sur de grandes quantités de données à grande échelle peut éviter aux organisations de faire face à des incidents en cascade coûteux en production.

Mais à mesure que les systèmes distribués s’agrandissent et s’étendent davantage pour englober les emplacements informatiques de pointe pour les entreprises, la collecte de plus de données pour les outils d’observabilité peut elle-même entraîner des dépassements de coûts sans une planification minutieuse.

C’était le cas pour Yum! Brands, société mère de chaînes de restaurants telles que Taco Bell, KFC et Pizza Hut, qui a remplacé fin 2021 plusieurs outils de surveillance informatique pour ses sites de commerce électronique par Datadog, puis a cherché à étendre cette observabilité consolidée à 53 000 restaurants.

Le simple volume de collecte de données sur autant d’emplacements aurait pu générer environ 14 milliards de lignes de données de journal par semaine si Yum! Les marques avaient importé tous les journaux de tous les emplacements, a déclaré Sivaram Adhiappan, directeur de l’ingénierie de la fiabilité du site chez Yum! dans une présentation de la conférence Dash. Il n’a jamais atteint cette échelle, mais il a quand même ingéré suffisamment de données pour planter son système d’observabilité de pointe au début de son déploiement.

“Les choses ont commencé à devenir un peu incontrôlables, les journaux étaient trop nombreux, le coût augmentait, puis l’une de nos instances Datadog a désactivé les journaux en production”, a déclaré Adhiappan. “Nous avons commencé à nous plonger dans les métriques basées sur les journaux et à reconstruire nos tableaux de bord en fonction des métriques… et lorsque des problèmes surviennent, nous pouvons désormais réhydrater une tranche étroite de journaux pour savoir ce qui se passe.”

Ceci et l’ajout de l’analyseur de journaux Live Tail et des filtres d’exclusion de Datadog ont permis de réduire d’environ 30 à 40 % les coûts d’ingestion des données de journaux pour le déploiement du restaurant, a déclaré Adhiappan.

“Si vous regardez le volume de journaux qui passe et les cinq ou 10 premiers [log types], ‘l’imprimante n’a plus de papier’ n’arrêtait pas de surgir pour nous », a déclaré Adhiappan. “Nous avons pu commencer à faire un peu plus de progrès là-bas avec les filtres d’exclusion.”

Beth Pariseau, rédactrice principale chez TechTarget, est une vétéran primée du journalisme informatique. Elle est joignable au [email protected] ou sur Twitter @PariseauTT.


Source link

Articles similaires