Nous craignons le piratage du logiciel qui guide nos voitures automatiques ou du dispositif médical qui régule notre taux d’insuline. Plus généralement, qu’une personne mal intentionnée nous attaque dans notre intégrité physique via le logiciel. Mais la réalité est toute autre, et ces cas sont plutôt des exceptions que la règle.
La numérisation de notre société s’accélère et selon Gartner, 42% des P-DG considèrent le numérique comme faisant maintenant partie de l’ADN de leur entreprise.
Toujours selon Gartner, la réussite de la transformation digitale a pour origine la redéfinition de la façon dont la valeur est créée par le biais du logiciel. Malheureusement, l’effet « boite noire du SI » empêche une vision claire et une compréhension précise des logiciels, même par ses propres créateurs.
Alors que les premiers programmes en COBOL ont vu le jour au début des années 70 et que certains de ces programmes sont toujours présents au sein des SI des grandes entreprises, la génération d’ingénieurs IT qui les ont développés a depuis longtemps pris sa retraite. Notre dépendance aux logiciels n’a fait que croitre au cours des 50 dernières années, et dans les faits, il n’y a pas eu d’initiatives pour les maîtriser et contrôler. Pour répondre à l’évolution du marché, une des approches les plus utilisées pour améliorer tout ou partie d’un SI existant a été de décommissionner les versions précédentes et de construire de nouvelles briques par-dessus, créant ainsi un nouveau “logiciel monstrueux”. Cela accentue l’impression que les ingénieurs IT ne maitrisent pas leurs créations.
Dans les années 90, le développement rapide d’applications (RAD), une approche introduisant des notions de flexibilité et de souplesse dans le processus de développement des applications, a contribué à l’émergence des méthodes Agile dans les années 2000. Mais en mettant d’avantage l’accent sur un processus évolutif que sur la planification, et en favorisant le développement de nouvelles briques applicatives sans réel contrôle de la cohérence de l’ensemble formé, cette approche a aussi accru le manque de clarté et d’intelligibilité des SI d’entreprise.
Comment faire confiance à un système non intelligible ?
Force est de constater que les applications ont aujourd’hui une durée de vie qui dépasse largement celle (en entreprise) de ses concepteurs et développeurs. Qui plus est, les évolutions technologiques de ces dernières années laissent entrevoir que sous peu le logiciel ne sera plus une matière totalement inerte mais une entité capable d’autonomie. Il est donc d’autant plus urgent de reprendre le contrôle sur ces SI et applications car nous ne pouvons plus nous en passer. Nous devons donc continuer à nous “en occuper”, à le faire évoluer pour encore et toujours l’améliorer.
Une première approche, peut-être naïve, est d’investirplus massivement dans la formation autour de la programmation et des logiciels, de démystifier pour le plus grand nombre les technologies qui servent à créer ces “monstres”. Plusieurs initiatives ont vu le jour ces 2/3 dernières années tant en Europe qu’aux États-Unis pour familiariser les jeunes générations à la programmation. Néanmoins nous ne verrons les résultats que dans les dix prochaines années et il ne faut pas se leurrer, tout le monde ne deviendra pas pour autant « surdoués » du logiciel. Il nous faut donc aussi identifier des voies à court-terme.
Une autre possibilité pour garantir que le logiciel reste compréhensible et maîtrisable est de s’assurer qu’il respecte les normes de qualité, de sécurité et d’architecture qui commencent à être largement répandues depuis quelques années.
D’abord l’apanage de quelques secteurs industriels, les standards définissant les contraintes à respecter lors du développement des applications commencent à se diffuser dans le monde moins structuré de l’informatique de gestion.
Des organismes comme l’OMG, le CISQ ou encore MITRE ont mis en place des recommandations et / ou standard de qualité logicielle applicable aux applications d’entreprise. En suivant ces normes, les entreprises et les équipes techniques s’assurent d’avoir un logiciel robuste, efficient, sûr et maintenable donc plus simple à faire évoluer et à comprendre. Là encore il va s’écouler un certain temps avant que l’ensemble des SI d’entreprise ne soit “mis aux normes”.
Il faut donc en parallèle continuer les efforts pour rendre les SI d’entreprise intelligibles et donc maîtrisés
Les connaissances nécessaires pour redonner confiance dans les logiciels
Cela passe très certainement par une redécouverte et surtout un partage de la connaissance des structures de ces systèmes d’entreprise, connaissance qui doit être partagée avec le plus grand nombre. En introduisant un langage simple et clair autour du logiciel, l’ensemble des interlocuteurs, même les non experts, pourront mieux comprendre le fonctionnement du logiciel, et maîtriser ses caractéristiques essentielles comme ses performances ou non performances… Nous aurons néanmoins toujours besoin des experts du domaine, d’ingénieurs en logiciels capable de modifier les applications.
Mais comme pour la Business Intelligence, qui a pris de l’ampleur au cours de la dernière décennie, la « Software Intelligence » se développe rapidement pour apporter plus de visibilité sur le logiciel, même pour ceux qui ne sont pas issus du secteur. La Software Intelligence, apporte un éclairage sur des aspects du logiciel qui étaient obscurs et difficiles à comprendre. Les équipes de développement ont maintenant un aperçu en temps réel de la productivité de leurs applications, et les DSI disposent de données significatives sur les coûts et les résultats des initiatives de modernisation de leur SI. Ce nouveau mouvement brise les silos et nous permet de mieux exploiter les données sur la technologie qui est au cœur des entreprises prospères. Grâce à la Software Intelligence, le logiciel d’entreprise n’a plus rien d’un monstre et est un atout considérable pour notre succès.
Olivier Bonsignour
Executive Vice President of Product Development
CAST est le pionnier et chef de file du marché de la Software Intelligence. Sa technologie d’analyse, de mesure et de cartographie du logiciel – produit d’un investissement de plus de 120 millions d’euros -, permet à tous les acteurs de l’activité numérique de prendre des décisions éclairées, de piloter leurs équipes, de prévenir les risques logiciels, et de délivrer des applications robustes, fiables et sécurisées. Des centaines d’entreprises font confiance à CAST pour accroître la satisfaction de leurs clients et réduire coûts, délais et risques. Fondée en 1990, CAST est cotée sur NYSE-Euronext (Euronext CAS.PA) et opère en Amérique du Nord, en Europe, en Inde et en Chine.
Site web : http://www.castsoftware.com/