Lenteur de la propagation innovante en informatique
Mon ancien associé et ami, Olivier Andreau, trouvait que ça n’allait pas assez vite en informatique à son goût. Me posant régulièrement la question des signaux faibles autour de ce métier qui est devenu le mien depuis près de 35 ans, vous pourrez constater, comme moi, le décalage existant entre l’apparition d’un système, d’un logiciel, d’un matériel et son usage. Prenons quelques exemples.
Éloge de la lenteur
Windows 1.0 est apparu en 1985. Et il aura fallu 1990 et Windows 3.1 pour que le système graphique de Microsoft se répande enfin. Entre l’ARPANET de 1972 et l’intégration d’Internet Explorer dans Windows à l’automne 95 , il se sera écoulé 23 années. Pour Linux né en 1991, il aura fallu attendre les 1 milliard d’IBM de 2001 et aussi la sortie de Ubuntu en 2004, pour que le système d’exploitation Open Source prenne son envol. Nous sommes toujours contraints de maintenir des millions de lignes écrites en COBOL depuis 1959. A l’heure où la popularité se mélange avec l’usage, nous ne disposons d’aucune statistique fiable dans le domaine applicatif quant aux langages de développement utilisés. Le PHP règne en maître sur le Web et le Python serait le plus populaire. IBM a mis en œuvre la virtualisation en 1979 sur ses mainframes et elle s’est déployée au début des années 2000 sur les PC. Hyper-V sort des limbes des cerveaux embrumés des développeurs de Windows Server en 2008. LXC ouvre le bal de la conteneurisation en 2008 et Docker voit le jour 5 ans plus tard. Les conteneurs seront présents à l’état embryonnaire sur Windows Server 2016, soit 47 années après IBM. Dernier exemple : Nginx. Né en 2004, le package du reverse proxy apparaîtra en 2016 dans la version 25 de la Fedora.
Changer les mots pour réinventer le monde existant
L’informatique n’est souvent qu’une banale affaire de mode et de mots pour nous parler d’une réalité déjà existante. Les puits de données sont devenus des lacs de données avec le Big Data. Le SaaS est devenu le Cloud. Je me souviens encore de cet étudiant de l’HETIC qui m’expliquait la ringardise des bases de données relationnelles. Je lui avais alors demandé de m’installer un WordPress adossé à une base NoSQL. J’attends encore, alors que Red Hat a abandonné en 2019 MongoDB au profit de PostgreSQL, ce mammouth datant de 1985. Le NoSQL est mort et enterré ! C’était un mauvais moment à passer et les gens qui ont cru s’affranchir du relationnel ont dû retourner à leurs chères études.
Et puis, il y a tous ces effets de mode avec Docker, l’orchestration du bar metal, Python et Nginx. Dans la réalité, les entreprises utilisatrices ne conteneurisent et n’orchestrent peu ou pas. A part de très nombreux scripts présents sur GitHub, je n’ai toujours pas vu la moindre application de gestion développée en Python depuis 1991. Il n’est bien sûr pas fait pour ça. Django, un des rares CMS écrit en Python, n’est pas prêt de remplacer WordPress ! Apparu en 2004, j’attends toujours de voir dans Nginx la même richesse fonctionnelle que celle d’un Apache sorti en 1995. On ne comble pas 10 années de retard par l’opération du Saint-Esprit, même si le serveur Web russe est devenu une excellente solution en matière de reverse proxy.
Inertie et résistance au changement
L’évolution technologique dans l’informatique s’appuie sur trois éléments : la puissance de calcul qui a engendré le downsizing, la mise en réseau de l’humanité et surtout l’esprit humain à l’origine de millions voir de milliards de lignes de code. L’effectivité de la loi de Moore a permis de transformer nos téléphones en ordinateurs et nos ordinateurs, quoique toujours plus puissants, sont devenus moins énergivores et bien plus petits. Malgré les freins posés par les FAI du monde entier, les États et les collectivités se sont résolus à mettre la main à la poche pour financer le très haut débit. Le retard que nous avons pris en la matière a fait que les entreprises ont externalisé leurs données sur les serveurs américains ouverts aux grandes oreilles de la NSA pour notre plus grand malheur. Malgré les hausses de 20% pratiqués par Microsoft et Google, nos entreprises continuent d’accepter le racket permanent dont elles sont les 1ères victimes, alors que le logiciel libre permet des solutions alternatives.
La barrière principale à l’innovation en informatique, ce sont d’abord toutes ces heures payées consacrées à développer des systèmes et des logiciels, dont il est difficile de s’affranchir sur le plan économique. Il est également extrêmement difficile de faire table rase du passé ainsi que de nos usages et autres habitus numériques, sans parler des coûts de formation.
J’ai toujours eu un mal de chien à isoler du magma informationnel les signaux faibles et forts d’une innovation en devenir. Faut-il d’ailleurs parler d’innovations ou plutôt de processus de changement technologique continu ? Je regardais la liste des acquisitions des grandes entreprises du secteur numérique : GitHub en 2018, npm en 2020 par Microsoft ; Red Hat en 2019 par IBM. Pas grand chose à se mettre sous la dent du côté des opérations de croissance externe ! Quand je vois tout cet amas de logiciels et de technologies, je me demande s’il ne faudrait pas y chercher là l’innovation de demain, à l’image de ce qu’ont tenté de faire certaines laboratoires pharmaceutiques concernant l’usage d’anciennes molécules pour soigner le COVID. L’informatique est avant tout l’art de la combinatoire.
1