“People, ideas, machines- in that order”
La guerre du Vietnam fut la première guerre conçue et menée par des technologies et des méthodes issues du monde de la grande entreprise. Président du constructeur automobile Ford, le secrétaire d’état à la défense, Robert McNamara mit un point d’honneur à « moderniser » et à « rationaliser » le Pentagone ainsi que la conduite de la guerre.
La légende raconte que McNamara fit entrer dans un supercalculateur toutes les données du conflit : hommes, matériel, forces ennemies, munitions, litres de carburant, pertes civiles puis il demanda à l’ordinateur de calculer l’issue de la guerre. Pendant plusieurs semaines, l’ordinateur moulina les données et un soir, un militaire informa McNamara que l’ordinateur était prêt à donner sa réponse.
«Alors, quel est le résultat? » , demanda le secrétaire d’État à la défense.
« Selon mes calculs, vous avez gagné la guerre il y a deux ans », répondit l’ordinateur…
Aujourd’hui, les entreprises et les gouvernements ne jurent plus que par l’IA et le Big Data.
Pour eux, ces technologies sont les clés de la future suprématie économique, technologie et militaire.
Passons sur le fait que personne n’explique jamais comment, dans un contexte d’épuisement des terres rares nécessaires à la construction de leurs composants électroniques, ces technologies peuvent être pérennes. Au-delà des limites physiques qui finiront par ramener tout le monde à la raison, il faut rappeler que cette croyance en la panacée technologique procède du même aveuglement qui conduisit les États-Unis à la défaite au Vietnam en dépit d’une suprématie technologique et militaire écrasante.
En effet, tout système d’information, d’aide à la décision ou de collecte de données repose toujours sur les limites suivantes :
1-Aussi perfectionné soit-il, un système informatique ne sait pour l’instant que répondre aux questions qui lui ont été posées et traiter les données qui lui ont été communiquées. Si les questions sont mal posées ou les data sets de qualité médiocre ou incomplets, les résultats ne seront jamais pertinents. Dans de nombreux cas, ceux qui utilisent de tels systèmes, dans le monde de l’entreprise ou en politique, possèdent une connaissance très insuffisante, voire inexistante des systèmes d’information, de la statistique et de l’exploitation de données, sans parler de la confiance aveugle dans des modèles “prédictifs” qui n’ont souvent de scientifique que le nom car ils ignorent les processus non-linéaires ainsi que les effets de second et troisième ordre.
2- Comme je l’ai expliqué dans un précédent article, la variable clé n’est pas la quantité de données mais la qualité et la pertinence de ces dernières, ce que j’ai appelé la « densité informationnelle ». Avec le Big Data, il existe un grand risque de noyer l’information critique au milieu d’un océan de données parasites, conduisant le plus souvent à créer une couche supplémentaire de systèmes d’information pour faire le tri. Sur ce point, il a d’ailleurs été prouvé à de nombreuses reprises, par exemple par Paul Slovic ou Stuart Oskamp que l’augmentation de la quantité de données disponibles ne conduit pas à augmenter la qualité de la prise de décision mais plutôt à la diminuer. Enfin, l’accès rapide à une telle masse de donnée peut conduire à de l’arrogance et à une baisse de vigilance, l’utilisateur pensant avoir toutes les cartes en main alors qu’il lui manque en réalité l’information critique. Comme l’écrivait Charles de Gaulle, dans La France et son armée : “l’excès de technique obscurcit la vision des ensembles”
3- Le Big data et l’IA demeurent avant tout des outils d’aide à la prise de décision. Si les êtres humains en bout de chaîne ne sont pas formés pour exploiter l’information recueillie ou si les organisations auxquels ils appartiennent ne peuvent pas agir sur les résultats de l’analyse pour des raisons politiques ou autres, toute cette collecte sophistiquée d’information se trouve réalisée en pure perte.
La lutte contre le terrorisme islamique offre un parfait exemple des limites du Big Data. Il est indéniable, qu’au-delà des questions politiques sur la protection de la vie privée et le pouvoir donné au gouvernement, ces technologies ont permis d’éviter des attentats et d’arrêter des criminels. Ceci étant dit, malgré la débauche de moyens déployés, il faudra aux États-Unis plus d’une dizaine d’années pour mettre la main sur Ben-Laden et sa localisation sera due à une information donnée par une source humaine et à l’opiniâtreté d’un agent de la CIA. Récemment, en France, l’attentat de la préfecture de Paris a mis en évidence des dysfonctionnements, comble du comble, au sein d’un service de renseignement : non-traités par la hiérarchie, les signaux d’alerte n’avaient pas été entrés dans le système. De la même manière, le mouvement des Gilets Jaunes de 2018 prit totalement de court les services de renseignement français en dépit de signes avant-coureurs identifiés de longue date par des journalistes, des écrivains ou des sociologues.
En réalité, il serait beaucoup plus sain de développer un profond scepticisme à l’égard du Big Data et de l’IA. Au lieu d’être des accélérateurs de connaissance, ces technologies contribuent souvent à la baisse de la qualité de la prise de décision. Elles permettent en effet de dissimuler le faible niveau de compétences des décideurs derrière le paravent de la technologie et de camoufler les limites de ces outils sous un vernis mathématique et statistique censé être le garant de leur scientificité.
Plutôt que d’investir dans la technologie, il est en réalité toujours plus payant d’investir dans l’humain et dans sa formation car au final, c’est toujours lui qui se trouve en bout de chaîne.
Au lieu de décupler les capacités des hommes, la technologie rend souvent ces derniers paresseux et diminue leurs seuils d’exigence ainsi que leurs compétences pratiques. Plutôt qu’apprendre à lire une carte, de mémoriser le nom des rues ou de planifier un itinéraire, on s’en remet à un GPS. Plutôt que de mémoriser des informations importantes, on s’en remet à Wikipédia ou à une base de données. Et quand l’outil n’est plus disponible ou dysfonctionne, c’est la catastrophe car les connaissances et les compétences ne se trouvent plus dans le cerveau humain, elles ont été externalisées chez la machine.
Notre époque a oublié que le cerveau humain est le plus puissant supercalculateur jamais inventé et que ces capacités ont été affinées et perfectionnées par de milliards d’années d’évolution, le plus éprouvant et rigoureux stress test qui soit. Quand il est bien entraîné, le cerveau humain sait établir des connexions, détecter des patterns, faire le tri entre différents sources et niveaux d’information, bien plus rapidement que n’importe quelle machine. Ce qu’il perd en capacité brute de traitement, il le rattrape largement avec ses heuristiques, ces raccourcis mentaux qui nous frappent parfois comme des fulgurances. De plus, les systèmes d’information sont souvent rigides et ce d’autant plus quand ils se trouvent intégrés dans des organisations hiérarchiques. Dans de telles structures, l’accès rapide à l’information n’est pas toujours possible où se retrouve bloqué par les niveaux d’accès, les procédures et les rivalités internes.
De plus, ces systèmes d’information, très coûteux à mettre en place et dont la question de la vulnérabilité se trouve toujours posée, peuvent être difficilement modifiés ou adaptés selon les circonstances et les besoins. Plutôt que rendre une organisation agile, souvent ils la figent et génèrent ce que les économistes appellent des externalités négatives dont les coûts sont rarement évalués et intégrés au calcul d’ensemble. Il ne s’agit pas de rejeter l’IA et le Big Data mais de les considérer non pas comme la pierre angulaire des systèmes d’information modernes mais plutôt comme des outils annexes devant être utilisés de façon limitée et ponctuelle.
Malheureusement, faute de formation et de compréhension des limites de l’outil, il est aujourd’hui toujours plus porteur d’affirmer que l’on prépare l’avenir en investissant X milliards dans l’IA et le Big data plutôt que d’annoncer que l’on va recruter des hommes et les former correctement. Récemment, une connaissance me raconta comment dans les années 80, un de ses amis, passant le concours pour devenir douanier, fut interpellé par deux officiers des Renseignements Généraux (RG) à la sortie de l’épreuve sportive. Ces derniers lui montrèrent des polaroids pris dix ans plus tôt lors d’une manifestation de soutien au président chilien Allende. François Mitterrand étant au pouvoir, les agents indiquèrent au candidat qu’il ne serait pas inquiété. Mais le message était passé.
Avec les moyens de l’époque, les RG parvinrent à identifier un homme sur la base de polaroids pris dans une manifestation comptant des dizaines de milliers de personnes et faire le lien avec un candidat passant le concours des douanes plus de dix ans plus tard. Aujourd’hui, malgré les technologies à leur disposition, les services de renseignement ont du mal à suivre les djihadistes potentiels faute d’effectifs, de contacts sur le terrain et surtout de décisions politiques permettant d’en réduire la masse.
En 2008, le président Nicolas Sarkozy supprima de fait les renseignements généraux pour les faire fusionner avec la DST donnant ainsi naissance à la DCRI. Selon un grand nombre de spécialistes, cette réforme conduisit à une perte d’information, de capacité d’action et de savoir-faire au sein du renseignement français que la France paie encore aujourd’hui.
En 2016, la DGSI fit appel à la société américaine « Palantir », spécialisée dans le Big data, confiant ainsi l’accès aux données les plus sensibles du renseignement français à une entreprise américaine proche de la CIA et des services américains.
En réalité, le Big data et l’IA, au-delà des opportunités lucratives qu’elles offrent à certaines entreprises, participent à cette croyance moderne irraisonnée dans le progrès technologique et à la confusion entre la science (la connaissance réelle, la capacité à agir efficacement sur le monde) et le scientisme ( la profusion de données et de “modèles” qui intègrent rarement la possibilité d’un Black Swan).
Au delà de ces questions épistémiques, ces technologies viennent en réalité apporter une réponse technique à un problème économique et social. Dans un contexte de raréfaction énergétique et de contraction économique, les entreprises et les organisations cherchent à réduire la masse des travailleurs humains au maximum et à remplacer les employés par des machines. Cette tendance qui concernait dans un premier temps les travailleurs les moins qualifiés est en train d’affecter peu à peu les emplois intermédiaires ainsi que certaines professions spécialisées.
Quel avenir et quel projet politique pour des sociétés où le travail et la richesse risquent de finir concentrées entre les mains d’une “élite” ultra-qualifiée assistée par de plus en plus nombreuses machines ? A coup sûr, certains intellectuels-mais-idiots suggéreront de se tourner vers l’ IA pour obtenir une réponse à cette épineuse question.