Intelligence artificielle : le nouvel oracle

Intelligence artificielle : le nouvel oracle

Omniprésente dans le débat public et les rencontres professionnelles, l’intelligence artificielle interroge les fonctionnalités de la vie courante et professionnelle et s’empare de plus en plus des processus d’élaboration et de décision. Elle présente à ce jour différents niveaux d’usage et de déploiement plus ou moins raisonnés et maîtrisés et, sans doute parce qu’on peine à en distinguer les limites physiques et conceptuelles, continue à faire l’objet d’un certain discours de fascination.

La notion d’intelligence artificielle n’est pas nouvelle, c’est même une vénérable dame apparue il y a soixante-dix ans. Comme souvent, une notion, un concept, un principe végète des décennies voire des siècles avant de rencontrer les conditions techniques de son avènement. Et encore, le processus n’est-il pas toujours linéaire. En 2015, une machine a pu mobiliser suffisamment de puissance de calcul pour l’emporter face au raisonnement humain lors d’une partie de go, dernier jeu de plateau où l’homme battait encore la machine. Considéré comme un tournant dans le « machine learning », c’est-à-dire le fait que les machines apprennent en se gavant de données, l’événement, qui avait eu lieu dans le plus grand secret, n’avait pas, lors de sa révélation, donné lieu à un emballement tel que celui que l’on connaît aujourd’hui autour de la question de l’intelligence artificielle.

« L’IA ne comprend rien »

C’est que depuis quelques temps, en effet, celle-ci, apparaît à la confluence de plusieurs phénomènes ainsi que le décrit Georges Nahon, ancien p.d-g d’Orange Silicon Valley à San Fransisco, aujourd’hui analyste et consultant en innovation numérique, invité en mars dernier de la Fédération du conseil et service en élevage, Eliance, à Poitiers : « plusieurs innovations concomitantes ont stimulé la croissance de l’IA : de nouvelles avancées dans les modèles mathématiques, les progrès dans les équipements et les puissances de calcul mais aussi l’émergence de données massives et de qualité suffisante ». Le succès de robots génératifs comme ChatGPT ou Midjourney, leurs progrès fulgurants, a également fait évoluer le regard du grand public sur l’IA. La ruée des starts-up sur ce filon numérique, la masse invraisemblable des levées de fond, font aussi de l’IA ce que certains pensent être une bulle comme celle qui avait accompagné la naissance du net à la fin des années 1990. Tout cela concourt à une sorte de nouveau mythe disruptif et alimente le phantasme d’une intelligence substitutive qui ferait entrer l’humanité dans une ère nouvelle d’abondance. En attendant le grand soir de l’humanité, mieux vaut-il peut être s’attarder sur que recouvre exactement cette notion d’IA et les technologies induites. L’euphorie n’est pas forcément bonne conseillère.

« L’ IA générative n’a pas de raison, ne comprends rien, ne déduit rien. Elle ne connaît pas la précision, l’exactitude, l’intention, elle ne veut rien », expose Georges Nahon. L’IA, ce sont avant tout des algorithmes à qui l’on fait lire des sommes énormes de données, des textes par exemple pour ce qui concerne les robots conversationnels, mais ce n’est pas une base de données qui détient quelque chose comme un savoir et qui pratiquerait une inférence logique entre plusieurs propositions. Il s’agit à l’inverse d’inférence statistique. « C’est une technologie qui fonctionne selon une approche probabiliste entre les mots, poursuit Georges Nahon. Un problème logique, par exemple, y est traité de façon statistique, ce n’est pas raisonné, ça ne comprend rien… C’est pourquoi l’IA peut livrer une information tellement plausible et séduisante mais tout à fait fausse ». Car l’IA a des « hallucinations ». C’est en effet le terme consacré pour désigner les égarements du système lorsqu’ils se produisent.

Le débat s’inscrit souvent autour des dangers que l’IA, en tant que pensée augmentée, ferait courir à nos facultés cognitives, à leur conditionnalité même que sont l’incertitude créatrice et le libre arbitre. Mais l’IA n’est pas un mauvais génie. C’est avant tout un champ disciplinaire où se croisent la recherche en informatique, en mathématiques, en statistique voire en sciences cognitives. La puissance des algorithmes, le fait qu’ils puissent désormais imiter le fonctionnement structurel neuronal humain (le deep learning ou apprentissage profond), laisse à penser que nous ne sommes pas encore parvenus aux limites physiques du système. L’IA n’a d’ailleurs pas de définition scientifique qui fasse consensus. Le simple terme d’intelligence artificielle, lui-même, est problématique : comment un système programmatique peut-il être intelligent ? Pour L’Organisation de coopération et de développement économiques (OCDE), un système d’IA est d’abord « un système basé sur une machine qui, pour des objectifs explicites ou implicites, déduit, à partir des informations qu’il reçoit, comment générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions, pouvant influencer les environnements physiques ou virtuels. Les différents systèmes d’IA varient dans leurs niveaux d’autonomie et d’adaptabilité après leur déploiement ».

L’IA ne se limite pas à ses versions génératives. Elle œuvre aussi dans l’ombre des besoins techniques et scientifiques spécialisés, un univers domaine où les ingénieurs agricoles apparaissent d’ailleurs aujourd’hui très en pointe, mais où l’IA est davantage perçue comme un super assistant aux missions ciblées plutôt que comme l’oracle de toute chose et de son temps. « Il faut de toute façon sortir des stéréotypes et démystifier l’intelligence artificielle, considère Vincent Lefer, ingénieur datascientist à Eliance, fédération des entreprises de conseil et service en élevage où les systèmes d’IA interviennent fréquemment et à des degrés divers dans la mise au point d’outils auxiliaires à destination des éleveurs, de leurs conseillers, des ingénieurs ou des chercheurs. Il y a nécessairement quelque chose de conditionné dans l’IA, c’est-à-dire basé sur des données orientées à la source… L’ IA a des limites », poursuit Vincent Lefer. Et ces limites pourraient bien être celles aussi, physiques, des infrastructures gigantesques nécessaires au stockage de données et aux calculs, celle de la matière première minérale extractible…

Dans l’univers agricole, de nombreux projets sont en cours d’étude dont le propre est de s’inscrire dans des besoins définis afin d’améliorer les processus d’élevage, qu’il s’agisse de sélection, de reproduction, de santé, de production ou encore d’adaptation à l’environnement (stress climatique notamment). Le point commun à tous ces projets est souvent la notion de prédiction. Anticiper le bon animal, ses performances, sa santé, sa production, etc. On ne fait pas de l’IA pour faire de l’IA. Dans quelle mesure la puissance de calcul de ces systèmes d’IAI appliquée aux bases de données agricoles peut-elle inférer des réponses et des solutions concrètement utiles aux éleveurs ? Voilà qui reste la mesure de toute chose. « L’important est de bien déterminer quels sont les besoins dans un contexte d’intégration technologique, explique Faycal Rezgui, directeur et co-fondateur de Cynapps, entreprise spécialisée dans l’expertise des solutions d’IA, et qui intervenait, en effet, jeudi 7 mars dans le cadre de l’assemblée générale de la Fédération du conseil et service en élevage de ruminants Eliance, à Poitiers. C’est toujours l’humain qui, certes se fait aider par l’IA, mais reste au centre. Ce qui est différent d’un système où l’on placerait l’IA au commencement de tout en essayant ensuite de faire qu’il en sorte quelque chose ».

Facebook
Twitter
LinkedIn