Plan de l'article |
Auteure |
KOLEVA Anna |
Citer l'article |
Koleva, A. (2024). L’ontologie de l’IA générative en question(s) : essence et sens. Revue Intelligibilité du numérique, 6|2024. [En ligne] |
Résumé : L’intelligence artificielle générative (IAg) n’est pas considérée comme une révolution numérique. Pourtant, nous ne pouvons faire fi de la place grandissante que cette technique occupe dans l’environnement info-communicationnel de nos sociétés contemporaines. Le concept — polysémique et protéiforme — revêt des valeurs et des sens multiples selon les discours, les usages et les contextes. Et si l’intelligence artificielle générative ne révolutionne pas le numérique, elle semble néanmoins bouleverser les usages, les pratiques et l’acte de percevoir ; et ce faisant, elle révolutionne notre expérience du monde. Partant de ce postulat, cet article propose une exploration ontologique du concept d’IAg — comprendre son essence, pour tenter de saisir ce qui est en jeu. À cet égard, nous reviendrons sur les différentes acceptions du concept d’IAg, puis nous questionnerons la notion d'intelligence, la question des possibles et du processus « idéation-corporisation », la question de l’agentivité, de l’altérité et du glissement anthropomorphique, pour terminer avec la question des interactions Homme-Machine et l’utilisation du langage naturel. Sans tomber dans les sophismes approximatifs d’une fascination béate ou d’un alarmisme irraisonné, nous tenterons de répondre à la question centrale : « De quelles phénoménologies l’intelligence artificielle générative est-elle le déclencheur ? »
Mots-clés : intelligence artificielle générative, idéation-corporisation, hypergenèse et hypogenèse idéatives, médium algorithmique, artefact numérique, altérité, anthropomorphisme, interactions Homme-Machine.
Title: The Ontology of Generative AI in Question(s): Essence and Meaning
Abstract: Artificial generative intelligence (AIg) is not considered a digital revolution. Yet we can't ignore the growing place this technique occupies in the info-communication environment of our contemporary societies. The concept - polysemous and protean - takes on multiple values and meanings, depending on the discourse, usage and context. And while generative artificial intelligence may not be revolutionizing the digital world, it does seem to be overturning uses, practices and the act of perceiving; in so doing, it is revolutionizing our experience of the world. Starting from this premise, this article proposes an ontological exploration of the concept of Gen AI - understanding its essence, in an attempt to grasp what is at stake. In this respect, we will review the different meanings of the concept of Gen AI, then question the notion of intelligence, the question of possibilities and the “ideation-corporization” process, the question of agentivity, otherness and the anthropomorphic shift, to end with the question of Human-Machine interactions using natural language. Without falling into the approximate sophisms of blissful fascination or unreasoning alarmism, we will attempt to answer the central question: “What is generative artificial intelligence a phenomenon of?”
Keywords: generative artificial intelligence, ideation-corporization, hypergenesis and hypogenesis of ideation, algorithmic medium, digital artifact, alterity, anthropomorphism, human-machine interactions.
Introduction
L’intelligence artificielle est non seulement en phase de devenir « la technologie clé de l’avenir », mais aussi un « élément central de la transition numérique de la société et une priorité pour l’UE », tant ses « applications devraient mener à d’énormes changements dans notre quotidien », annonce le Parlement européen[1]. Un postulat qui tend à se confirmer, puisque deux ans après le lancement sensationnel de ChatGPT, l’usage de l’intelligence artificielle générative (IAg) se démocratise et s’étend à toutes les strates de nos sociétés numériques[2]. Des très petites entreprises aux grandes industries, de l’enseignement à agriculture, aucun secteur ne semble échapper à la déferlante IAg et à la profusion de contenus pluriels qu’elle génère.
L’intelligence artificielle générative nous propulserait-elle vers une nouvelle révolution ? Pas nécessairement, puisque l’humanité vit déjà sa 4e révolution industrielle désignée par le passage à des systèmes de production intelligents utilisant des équipements connectés, des réseaux numériques et de l’intelligence artificielle. (Commission de la science et de la technique au service du développement, 2022). L’avènement de l’intelligence artificielle générative, aussi spectaculaire soit-il, n’est qu’une évolution sans rupture majeure, qui s’inscrit dans la continuité de la révolution numérique. On l’assimile davantage à l’ajout « d’une brique technologique transversale qui interconnecte et synchronise les différents systèmes de production les uns avec les autres » (D. Kohler & Weisz, 2016). Une brique qui « invente un nouveau langage entre les machines, entre les hommes et les machines, entre les produits, entre les services et les machines », notent les auteurs.
De quoi parle-t-on ? Quel est ce nouveau langage qui s’invente entre les hommes et les machines ? Si l’IA générative est « un couplage particulier du matériel et du logiciel qui nous forme à penser différemment, à transformer nos manières de raisonner », comme le précise Dominique Boullier (Boivin et al., 2024), on comprend aisément la nécessité à examiner la nature de cette nouvelle technique qu’est l’IAg pour comprendre ce qui est en jeu.
Au-delà des aspects éthiques et réglementaires, nous proposons ici une exploration ontologique autour du concept d’Intelligence artificielle générative (IAg) : questionner sa nature, ses propriétés intrinsèques d’être numérique, telles que l’existence, la possibilité, le devenir ; examiner son essence pour donner un sens intelligible à ce qu’elle transmute dans notre rapport au monde et dans les interactions Homme-Machine qui en découlent.
En premier lieu, nous tenterons d’apporter un éclairage sur la question de la notion de l’IAg : comment distinguer l’IA générative dans la multitude de modèles d’intelligence artificielle ? Comment comprendre son niveau d’artificialité et son « intelligence » par rapport à l’homme ? Une telle comparaison, est-elle sensée ?
En deuxième lieu, nous proposons d’explorer la question des possibles offerts par l’IAg en sa qualité de technique. Comment s’exprime l’idéation humaine à l’heure de l’intelligence artificielle générative ? Comment le caractère « génératif » de l’IA vient-il moduler la manière dont les humains produisent des idées et des contenus ? Quelle est l’« aura phénoménologique » dégagée par l’IAg et comment envisager son « autruiphanie numérique » ? Nous mobiliserons à cet effet les travaux de Bruno Bachimont et de Stéphane Vial.
En troisième lieu, nous questionnerons les (re)configurations des rapports entre acteurs sociaux et agents artificiels face aux perspectives offertes par l’IA générative : le possible glissement vers une assimilation anthropomorphique, mais aussi l’hétérogénéité et l’asymétrie des rapports Homme-Machine observés.
Le périmètre d’exploration proposé est certes vaste, mais essentiel pour cerner le caractère que l’intelligence artificielle générative revêt dans nos sociétés contemporaines. À travers les différents questionnements sur son essence, nous visons à identifier des clés de compréhension des possibles effets de sens dans notre capacité idéative, dans notre rapport aux êtres numériques, dans les configurations Homme-Machine et les hypothétiques « liaisons dangereuses »[3], pour in fine appréhender la place que l’IAg tend à occuper dans notre expérience perceptive du monde.
Comprendre le phénomène de l’intelligence artificielle
La question de la définition de l’intelligence d’artificielle
Qu’est-ce que l’intelligence artificielle (IA) en 2024 ? Le nom « intelligence artificielle » n’est pas déposé à l’INPI (Institut National de la Propriété Intellectuelle) pas plus qu’il ne fait l’objet d’un quelconque copyright©. Le concept, longtemps demeuré l’apanage d’experts et chercheurs scientifiques, est désormais vulgarisé auprès du grand public. Pour autant, la notion d’intelligence artificielle est-elle réellement comprise ? Que se cache derrière ce terme « valise » ?
Des définitions plus ou moins complexes circulent en abondance sur les ondes et sur le net, et saturent l’espace médiatique. L’intelligence artificielle pose un vrai problème de terminologie, prévient Daniel Andler, puisque que le terme désigne à la fois « un objet qu’on cherche à créer, un système doté d’une certaine propreté, la discipline, et plus largement l’institution qui se donne pour but de concevoir, c’est-à-dire de caractériser et de construire cet objet. » (Andler, 2023, p. 22)
L’expression « intelligence artificielle » est évoquée pour la première fois en 1956, lors d’une conférence au Dartmouth College, aux États-Unis. Elle a été proposée par deux Américains considérés comme les principaux pionniers de l’IA : John McCarthy (1927-2011), mathématicien et informaticien, et Marvin Minsky (1927-2016), spécialiste de la discipline IA et des sciences cognitives. Ce terme est alors employé pour désigner « les sciences et technologies qui permettent d’imiter, d’étendre et/ou d’augmenter l’intelligence humaine avec des machines ». (Pallanca & Read, 2021)
Peut-être l’une des définitions les plus aisées à appréhender serait celle proposée par le Parlement européen qui désigne l’IA comme « la possibilité pour une machine de reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité [4]». Yan LeCun (prix Turing 2018), précise quant à lui que l’IA c’est « la capacité des machines à prendre des décisions et à adopter des comportements attribués généralement à des humains ou à des animaux, mais avec un moindre niveau de performance ». (LeCun, 2017)
Le fantasme de la création d’une machine qui imiterait ou serait semblable à l’homme remonte aux temps anciens. Cette idée serait présente déjà dans les textes de Homère, notamment à travers les fabrications du dieu Héphaïstos censées offrir aux hommes un monde sans travail. Ainsi les Olympiens pouvaient vivre une vie sans effort ni contrainte, où des « créatures artificielles remplacent en quelque sorte les esclaves des sociétés humaines en se chargeant des travaux les plus répétitifs et les plus pénibles, des tâches les plus rébarbatives. » (Leveau-Vallier, 2023). N’est-ce pas ce que nous promet l’IA aujourd’hui ?
La question des intelligences artificielles multiples
La tentative d’établir une seule et unique définition de l’intelligence artificielle se heurte à la pluralité de ses propriétés intrinsèques, d’autant que les multiples qualificatifs associés à l’IA rendent compte de la complexité du concept et ne favorisent pas toujours sa compréhension. L’intelligence artificielle est dite tantôt symbolique, connexionniste, forte, faible, globale, générative… À moins d’être un expert du domaine, il est fort probable que nombre d’utilisateurs des IA présentes dans les ordinateurs, smartphones et autres dispositifs numériques confondent ou ignorent la différence entre ces notions.
L’IA forte — devenir l’égal de l’Homme
Une IA forte ou IA générale serait dotée d’esprit, de sensibilité et de conscience, notamment la conscience de soi. Cette IA aurait la capacité non seulement de comprendre et d’apprendre, mais serait en mesure d’utiliser ses compétences à bon escient et selon les situations, à l’instar de l’Homme dont elle serait en quelque sorte l’égale. « Si le calculateur projette son propre monde, c’est aussi parce qu’il a pour ambition de contenir lui-même son propre horizon. C’est en ce sens que cette IA a pu se revendiquer comme forte », explique Dominique Cardon. (Cardon et al., 2018)
Adaptabilité, planification, contextualisation, raisonnement, voici un panel de compétences que l’IA forte est supposée posséder et manier avec justesse. Une telle IA est-elle souhaitable ? À ce jour, l’IA forte relève encore de la science-fiction. Les meilleurs exemples pour l’illustrer nous parviennent des grandes productions cinématographiques, à l’instar de R2-D2, le robot de Star Wars, ou encore JARVIS, l’IA d’Ironman. Si l’IA forte n’est pas encore atteinte, elle reste un objectif à long terme de la recherche en IA.
L’IA symbolique — savoir raisonner et manier les symboles
Pour comprendre les autres modèles d’IA, il faut opérer un retour dans les années 1950. À cette époque, deux courants majeurs d’IA se développent et entrent en concurrence : l’école des connexionnistes et l’école symbolique. Les adeptes de l’IA symbolique se focalisent sur la reconstitution de l’enchaînement logique des raisonnements. Cette approche symbolique constitue le cadre de référence initial de l’IA, porté par ses pionniers John McCarthy et Marvin Minsky (1956) qui prennent appui sur le cognitivisme orthodoxe, une approche qui stipule que « penser, c’est calculer des symboles qui ont à la fois une réalité matérielle et une valeur sémantique de représentation ». (Cardon et al., 2018).
Il s’agit dès lors de découvrir et de modéliser les règles permettant à la machine de raisonner de manière juste et d’établir des relations logiques entre des propositions unitaires. Voici un exemple simple qui illustre une relation logique : « on est en hiver, alors il fait froid dehors ». (A. Kohler, 2020). C’est précisément sur cette intelligence artificielle symbolique que sont développées des applications telles que les systèmes experts, les ontologies, le web sémantique, le calcul symbolique…
L’IA connexionniste — s’inspirer des neurones humains
Cette IA vise à reproduire le fonctionnement du cerveau par des machines apprenantes. Les connexionnistes s’intéressent « aux réseaux de neurones qui fournissent un mécanisme perceptif indépendant des intentions et de la logique formelle du programmateur » (Pallanca & Read, 2021).
La naissance du connexionnisme est liée aux recherches menées par les scientifiques américains Warren McCulloch et Walter Pitts. Dans leur article « A logical calculus of the ideas immanent in nervous activity », publié en 1943, ils annoncent déjà les potentialités computationnelles des neurones artificiels s’ils étaient mis en réseau. (Saporta, 2018).
S’inspirant de leurs travaux, l’américain John von Neumann, conçoit l’un des tout premiers ordinateurs électroniques en 1949. Nommé EDVAC (Electronic Discrete Variable Automatic Computer), c’est un mastodonte de 7,85 tonnes qui occupe une surface de 45,5 m2. Presque dix ans après, en 1958, Frank Rosenblatt invente le Perceptron — la première « machine à apprendre », conçue selon les principes des réseaux multicouches comportant un algorithme d’apprentissage.
Après des débuts prometteurs, les progrès du courant connexionniste manquent de décoller, conduisant au désintérêt général des acteurs et à la baisse significative des subventions essentielles à son essor. En démontrant que les machines de type perceptron sont limitées du fait de leur linéarité, Seymour Papert et Marvin Minsky font entrer l’IA connexionniste dans une période peu productive (années 1970), connue sous le nom de premier « hiver de l’IA ». Cette crise n’épargne pas non plus le courant symbolique.
La demande en puissance de calcul et en données conduit au deuxième hiver de l’IA ; il se terminera avec la disponibilité de données massives et de puissance, grâce notamment au processeur graphique (GPU) – un circuit électronique capable d’effectuer des calculs mathématiques à grande vitesse.
Le retour en grâce de l’IA connexionniste se produira à partir des années 2000, grâce à l’augmentation de la puissance de calcul, puis le développement des méthodes de deep learning[5]. Dominique Cardon (2018) analyse cette revanche par la formule suivante :
« Alors que les concepteurs des machines symboliques cherchaient à insérer dans le calculateur et le monde et l’horizon, la réussite actuelle des machines connexionnistes tient au fait que de façon presque opposée, ceux qui les fabriquent vident le calculateur pour que le monde se donne à lui-même son propre horizon. »
L’IA faible — réaliser des tâches spécialisées
Cette IA est conçue pour répondre à des tâches spécifiques, mais elle est souvent confondue avec l’IA connexionniste. Or l’IA connexionniste n’est pas une IA faible en général. À ses débuts, elle était même forte, dans la mesure où elle revendiquait non seulement la pertinence cognitive, mais aussi biologique. Elle devait permettre d’obtenir une intelligence de synthèse de même type que l’intelligence humaine (puisque semblable dans son substrat biologique), alors que l’IA symbolique revendiquait, dans ses versions fortes, une intelligence potentiellement différente de celle des humains, souligne Bruno Bachimont.
L’IA faible est basée sur un ensemble de règles et d’algorithmes, elle n’a pas de compréhension, se concentrant spécifiquement sur la tâche à effectuer ; Siri ou Alexia sont des exemples parfaits pour illustrer cette IA. La confusion avec les connexionnistes provient du fait que les systèmes d’IA faible peuvent recourir à l’hybridation de différentes techniques, dont les réseaux de neurones — modèle connexionniste par excellence.
L’IA générative — générer des contenus
C’est précisément l’intelligence artificielle dite générative (IAg) qui a propulsé de manière spectaculaire l’IA dans nos quotidiens numériques. Mais comment comprendre ce terme ? À quelle notion fait-il référence ? Jean-Gabriel Ganascia (2024) nous propose la définition suivante :
« On appelle Intelligence artificielle générative la branche de l’IA spécialisée dans la création de contenus. » On peut compléter en ajoutant qu’il s’agit « des outils multitâches, multimodaux (texte, parole, son et image) et multilingues qui peuvent produire des contenus (texte, vidéo) à partir d’une demande ou question. » (Devillers, 2024)
Les contenus sont donc au cœur de l’IA générative. Par « générer des contenus » on entend donc la capacité de l’IAg à générer de nouvelles données comme des images, des sons, des textes, des vidéos…, sur un simple « prompt » (instruction donnée à la machine par l’homme), le tout en utilisant des algorithmes de machine learning[6] boostés par le big data, et des capacités de calcul ultra performantes. Alban Leveau-Vallier (2023) complète ces définitions et propose de comprendre l’IA générative comme :
« L’encodage d’une collection d’exemples dans un espace multidimensionnel qui permet de produire des esquisses de forme (textes, images, sons…), de les moduler en changeant leurs caractéristiques globales (éclairage, style) ou locales, en transférant les caractéristiques d’une forme à une autre, où en les « étirant » (compléter un texte, outpainting[7]…).
Mais d’autres auteurs signalent un problème terminologique sur le concept d’Intelligence artificielle générative, de sorte que la notion ne peut offrir une définition universellement acceptée, ce qui peut potentiellement conduire à des mécompréhensions et des malentendus. Des chercheurs de l’université de Salamanca ont analysé 631 articles dans la période de janvier 2019 à mai 2023, pour tenter de comprendre et de caractériser le paysage de l’intelligence artificielle générative. Les résultats de leur étude suggèrent une
« dichotomie dans la compréhension et l’application du terme IA générative. Le grand public interprète souvent l’IA générative en tant que création de contenu tangible basé sur l’IA, tandis que la communauté de chercheurs en IA en discute principalement les implémentations génératives, en mettant l’accent sur les modèles utilisés, sans catégoriser explicitement leur travail sous le terme d’IA générative ». (García-Peñalvo & Vázquez-Ingelmo, 2023).
Ainsi, les auteurs de cette étude pointent le fait que l’intelligence artificielle générative est souvent appréhendée, côté chercheurs, par les techniques qu’elle mobilise (GAN[8], Réseau Encodeur-décodeur[9], Transformers[10]…), mais on peut tout autant évoquer les processus de génération par conversion auxquels elle fait appel (data-to-text, text-to-image, image-to-image…). Le grand public, quant à lui, entend l’IAg surtout par le contenu qu’elle génère : texte, image, son, vidéo…
Oui, le concept d’intelligence artificielle générative est bel et bien protéiforme et polysémique, tant les définitions qui sont proposées renvoient à des réalités diverses de ses manifestations multiples. Pour pallier la difficulté notionnelle qui entoure le concept, nous proposons d’appréhender l’écosystème de l’intelligence artificielle générative à travers la métaphore de la forêt digitale et ses trois strates essentielles :
- La Canopée — la strate la plus haute et la plus visible. Elle représente les contenusgénérés par les outils d’IAg. Cette strate est la plus exposée, elle a la part belle et capte l’attention des médias, des organisations et du grand public.
- Le Sous-Bois — la strate du milieu. Elle représente les processus de génération par conversion. Cette strate s’adresse à un public plus averti.
- Le Parterre — la strate la moins visible, celle de l’enracinement. Elle représente les techniques d’IA générative. Cette strate s’adresse à un public d’experts scientifiques, développeurs, informaticiens et ingénieurs.
Figure 1 : Écosystème de l’IAg — la Forêt digitale IAg et ses strates (Création originale : A.Koleva)
Les diverses strates de la « Forêt digitale de l’IAg » sont emmenées à s’enrichir de nouveaux éléments constitutifs au rythme effréné des progrès technologiques. Le développement rapide des techniques (strate Parterre) engendre de nouveaux procédés et outils de génération (strate Sous-Bois), qui créent à leur tour de nouveaux contenus et des combinaisons inédites de contenus divers (strate Canopée).
La question de la notion d’« intelligence » appliquée à la machine
Qu’est-ce que l’intelligence ?
Pour répondre à cette interrogation, il conviendra d’abord de s’attarder sur le concept même d’« intelligence », afin de tenter d’apporter une définition située. Du point de vue de l’étymologie, l’origine du terme est latine. Composé du préfixe inter (« entre ») et du verbe lĕgĕre (« cueillir, choisir, lire »), le mot intellegentia signifiait « action de discerner, de comprendre », explique Charles Tijus. On appréhenderait donc l’intelligence comme étant « l’action de faire le bon choix en comparant entre des alternatives et en sachant pourquoi. » (Tijus, 2024)
Mais le concept d’intelligence n’est pas aisé à cerner, tant il convoque des disciplines transversales. Daniel Andler, précise que la notion est devenue « une spécialité académique à la frontière de la psychologie, des sciences de l’éducation, et des sciences cognitives ». Si l’on ajoute les spécialistes de l’IA qui s’emparent régulièrement du concept, ce n’est pas moins de soixante-dix définitions qui sont proposées pour tenter de « saisir » ce qu’est l’intelligence. L’une d’elles semble faire consensus et s’exprime dans les termes suivants : « l’intelligence est la capacité de raisonner, de faire des plans, de résoudre des problèmes, de développer une pensée abstraite, de saisir des idées complexes, d’apprendre rapidement, et de tirer profit de l’expérience. » (Andler, 2023, p. 251)
Les multiples concurrences associées au mot « intelligence » rendent compte du caractère polysémique de la notion : on parlera de l’intelligence du cœur, du jeu, du récit, de la situation, mais aussi d’intelligence sensorielle, émotionnelle, économique, animale…
La pluralité de la notion constitue l’essence même de la théorie des intelligences multiples développée par Howard Gardner. Il dresse la liste (qu’il définit lui-même comme non exhaustive et provisoire) des sept intelligences — logico-mathématique, linguistique, spatiale, musicale, kinesthésique, interpersonnelle et intrapersonnelle —, spécifiant que « la plupart d’entre nous combinent leurs intelligences pour résoudre les problèmes et répondre aux besoins de notre culture, par le biais de choix spirituels, professionnels ou autres. » (Gardner, 2008). Mais comment, compte tenu de cette nature polymorphe, synthétiser l’essence de l’intelligence humaine et en extraire sa singularité ?
Jean-François Richard (2024) apporte un éclairage complémentaire sur ce qui distinguerait l’homme au regard des autres êtres : « l’intelligence représente la fonction par laquelle l’homme a essayé de se définir dans l’échelle des êtres, c’est-à-dire de se situer par rapport à son inférieur, l’animal, et par rapport à son supérieur, la divinité. » Ainsi, la notion d’intelligence pointerait une fonction spécifiquement humaine.
L’ère de l’IA bouscule les représentations de l’intelligence, concept que l’on ne cesse d’interroger et de (re)définir. L’intelligence humaine peut se caractériser comme « la capacité de répondre de manière pertinente à une situation pour laquelle on n’a pas été programmé ou déterminé », note Bruno Bachimont, précisant également que « l’IA connexionniste est conçue pour traiter des problèmes non prévus dans le cadre d’une classe de problèmes quant-à-elle prévue ou apprise à partir du choix des données ». Cette analogie permet-elle de créditer la machine d’une forme d’intelligence, ou s’agit-il davantage d’une simulation sophistiquée d’intellect humain ?
L’IA est-elle intelligente ?
Pouvons-nous réellement parler d’intelligence se référant à une machine ? Ce terme n’est-il pas exclusivement réservé à l’humain ? Les auteurs du manuel ouvert — IA pour les enseignants — précisent que « de nombreux experts contestent l’utilisation du mot intelligence — l’intelligence artificielle n’a aucune ressemblance avec l’intelligence humaine ! » (De la Higuera & Iyer, 2024)
Pour aborder la nature spécifique de l’intelligence dite artificielle, Jean-François Richard propose de la considérer à travers sa capacité à élaborer « des procédures automatiques de recherche de solution pour diverses classes de problèmes, dont la résolution s’effectue moyennant des programmes exécutables par les ordinateurs ». (Richard, 2024) L’intelligence artificielle pourrait donc s’entendre comme étant les compétences computationnelles de la machine, dédiées à la résolution de problèmes.
Cette idée est portée encore plus loin dans la définition proposée par Alexandre Gefen :
« L’intelligence artificielle est l’ensemble de méthodes mathématiques et de technologies informatiques destinées à résoudre des problèmes ordinairement traités par l’esprit humain, de l’accompagnement des tâches humaines (les outils numériques), à « la substitution à l’humain (c’est l’horizon d’une IA générale capable de produire des raisonnements) » (Gefen, 2022)
Et si les experts s’accordent pour dire qu’une IA générale qui serait égale à celle de l’homme est impossible à l’heure actuelle, des auteurs pointent les évolutions récentes qui font que l’intelligence artificielle ne se cantonne pas à la seule résolution de problèmes. Désormais, l’IA « produit, à une échelle industrielle, des objets nouveaux : textes, dialogues, images, scénarios, chansons, modèles de protéines, molécules chimiques… Elle est devenue « générative » (Andler, 2023). Pour autant, est-elle intelligente ?
Sur la pertinence de la comparaison des intelligences (humaines et artificielles)
Indéniablement une création de l’intelligence humaine, l’intelligence artificielle est à la fois technique, outil et milieu, qui manipule et recombine des connaissances, traces et savoirs humains, au moyen de puissants processus calculatoires. Partant du postulat que l’IA est issue et se nourrit de l’intellect humain, nous pouvons nous interroger s’il ne s’agit pas en réalité d’une nouvelle forme de compétence cognitive humaine — l’IA comme une intelligence humaine exogène (externe à l’organisme humain), sorte de fonction support qui permettrait de stimuler et d’améliorer les multiples capacités et aptitudes humaines (langagière, mathématico-logique, musicale…). Une huitième intelligence pour la liste de Gardner ?
« L’intelligence artificielle constitue une énigme, l’intelligence humaine en est une autre, et ces deux énigmes sont étroitement liées », précise Andler (2023, p. 12) tout en s’interrogeant sur la réelle pertinence à comparer les deux intelligences. Kate Crawford se montre particulièrement critique à cet égard. La chercheuse précise que les diverses façons de définir l’intelligence artificielle établissent des cadres différents pour la comprendre, la mesurer, l’évaluer et la gouverner. Crawford affirme que l’IA « n’est ni intelligente ni artificielle ». À sa supposée artificialité, elle oppose toute la matérialité et les ressources naturelles et humaines que l’IA mobilise. À sa prétendue intelligence, la chercheuse oppose le manque de discernement de l’IA, autant que son incapacité à être autonome et rationnelle. (Crawford, 2023, p. 19)
Oui, la machine est bel et bien capable de traiter des problèmes non prévus. Pour autant, « l’intelligence artificielle n’adapte jamais d’elle-même pour aborder une classe de problème non prévue par l’apprentissage. En cela, elle n’est pas vivante, encore moins intelligente », souligne Bruno Bachimont.
Dans une démarche similaire, Anne Alombert met en garde sur l’utilisation d’expressions non pertinentes et autres assimilations abusives rappelant que :
« Contrairement à ce que les vocables d’intelligence artificielle, d’apprentissage automatique ou d’agents conversationnels pourraient laisser croire, les technologies numériques contemporaines n’apprennent pas et ne conversent pas : elles constituent des dispositifs de calcul, qui, grâce à l’indexation (humaine), de quantités massives de données, et au moyen de certaines opérations mathématiques très spécifiques (…), permettent de générer des contenus textuels comparables aux contenus dits humain ». (Alombert, 2023)
Notons aussi qu’il manque deux choses essentielles aux IA : « la capacité d’être personnellement engagées, c’est-à-dire par la réussite et l’échec, et d’être capables de faire provisoirement abstraction de toute considération rationnelle ». (Andler, 2023, p. 327) Pour autant, l’auteur ne rejette pas la possibilité de l’existence d’une intelligence « artificielle », une sorte de qualité insaisissable commune aux algorithmes et aux SAI (systèmes artificiels intelligents). Dans un récent entretien avec Cédric Brun[11], Andler suggère que ces mécanismes pourraient acquérir dans le temps une propriété, une essence fondamentale qui serait une qualité spécifique, l’équivalent de ce qu’est l’intelligence pour l’homme, mais pour les mécaniques artificielles.
À supposer que les machines puissent bénéficier à une échéance plus ou moins lointaine d’une intelligence propre, celle-ci ne saurait en aucun cas être humaine. Ainsi, Raphaël Enthoven (2024) précise que « la faculté qui consiste à classer, synthétiser, expliquer des phénomènes ou des données ne pourrait constituer le seul périmètre pour définir l’intelligence ; l’intelligence est aussi le synonyme de complicité, de l’entente particulière qui ne peut pas faire l’objet d’une computation ».
Car comme le souligne Jean-François Richard (2024), l’homme ne souffre pas d’égal : « l’intelligence est ce je-ne-sais-quoi par lequel il exprime sa différence par rapport aux êtres qui l’entourent ». Aussi, l’intelligence serait « ce quelque chose que ne pourra jamais réaliser une machine ».
Mais bien au-delà des différences qui les opposent, ce qui importe est de permettre aux deux intelligences, humaine et artificielle, de s’enrichir l’une l’autre, sans jamais fermer la voie des possibles. (Malabou, 2020). Voilà de quoi rassurer (peut-être) les esprits préoccupés par le remplacement fantasmé de l’homme par la machine.
Explorations ontologiques autour du concept de l’IA générative
Si la qualité « intelligente » de l’IA ne fait pas consensus, en quels termes comprendre alors l’essence des systèmes artificiels ? Pour tenter d’apporter une réponse, nous proposons de nous appuyer sur l’ontologie[12] pour explorer l’existence et les réalités de l’IA générative. Examiner son statut ontologique nous emmènerait à nous interroger sur la manière dont elle est perçue, sachant que cette considération dépend des perspectives d’analyse que l’on adopte. D’une part, nous pouvons considérer que l’IAg est une création humaine qui possède une existence réelle dans notre monde matériel. D’autre part, nous pouvons suggérer que l’IA aurait la capacité d’être perçue comme une construction strictement conceptuelle, ou une manifestation de processus computationnels, qui n’aurait aucune existence indépendante en dehors de ses manifestations physiques. Nous entendons ici par « manifestations physiques » l’ensemble des représentations concrètes de la technologie IA qui permet son fonctionnement : ordinateurs, réseaux de neurones, data… Ainsi, nous questionnerons l’essence de l’intelligence artificielle générative en mobilisant respectivement les travaux de Bruno Bachimont sur la technique — sens et ruptures, ainsi que l’étude de la structure perceptive des êtres numériques, développée par Stéphane Vial.
La question des possibles : l’IA générative comme technique
Agir comme médium de la matérialisation de la pensée
Perçue comme étant au cœur des préoccupations contemporaines, la technique est un sujet d’étude récurrent dans les travaux de recherche de Bruno Bachimont. Dans son ouvrage « Le sens de la technique », il propose une analyse hors cadre préétabli pour servir de socle de compréhension aux questionnements fondamentaux associés à la technique : « Que fait l’homme de la technique ; et que fait la technique de l’homme ? »
L’auteur souligne que la technique est souvent opposée à l’humain, déchaînant des débats et des passions entre technophiles et technophobes. Une des caractéristiques de la technique réside en sa capacité à offrir des possibles. D’une part, elle permet à l’homme d’agir avec son environnement et de le transformer (le règne technique « d’agir »). D’autre part, elle aide l’homme à penser et à exprimer ses pensées, en proposant des outils, machines et procédés, dont l’objectif est la « structuration de la pensée » (le règne technique « de penser »). (Bachimont, 2010, p. 15)
Par ailleurs, le système technique contemporain « régule les objets, outils et procédés conditionnant la communication entre les humains, l’expression et la matérialisation de leur pensée ». Le numérique, dont la technique découle, agit comme « médium universel permettant de matérialiser tout type de contenu », précise Bachimont (2010, p. 18)
À la lumière de ces postulats, quel regard pouvons-nous porter sur l’intelligence artificielle générative en sa qualité d’objet technique ? Quels possibles offre-t-elle à l’homme ? Nous pensons qu’il est possible d’appréhender l’IAg comme un d’outil de programmation, qui, en sa nature d’esprit artificiel se présente comme une « prothétisation » permettant la matérialisation de l’idée humaine. Car si l’IA générative ne révolutionne pas le processus de concrétisation de la pensée humaine, elle réinterprète le champ des possibles. Pour mieux appréhender l’IAg en tant que médium de contenus, nous proposons d’analyser ce que nous nommons le processus d’« Idéation-Corporisation ».
Permettre le processus d’« Idéation-Corporisation »
L’idéation — la faculté de formuler des idées — est propre à l’homme. Mais si les idées germent dans l’esprit humain, leur matérialisation, entendue dans le sens de « donner une forme matérielle à une chose abstraite » n’est pas systématique.
Si l’IA générative n’est pas capable de développer une pensée abstraite ni des idées complexes, elle peut en revanche rendre possible la matérialisation de l’idée humaine. Ainsi l’IA générative, en particulier la technique des GANs (réseaux antagonistes génératifs) et ses algorithmes, est convoquée dès 2017 pour « répondre à des objectifs non quantifiables ou difficilement mesurables (comme l’esthétique) et stimuler la créativité des concepteurs en phase d’idéation architecturale. » (Marsault & Nguyen, 2022)
Les différentes techniques de l’IA générative sont donc mobilisables en qualité de médium pour la « corporisation » des idées humaines en leur « donnant un corps », c’est-à-dire une forme matérielle, et ce à travers le processus d’« Idéation-Corporisation ».
De quoi s’agit-il ? Nous proposons d’envisager le concept d’« Idéation-Corporisation » comme la capacité de matérialisation de la pensée humaine par un processus computationnel généré par l’IA à la suite d’un encodage en réponse d’une commande (prompt) exprimée en langage naturel. Ainsi, le concept d’« Idéation-Corporisation » repose sur l'idée que les techniques d'IA générative agissent comme un medium permettant de transformer des idées abstraites (conceptuelles, mentales) en une forme concrète et perceptible (texte, image, son, etc.). Cette transformation crée un « pont » entre deux niveaux de réalité : le niveau conceptuel (idées, abstractions) et le niveau sensible ou perceptible (représentations matérielles générées par l'IAg).
D’une certaine manière, il s’agit là d’une transposition de la théorie de la schématisation chez Kant, où cette dernière assure une médiation entre les catégories pures de l'entendement (abstraites, non directement perceptibles) et les intuitions sensibles (données perceptibles dans l'espace et le temps). Ce rôle est joué par les schèmes transcendantaux à la structure temporelle qui permettent aux concepts d'être appliqués aux phénomènes sensibles.
De la même manière que la schématisation chez Kant établit un pont entre les catégories abstraites de l'entendement et les intuitions sensibles en passant par l'imagination transcendantale, l'IA générative agit comme un médium technique permettant de relier les idées abstraites humaines (idéation) et leurs manifestations matérielles (corporisation). Ce processus que nous appelons « Idéation-Corporisation » prend appui sur une schématisation numérique opérée par l'IA, où les algorithmes et les modèles statistiques tiennent lieu d'imagination externalisée, traduisant les idées en représentations sensibles. Les technologies du contenu – les IA génératives – deviennent ainsi des outils de schématisations, prothèses externes pour donner un contenu à nos idées ou concepts.
Soulignons que l’« Idéation » et la « Corporisation » ne sont pas des phénomènes réciproques : si l’idéation humaine peut se produire en dehors de la corporisation par la machine, l’inverse n’est pas vrai. L’IA est incapable d’idéation et la corporisation qu’elle permet n’est autre que la manifestation physique de l’idéation humaine, exprimée par les calculs machine. (Voir Figure 2)
Figure 2 : Schéma du procédé Idéation-Corporisation (Création originale : A.Koleva)
Le procédé « Idéation-Corporisation » qui se configure entre l’homme et la machine (IAg) se met en place en respectant 4 phases : Idéation, Prompt, Encodage, Corporisation. Les phases 1 et 2 sont exclusivement du domaine de l’homme tandis que les phases 3 et 4 sont spécifiquement liées au processus machine. Entre les phases 2 et 3 se créé un espace de latence où naît l’interaction Homme-Machine.
Construit dans un enchaînement d’étapes, le modèle d’Idéation-Corporisation n’est pourtant pas un processus en sens unique. L’itération — action de retour en arrière vers les étapes précédentes symbolisée par les flèches — est régulièrement mobilisée pour amplifier, moduler, corriger, varier les résultats de la corporisation. Bien que d’apparence linéaire, ce modèle relève davantage d’un processus circulaire qui s’inscrit dans une dynamique récursive. Développé par Edgar Morin dans ses travaux sur la Pensée Complexe, le principe de récursion traduit le phénomène lors duquel le résultat du processus impacte son commencement. « Un processus récursif est un processus où les produits et les effets sont en même temps causes et producteurs de ce qui les produit » (Morin, 2005, p. 99-100). Ainsi, les productions corporisées (procédé IAg) issues du processus idéatif (procédé humain) se retrouvent réintroduites dans ce même processus en tant que nouvelles causes qui influencent et modifient le processus idéatif initial, créant une boucle récursive reproductible à l’infini.
Notons que ces itérations interviennent dans la prise de décision par l’homme, c’est-à-dire le choix délibéré d’une corporisation machine plutôt qu’une autre. Car la création médiée par la technique constitue in fine un acte de sélection et de délibération sur le statut d’un contenu. Toutefois, la question de la possible réorientation du processus décisionnel humain sous influence machine reste entière et mérite d’être explorée sur le terrain.
Maintenir dans l’ambiguïté consubstantielle
La technique n’est pas seulement un instrument qui ouvre les champs des possibles pour « l’agir » et « le penser » de l’homme. Par sa nature, la technique est intrinsèquement ambiguë, étant à la fois la voie qui conduit vers de nouveaux horizons de sens, et l’impasse qui empêche d’y accéder, souligne B. Bachimont (2010).
La technique est dans le même temps « instrument d’émancipation et d’aliénation ». Par « émanciper », l’auteur entend la capacité de la technique à « ouvrir la possibilité de certains futurs » et à guider l’homme dans les actions à entreprendre, pour agir avec son environnement et anticiper son avenir. De l’autre côté, la machine « aliène » l’homme du fait de son fonctionnement inhérent. Elle ferme l’horizon des nouveaux possibles, avec une tendance à se substituer à l’humain, pour finalement le réduire à un simple exécutant asservi à son fonctionnement (Bachimont, 2010, p. 39).
À l’aune de la nature ambivalente de la technique, quel regard porter sur le processus d’« Idéation-Corporisation » permis par l’IA générative ? Pouvons-nous considérer que ce procédé ouvre de nouvelles voies pour la matérialisation de la pensée humaine, sans pour autant étriquer ses potentialités de création et idéation ? L’intelligence artificielle générative n’échappe pas à l’ambiguïté consubstantielle propre à la technique que B. Bachimont (2010, p. 99) décrit comme étant « à la croisée des possibles qu’elle invente pour aussitôt réduire ».
À travers sa capacité de « corporisation », IAg ouvre la voie à de multiples expressions de la pensée humaine, et ce faisant, contribue à ce que nous appellerons l’hypergenèse idéative. Nous proposons de comprendre ce terme à partir des mots qui le constituent : le préfixe hyper tiré du grec ὑπέρ signifiant au-dessus, au-delà, indique une intensité ou une qualité supérieure à la normale, voire une exagération, un excès, le plus haut degré ; le mot genèse est entendu dans le sens de « ce qui est créé », comme l’élaboration d’un courant de pensée, le processus de création d’une œuvre artistique, littéraire, musicale, la genèse d’une idée. Ainsi, à travers un processus reproductible et modulable à l’infini, l’IAg permet de « donner corps » à une pléthore d’interprétations de ce qui était en état de germination dans l’esprit humain. L’IAg amplifie et augmente les possibilités d’idéation humaine, rendant possible l’hypergenèse idéative.
Rappelons toutefois que cette capacité de « corporisation » n’est autre qu’un processus computationnel, une combinatoire de données (textuelles, visuelles, sonores…) déterminées en amont. La matérialisation de l’idéation humaine par un processus d’assemblage aléatoire et probabiliste d’éléments préexistants manque cruellement de cette matière sensible que possèdent les créations originales de l’esprit humain. Ainsi, nous pouvons supposer que les idéations humaines ne serviront qu’à « nourrir » l’algorithme du programme informatique en vue de futures combinaisons statistiques.
La machine est incapable de produire des idées radicalement nouvelles, ce processus étant intimement lié à l’intuition d’après Henri Bergson. L’intuition, aptitude dont l’IA est totalement dépourvue, est « attachée à une durée qui est croissance, y perçoit une continuité ininterrompue d’imprévisible nouveauté ; elle voit, elle sait que l’esprit tire de lui-même plus qu’il en a, que la spiritualité consiste en cela même, et que la réalité, imprégnée d’esprit, est création. » (Bergson, 2023, p. 70).
Le fait est que la machine traduit l’idée humaine dans un réarrangement d’éléments préexistants, puisant dans l’ancien pour proposer du nouveau. Vides de toute originalité, les productions corporisées par l’IA générative, pourraient enfermer l’homme dans une bulle stérile et standardisée, empêchant l’émancipation de sa capacité d’idéation créative, et conduire ainsi à une hypogenèse idéative (le préfixe hypo tiré du grec ὑπό, signifiant sous, dessous, en dessous, avec une notion d’infériorité physique ou morale). Ainsi, au lieu de permettre l’exploration de nouvelles voies et le développement d’idées originales et radicalement nouvelles, on aboutirait à un rétrécissement idéatif et une indigence inspirationnelle, avec le risque de compromettre le processus créatif. (Voir Figure 3)
Figure 3 : La dualité « Hypergenèse-Hypogenèse » (Création originale : A. Koleva)
Ainsi l’IA générative porte en elle l’ambiguïté propre à la technique : elle permet dans le même temps, l’élargissement idéatif - l’hypergenèse, et le rétrécissement idéatif - l’hypogenèse du processus idéatif humain ; le chemin qui mène à l’un ou l’autre de ces états dépendra sans doute des usages et du niveau d'intellection du sujet requêté par l'utilisateur.
La question de l’ontophanie de l’IA générative
Comprendre la phénoménalité de l’IAg
Le concept d’ontophanie proposé par Stéphane Vial dans l’Être et l’écran semble particulièrement pertinent pour interroger la nature de l’intelligence artificielle générative. L’ontophanie est définie comme « la manière dont les êtres « ontos » nous apparaissent « phaïnô » (Vial, 2013).
Il convient de noter que l’ontophanie est indissociable de la notion de « phénoménotechnique » développée par Gaston Bachelard. Notons que S. Vial (2014, p. 152) explique cette notion par « la capacité de la science moderne à fabriquer les phénomènes grâce à des instruments techniques » concluant que par conséquent, « tout phénomène est en soi phénoménotechnique ». Ainsi, précise-t-il, « toute ontophanie est une ontophanie technique » tandis que « la technique est une structure de la perception ». (Vial, 2013, p. 99) Cette idée est essentielle pour la compréhension de la nature des nouveaux êtres numériques et technologiques, car ils « nous contraignent à renégocier l’acte de perception lui-même » et de nous « forger des perceptions nouvelles, c’est-à-dire d’objets pour lesquels nous n’avons aucune habitude perceptive. » (Vial, 2013, p. 97)
En tant qu’objet technique, l’intelligence artificielle générative peut donc être appréhendée comme un phénomène du monde dans lequel l’IAg apparaît comme une expérience perceptive résolument nouvelle. En effet, elle présente des caractéristiques, des fonctionnalités, des capacités, bref, une essence spécifique qui lui est propre et par laquelle s’instaure une interaction perceptive inédite entre l’objet technique qu’elle représente et les acteurs sociaux qui entrent en interaction avec elle.
De quelle manière IAg modifie-t-elle notre perception du monde ? Que vient-elle « renverser, bouleverser, déplacer, remplacer » dans les réalités qu’elle génère ? Pour tenter de répondre à ces questions, nous mobiliserons les notions « d’aura phénoménologique » et de « l’autruiphanie numérique » développées par Stéphane Vial.
L’aura phénoménologique de l’IAg
Le concept d’aura phénoménologique proposé par S. Vial peut être compris comme étant le degré d’intensité avec lequel les choses et les êtres s’offrent à notre perception, se concentrant essentiellement sur l’interaction que nous entretenons avec les êtres numériques. Cette notion met l’accent sur la manière dont les êtres numériques influencent notre perception et notre relation au monde.
L’intensité perceptive qui se produit à leur rencontre n’est pas la même pour tous les étants. L’aura des êtres numériques dépend des dispositifs qui permettent leur fonctionnement et constituent leur expression matérielle. Il conviendra de distinguer l’aura phénoménologique (degré de perception) de l’effet de réalité (degré d’existence) qu’ils produisent. (Vial, 2013, p. 284)
Illustrons le propos : un face-à-face physique, d’humain à humain sans interface technologique, présente l’aura phénoménologique la plus intense qui soit ; viennent ensuite l’échange en visioconférence entre personnes (l’interface technique étant l’ordinateur ou le smartphone), l’échange téléphonique (l’interface technique étant le téléphone), puis l’échange par SMS, ou autre application de type messagerie…
Notons qu’il est possible de bénéficier d’un fort effet de réalité, tout en ayant une faible aura phénoménologique. Concernant les êtres technologiques, le constat de l’auteur est sans appel : « les expériences du monde induites par l’ontophanie numérique possèdent, malgré la puissance inédite de leurs effets de réel, un assez bas degré d’aura phénoménologique ». (Vial, 2013, p. 287) En cause, l’interface numérique que nécessitent les êtres techniques pour leur manifestation, qui ne pourra jamais offrir l’expérience de vivre qu’offre le face-à-face.
À la lumière de ces explications, quelle aura phénoménologique pouvons-nous attribuer à l’intelligence artificielle générative ? Si l’IAg est appréhendée en sa qualité de dispositif technique et que son interface est indissociable à sa manifestation, alors nous pouvons par analogie avancer que son aura est plutôt faible, en dépit de ses effets de réalité forts.
Il semble toutefois que l’intelligence artificielle générative se distingue des autres êtres numériques, bénéficiant d’une aura phénoménologique à nul autre être numérique égale. Certes, l’IAg vient s’ajouter à la liste des autres ontophanies numériques, enrichissant les « cultures ontophaniques qui se cumulent autant qu’elles se succèdent… » (Vial, 2013, p. 273) Mais nous ne pouvons nier que les modèles génératifs, par leurs capacités computationnelles et génératives inégalées, influencent notre perception et notre relation au monde d’une manière qu’aucun autre dispositif technique n’a pu le réaliser jusqu’à lors. Cette singularité nous emmène à suggérer la possibilité pour l’IAg d’aboutir à de nouvelles « liaisons numériques », des situations inédites d’interaction « Homme-Machine » qui peuvent conduire à l’accroissement de l’intensité de son aura phénoménologique. N’occultons pas ce qui constitue sans doute la raison déterminante à cette évolution — le mode d’interaction spécifique à cette technique, à savoir l’utilisation du langage naturel. Cette particularité intrinsèque de l’outil IAg ouvre la possibilité à une potentielle assimilation anthropomorphique[13] de l’intelligence artificielle générative et modifie le degré d’intensité avec lequel l’IAg s’offre à la perception humaine.
La question de l’aura phénoménologique de l’objet technique qu’est l’IAg reste un phénomène à explorer, et une enquête qualitative sur le terrain avec une observation directe s’avérerait particulièrement pertinente pour étudier le degré de perception des nouvelles configurations relationnelles « Homme-IAg ».
L’autruiphanie numérique : le cas de l’IAg
Le concept d’autruiphanie développé par S. Vial s’articule autour de « la manière dont l’autre nous apparaît et se donne à nous dans l’expérience vécue en fonction de critères techniques ». Il s’agit donc de « la manière dont l’autrui se manifeste aujourd’hui dans le champ de l’expérience perceptive à travers les artefacts numériques ». (Vial, 2014).
La notion d’autruiphanie est différente de l’aura phénoménologique, dans la mesure où elle désigne l’ontophanie d’autrui, le résultat de la production phénoménotechnique de l’altérité, comprise du point de vue de l’expérience phénoménologique qu’en fait le sujet. Cet « Autre » qu’on nomme « Autrui » n’est pas dissociable des conditions techniques d’apparition par lesquelles il s’offre à la perception et à l’expérience à vivre. Car les autruiphanies, qu’elles soient de type face à face, téléphoniques, messagères…, sont toujours des expériences technologiquement conditionnées qui se manifestent « à travers le médium numérique, c’est-à-dire à travers les dispositifs informatisés en réseau qui structurent notre vie ». (Vial, 2014).
Quelles nouvelles expériences perceptives l’intelligence artificielle générative déclenche-t-elle dans l’expression de l’altérité ? Quelle réalité vient-elle restructurer sur le plan phénoménologique dans la rencontre de l’autre ? Pour tenter de répondre à ces questions, il conviendra de revenir sur les deux notions essentielles intervenant dans l’expression de l’altérité : celle du médium et de l’artefact numériques.
Situons dans un premier temps le rôle du médium numérique dans l’alerté : à la fois support et véhicule de la rencontre de l’autre, il est l’intermédiaire qui inscrit l’émetteur et le récepteur dans une nouvelle dynamique communicationnelle. Notons que les progrès technologiques de ces dernières années ont propulsé le médium numérique dans une dimension nouvelle — il est devenu algorithmique. Cette évolution, spécifie Pierre Lévy, est due à nos sociétés désormais datacentriques, où s’établit un nouveau cadre relationnel au sein duquel « nos communications — émettrices et réceptrices de données — reposent sur une infrastructure de plus en plus complexe de manipulation automatique de symboles » que l’auteur nomme « médium algorithmique ». (Lévy, 2015)
Oui, l’intelligence artificielle générative est résolument un médium algorithmique, puisqu’elle repose sur des algorithmes d’apprentissage automatique pour générer divers formats de contenus — texte, image, vidéo, audio… — issus de la manipulation computationnelle de datas et de symboles. Certes, un espace interactionnel et communicationnel se crée lorsque l’outil d’IAg est mobilisé par l’humain, mais cet espace s’avère particulièrement restreint. Nous pouvons affirmer que, si la production d’informations conséquente à l’échange humain-IAg apparaît illimitée, l’altérité, quant à elle, est réduite à sa forme la plus restreinte, à savoir un échange à deux. Il s’agit d’une interaction bidirectionnelle où les rôles d’émetteur et de récepteur sont tenus à la fois par l’humain et la machine, alternés à chaque étape de la communication.
À ce jour, les outils d’IAg de type ChatGPT sont conçus pour une communication exclusive entre un utilisateur unique et l’IA. Cette particularité des outils d’IAg, et donc du médium numérique devenu algorithmique, condamne l’autruiphanie à l’unilatéralisme où, la seule ontophanie possible est celle de l’intelligence artificielle générative faisant irruption dans le champ perceptif de l’homme. La réciproque est impossible, l’IAg étant incapable d’expérience perceptive. À noter toutefois qu’avec le progrès fulgurant de ces modèles, il n’est pas exclu qu’à terme, l’IAg permette une discussion simultanée avec plusieurs utilisateurs humains dans la même session. Il conviendra à ce moment de réinterroger la place qu’occupera alors l’IAg en sa qualité de médium algorithmique dans l’expérience phénoménologique de l’altérité, où l’« autre » redevient humain.
Questionner le concept d’artefact numérique constitue une autre piste d’analyse des possibles modulations de l’expression de l’altérité induites par l’IAg. Comment en sa qualité d’artefact numérique, l’IAg transfigure-t-elle la manière dont l’« autre » se révèle à nous ?
Le mot « artefact » est souvent utilisé comme équivalent du terme « objet technique ». Pourtant, certains auteurs indiquent que « la définition de l’artefact déborde largement de l’objet technique ». (Garçon, 2022). Pour expliquer ce dépassement, l’auteure s’appuie sur l’analyse de Pierre Rabardel qui précise que la notion d’objet technique est davantage technocentrée, tandis que celle d’artefact permet une approche anthropocentrique. Ainsi l’artefact « permet de penser les différents types de relations du sujet à l’objet ou au système anthropotechnique : comme structure technique, dispositif fonctionnant, instrument. » (Garçon, 2022).
Citant Winkin et Simondon, Lise Verlaet (2022) rappelle la dimension info-communicationnelle des artefacts numériques et souligne leur contribution à l’individuation humaine :
« L’anthropologie du numérique vient ainsi spécifier l’anthropologie de la communication telle qu’explicitée par Y. Winkin (1996), les technologies numériques étant considérées comme des artefacts résolument info-communicationnels. En ce sens, comprendre l’homme et son milieu, c’est également s’intéresser à l’anthropologie du numérique puisque de facto le numérique participe à l’individuation (Simondon, 1994) »
L’auteure rappelle également que l’artefact est aussi « porteur de signifiance[14] pour l’acteur social, signifiance construite par la connaissance à travers le principe d’interaction Homme-Machine » (Verlaet, 2022).
Quelle est la place de l’intelligence artificielle générative dans le monde des artefacts multiples ? Peut-elle être considérée comme un artefact numérique capable de cognition ? Dans l’affirmative, l’IAg peut-elle être appréhendée comme un agent ou un acteur à part entière, porteur de signifiance ?
Les artefacts numériques deviennent cognitifs lorsque « construits comme des programmes et compris comme des agents résolvants des problèmes », précise Anne-Françoise Garçon, citant Bruno Bachimont (1993). Elle ajoute que « parler d’artefact cognitif signe donc un changement de statut, d’actant à agent, voire acteur. (Garçon, 2022).
Conçue comme un programme informatique aux propriétés computationnelles dédiées à la génération de contenus divers, l’intelligence artificielle générative est incontestablement un artefact cognitif qui s’inscrit dans une relation info-communicationnelle avec l’humain. Pour autant, n’est-il pas extravagant de lui conférer un statut d’agent, voire d’acteur ?
Réexaminons succinctement les deux notions. Du point de vue de la sociologie, la distinction entre agent et acteur se concentre sur les représentations d’autonomie, de déterminisme et de rationalité des individus et des groupes. Pour Pierre Bourdieu, les agents sont des « individus pris dans la pratique et immergés dans l’action, agissant par nécessité » (Bourdieu 1994 : 67), précise Claude Dubar, ajoutant que l’agir est alors déterminé par l’habitus — les conditions sociales de l’agent, les caractéristiques de son origine et de sa trajectoire sociales. (Dubar, 2007) À contrario, la notion d’acteur récuse toute forme de déterminisme et souligne la capacité d’autonomie. Des auteurs comme Raymond Boudon, Alain Touraine, Edgar Morin ou Michel Crozier, mettent l’accent sur le pouvoir d’agir du sujet, capable de se détacher des conditions socialement produites qui conditionneraient sa conduite. (Guichard, 2007)
L’Intelligence artificielle générative est non seulement un artefact cognitif, mais aussi un être numérique, dont certains modes opératoires nous emmènent à l’envisager comme un acteur à part entière. Nous pouvons tout d’abord reconnaître à l’IAg une relative autonomie « cognitive » dans la création de contenus (texte, image, musique…) dans la mesure où, bien que conséquente à une préalable requête humaine, la génération des contenus se fait de manière indépendante par la machine. Il n’est pas non plus déraisonnable de considérer que l’IAg est un être numérique doté d’agentivité, puisqu’elle possède la capacité à exercer une influence sur l’autrui et son environnement grâce aux créations qu’elle génère. La question n’est pas nouvelle et certains auteurs consentent à une forme d’agentivité algorithmique des systèmes de Machine Learning qui disposeraient « d’une sorte d’agentivité fonctionnelle, dès lors qu’ils ont des fonctionnalités (analogues à des compétences humaines) leur permettant d’atteindre des objectifs prédéfinis. » (Grozdanovski, 2022) Ainsi, les productions de l’IA générative — résultant des objectifs prédéfinis par l’homme et dont l’IAg s’acquitte avec quelque autonomie — influencent la perception des humains en interaction avec la machine et participent à la construction de signifiances nouvelles.
Nous constatons à quel point la nature plurielle de l’intelligence artificielle générative — à la fois médium numérique/algorithmique et artefact numérique/cognitif doté d’une certaine agentivité fonctionnelle — vient percuter et remodeler l’expérience perceptive de l’homme. Rappelons-nous la manière dont ChatGPT nous est apparu fin 2022 : dix semaines après son lancement, l’agent conversationnel (ou devrait-on dire acteur conversationnel ?) comptabilisait 100 millions d’utilisateurs, dans un effet de sidération générale. En mobilisant un mode interactionnel jusque-là inédit pour une machine — le langage naturel —, ce sont les contours d’un terrain interactionnel et info-communicationnel nouveau que l’IA générative est en train de dessiner.
Comment faire la lumière sur ces nouvelles configurations ? Sans doute, leur appréhension implique de prendre en considération que « l’intelligibilité des artefacts numériques consiste à cerner et comprendre les intrications générées par le système interactionnel acteur-artefact, et subséquemment comprendre la co-construction de l’homme et son milieu. » (Verlaet, 2022) Il serait question de la mise en place d’un système inédit à travers lequel l’autruiphanie numérique s’enrichirait d’une nouvelle modalité dont l’analyse phénoménologique reste à explorer sur le terrain.
Mises en rapports homme-machine
Que l’on soit un enthousiaste convaincu des possibilités offertes par les modèles d’intelligence artificielle ou un lanceur d’alerte sur leurs effets néfastes pour l’avenir de l’homme, le constat reste le même : les systèmes d’intelligence artificielle (SIA) sont durablement ancrés dans nos quotidiens numériques, tant au niveau personnel que professionnel. Il s’agit là d’une réalité moderne indéniable dans laquelle « la condition humaine contemporaine tend à devenir une situation interactive généralisée. » (Vial, 2013) Les transformations auxquelles nous faisons face sont profondes et inscrivent notre monde dans un « mouvement de mise en numérique généralisé et d’innovations technologiques, concernant tout autant les modalités de production que les transactions marchandes, les processus communicationnels ou encore la géométrie des collaborations ». (Pinède, 2019).
La question de la position de l’Homme à l’égard de la machine n’est pas nouvelle. En 1995, Pierre Rabardel interrogeait déjà le statut des systèmes d’intelligence artificielle vis-à-vis de l’homme : « Doivent-ils être des prothèses, sortes de béquilles palliant les insuffisances des opérateurs, ou au contraire des instruments les aidant à résoudre les problèmes et à traiter les situations qu’ils rencontrent ? » (Rabardel, 1995)
Car à travers le statut concédé par l’homme aux SIA, c’est toute la question des interactions qui se trouve réexaminée. Comme le précise Rabardel, les mises en rapport des acteurs sociaux avec ces objets techniques sont conditionnées par « leurs intentions, leurs usages, leurs fantasmes ». Et l’irruption de l’intelligence artificielle générative dans la sphère numérique semble faire basculer les interactions Homme-Machine dans des configurations à géométrie variable, pouvant aller jusqu’à l’anthropomorphisme.
Par quel biais de telles configurations se déploient-elles ? Comment l’homme peut-il concéder aux objets techniques, en l’occurrence à l’intelligence artificielle générative, des caractéristiques propres à l’espèce humaine ? Comment la mobilisation du langage naturel remodèle-t-elle les interactions Homme-Machine ?
L’acte de nommer
Dans la mise en place de ce processus, Alexeï Grinbaum met en évidence le rôle du nom donné à la machine. Ce serait précisément l’acte de nommer qui permettrait d’entrer en communication et « d’établir une relation et à mettre l’autre dans son monde (…) ce n’est pas le statut ontologique qui compte, c’est la relation. Sur le plan relationnel, l’autre fera partie de notre réalité et ira jusqu’à nous influencer. » (Grinbaum, 2023) Quand on pense aux IA génératives « Claude » ou « Leonardo », on peut raisonnablement supposer que les équipes marketing des sociétés qui les ont développées n’ignoraient pas la puissance de l’acte de nommer.
La démarche n’est pas nouvelle. François Perea fait remarquer que « les agents conversationnels, dans une écrasante majorité, possèdent un nom de personne ou une forme nominative approchant ». Parmi les exemples les plus célèbres, vous connaissez sans doute Siri, Alexa ou encore Cortana. L’auteur souligne le fait que donner un nom propre à un produit ou une marque implique des effets de sens distinctifs et « permet de procéder à un télescopage des traits sémantiques animé (nom propre anthroponyme) et inanimé (nom propre ergonyme) ». (Perea, 2022, p. 56) Citant Sarah Leroy (2001, p. 49), il ajoute que « la nomination en elle-même confère le statut d’individu ».
Ainsi l’acte de nommer participe à la personnification de l’objet, effet déjà étudié en psychologie. Selon Serge Tisseron (2015, p.95), ce travail de nomination mène l’interaction homme-machine bien au-delà du simple échange d’informations ; il conduit à la mise en place d’une « relation empathique artificielle, cognitive et émotionnelle ». (Perea, 2022, p. 60)
Langue, langage naturel et apprentissage
Au-delà du nom, c’est la question du langage qui doit être considérée, quand il s’agit d’interactions Homme-Machine. Il conviendra avant toute chose de distinguer la faculté, celle du langage que l’on pense parfois trouver dans la machine, et la langue, la production et l’ensemble des énoncés constituant une langue empirique. Car l’ambiguïté installée par l’IAg est que, en s’appuyant sur la langue comme énoncé, elle suggère une capacité proche du langage, précise Bruno Bachimont.
Qu’est-ce donc le langage ? Pour Jacques Leclerc, il représente la faculté inhérente et universelle de l’humain de construire des langues (des codes) pour communiquer. À cet égard, le langage englobe un ensemble de moyens de communication : oraux, écrits, gestuels ou symboliques.
La langue quant à elle est un système de signes et de règles, utilisé par une communauté pour communiquer ; elle est dotée d’une grammaire, d’un vocabulaire et d’une syntaxe propres. Ainsi pouvons-nous parler de langue française, anglaise, bulgare… Pour Ferdinand de Saussure, « la langue est à la fois un produit social de la faculté du langage et un ensemble de conventions nécessaires, adoptées par le corps social pour permettre l’exercice de cette faculté chez les individus ». (de Saussure, 1995, p. 25)
Mais si le langage est une faculté spécifiquement humaine, de quelle manière l’intelligence artificielle s’en saisit-elle ? Comment s’opère l’apprentissage du langage naturel par la machine ? Alors que les IA génératives atteignent des niveaux de performance inédits, pouvons-nous comparer les aptitudes conversationnelles des machines avec celles des humains ? Quels rapprochements ou divergences pouvons-nous noter dans l’acquisition du langage par l’humain et la machine ?
Soulignons tout d’abord que l’apprentissage du langage humain repose sur des mécanismes biologiques, cognitifs et sociaux complexes, tandis que l’apprentissage du langage naturel par les machines (procédé appelé NLP — Natural Language Processing) combine la linguistique computationnelle avec des algorithmes et des modèles statistiques. La machine, cela va de soi, ne possède aucune capacité biologique innée à l’apprentissage du langage. Elle apprend par l’intégration massive de données textuelles, après un travail important de nettoyage (suppression des erreurs), de tokenisation (découpage du texte en unités de base : caractères, mots, phrases) et de normalisation (standardisation des mots). Cette longue et méticuleuse préparation est suivie par un processus de Word Embeddings, à savoir la conversion des mots en représentation mathématique (algorithmes) à et la mise en relation sémantique entre les mots. On est bien loin du rôle de l’inné dans l’apprentissage du langage chez l’humain.
Nous devons reconnaître toutefois quelques rapprochements dans le mode de l’apprentissage du langage chez l’humain et la machine, notamment l’importance des interactions. La théorie interactionniste (initiée par Vygotsky) souligne l’importance des interactions sociales : c’est précisément par des échanges avec l’entourage que les enfants apprennent le langage. Cette dynamique interactionnelle chez l’humain fait écho aux ajustements d’apprentissage des modèles d’IA via des interactions avec des humains. Le pouce levé pour indiquer une bonne réponse, ou le pouce baissé pour signifier le contraire en fin d’échange avec une IA constituent un exemple concret de la méthode d’apprentissage par interaction. La méthode RLHF (Reinforcement Learning from human feedback), basée sur les commentaires et les évaluations des humains, constitue un facteur essentiel pour guider l’apprentissage des intelligences artificielles.
L’importance de l’environnement semble toute aussi essentielle pour l’apprentissage du langage, qu’il s’agisse de l’humain ou de la machine. Nous faisons référence ici à la richesse du contexte. Chez l’humain, l’exposition à une grande diversité de locuteurs, de contextes et de situations permet d’enrichir le vocabulaire et de développer une compréhension fine de nuances du langage. Pour la machine, un contexte riche d’apprentissages correspond à l’exposition de l’IA à un vaste corpus de données massives qui est supposé, par sa diversité et sa qualité, améliorer et affiner les aptitudes langagières de la machine. Notons toutefois que si les humains s’adaptent naturellement aux nouveaux contextes, la machine nécessite des de longs et coûteux réentrainements pour s’ajuster.
À la lumière de ces éléments, pouvons-nous conclure, sinon à une équivalence, du moins à une similitude entre les langages humain et machine ? Certes, nous pouvons consentir à quelques rapprochements quant aux modalités d’apprentissage. Mais à ceux qui seraient tentés d’assimiler le langage naturel humain à celui mobilisé par la machine, répondons ceci : l’apprentissage du langage humain s’appuie sur le sens et l’intention, tandis que celui des machines repose sur la corrélation statistique. Là où l’humain donne du sens au langage, la machine ne fait que reproduire des motifs statistiques. Pour le reste, c’est de la science-fiction.
Des leurres conversationnels
Ainsi, l’intelligence artificielle mobilise pour ses « conversations » une caractéristique humaine unique : le langage naturel. Citant Edgar Morin, L. Verlaet souligne l’importance du langage dans la boucle récursive langage — pensée — intelligence :
« La cogitation (la pensée) se formule par le langage, le langage permet à la cogitation de traiter, non seulement ce qui est antérieur au langage (l’action, la perception, le souvenir, le rêve), mais aussi ce qui relève du langage lui-même, les discours, les idées, les problèmes. » (Morin, 1986, p.115)(Verlaet, 2022).
C’est précisément l’aptitude à mobiliser le langage qui peut ouvrir la voie à des assimilations erronées. Car c’est à travers lui que « s’exprime la pensée consciente et le jugement humain » et sa simple utilisation « provoque une projection par les humains de connaissances, d’affects et de jugements moraux sur la machine. » (Devillers, 2024)
Ces projections vont de pair avec leur lot d’associations et de significations se produisant spontanément dans l’esprit humain et dont il n’est pas aisé de se soustraire. Ainsi, le fait de manier le langage et d’entrer en dialogue s’avère être une condition suffisante pour attribuer à la machine une intention et des connaissances. (Grinbaum et al., 2023)
François Perea rappelle que « converser est une activité humaine » et qu’elle permet aux humains « de s’y inscrire symboliquement comme humains, dans un univers symbolique de langage ». (Perea, 2022, p. 68) Ainsi, les dialogues avec les agents conversationnels sont censés se rapprocher du « papotage » : c’est là une quête de « vraisemblance conversationnelle » qui repose sur la « mobilisation de comportements dévolus aux échanges entre humains sans justification, en faisant passer l’artifice pour le naturel et la complexité interactionnelle pour une facilité ». (Perea, 2022, p. 72)
Mais la capacité des agents conversationnels de « converser » en langage naturel ne leur octroie pas pour autant la compétence de compréhension du sens des mots qu’ils produisent. Il s’agit là d’un « leurre conversationnel », et il est essentiel de garder en mémoire que « la signification est uniquement celle que les humains projettent sur les textes produits par le système d’IA, car ils possèdent une interprétation des mots dans le monde réel ». (Devillers, 2024).
Le glissement anthropomorphique en question
Le processus d’anthropomorphisme se met en place d’une façon insidieuse. L’homme est conscient qu’il est en face d’un système « parlant » non humain. Mais l’utilisation du langage naturel, voire d’une forme de « politesse bienveillante » dans les réponses de la part de la machine peut être assimilée à de « l’empathie humaine ». Le processus semble prendre place de manière presque involontaire : « l’anthropomorphisme est spontané, on ne peut pas l’empêcher (…) et on projette donc des connaissances, des états d’âme, des émotions, voire des responsabilités » (Grinbaum, 2023)
Si l’on ne peut pas empêcher l’anthropomorphisme, doit-on pour autant se résigner à le subir ? Comment éviter les effets négatifs de ce processus ? Rappelons que les systèmes d’IA ne sont que des programmes exécutant des algorithmes mathématiques et que si leurs habilités computationnelles sont remarquables, ils ne possèdent pas d’aptitudes à la prise de décision, au discernement, et encore moins à l’appréhension du sens. Oui, « la technique est souvent considérée comme opposée à la dimension de sens », précise Bruno Bachimont (2010, p. 23‑24), pourtant elle « véhicule une authentique dimension de sens… ». L’auteur rappelle toutefois que si la technique « permet d’ouvrir de nouvelles dimensions du sens, d’inventer de nouveaux possibles, la technique est aussi ce qui permet de les anéantir et de les réduire à un pur utilitarisme… »
Les possibles transferts de responsabilités de l’homme à la machine rendent l’enjeu de l’anthropomorphisme crucial. Cela est d’autant plus vrai qu’il est désormais possible d’échanger avec l’IA en « chat vocal », renforçant le sentiment d’une conversation naturelle entre humains.
Ainsi, pour se prémunir de l’influence et des « projections de sens » il est nécessaire « d’avoir compris comment le langage est généré par la machine et également d’avoir suivi un entraînement à l’utilisation de ces outils » (Devillers, 2024).
Reste à savoir à qui revient alors la tâche d’acculturation et de construction d’esprit critique vis-à-vis des SIA. Aux parents, qui n’ont pas ou peu manipulé les outils génératifs ? Au corps professoral en plein questionnement sur la place de l’IAg dans l’enseignement ? Aux chefs d’entreprise séduits par les promesses de gains en productivité et baisse de coûts ? Il n’est pas certain que la seule démarche individuelle et autoapprenante, sous l’influence de discours vantant les prouesses des outils génératifs, suffise pour garantir le développement d’une habilité à contextualiser et à prendre du recul…
Conclusion
Depuis son entrée en scène remarquable, l’intelligence artificielle générative ne cesse de gagner du terrain dans de nombreux secteurs d’activité et on ne peut ignorer ni les défis qu’elle impose ni les enjeux qu’elle soulève : « l’IA et surtout l’IA générative (IAg) se sont installées quotidiennement dans les débats sur la transformation de nombreuses activités humaines… » (Chartron, 2023)
L’exploration ontologique de l’intelligence artificielle générative souligne avec force l’impermanence du concept. Elle fait apparaître non seulement une nature plurielle et protéiforme, mais aussi un caractère l’ambivalent, propre à toutes les techniques.
Ainsi, la notion d’intelligence artificielle générative ne semble pas encore établie comme valeur stable et unique dans le langage courant et recouvre une multitude de réalités de compréhension, d’usages et d’interactions communicationnelles. Tenter de définir l’intelligence artificielle générative, en la résumant à sa seule capacité à générer des contenus multiples, semble non pertinent, car nous sommes en présence d’une « dichotomie dans la compréhension et l’application du terme IA générative ». (García-Peñalvo & Vázquez-Ingelmo, 2023). Certes, l’IAg est souvent associée aux contenus qu’elle produit, mais elle peut aussi être appréhendée à travers une grande variété de processus de génération par conversion, de même que par la multitude de techniques permettant aux systèmes d’IAg de performer. Ainsi, la métaphore de la forêt digitale et ses trois strates — la canopée (contenus), le sous-bois (processus de conversion), le parterre (techniques) — sied on ne peut mieux à l’image de l’écosystème prolifique que représente l’IAg.
La question de « l’intelligence » de l’IA — sujet qui ne fait pas consensus — met en évidence des compétences indéniables pour la résolution de problèmes par la maîtrise de méthodes mathématiques et autres programmes informatiques. Mais si l’intelligence artificielle possède des aptitudes computationnelles désormais phénoménales, « elle ne comprend pas le monde au sens où les humains le comprennent ; elle n’est pas une qualité unique permettant d’accomplir l’ensemble des tâches dont les humains sont capables » (Andler, 2023, p. 47). Pourtant, la technique de l’IAg ouvre aussi la voie à de nouvelles perspectives pour la matérialisation de la pensée humaine. Elle agit comme un amplificateur des facultés idéatives humaines : en facilitant leur corporisation, elle permet l’hypergénèse idéative. Mais par ce même mécanisme ambivalent, elle peut conduire à un rétrécissement idéatif, tel un goulet d’étranglement qui, poussé à l’extrême, conduit à l’hypogénèse idéative.
Du point de vue de l'ontophanie numérique, l'IAg confirme sa nature polysémique et polymorphe. Elle est à la fois un médium numérique et algorithmique, mais également un artefact numérique et cognitif, doté d'une agentivité fonctionnelle spécifique. Cette phénoménalité protéiforme reconfigure l'espace interactionnel Homme-Machine. On observe alors un possible glissement anthropomorphique, où le recours au langage naturel dans un leurre conversationnel joue un rôle central.
Alors, de quoi l’intelligence artificielle générative est-elle la révolution ? Nous empruntons les mots de S.Vial pour avancer le postulat suivant : l’intelligence artificielle générative est une « révolution phénoménologique, c’est-à-dire une révolution de la perception », dans la mesure où elle « ébranle nos habitudes perceptives de la matière et, corrélativement, l’idée même que nous nous faisons de la réalité ».
Quelle est cette nouvelle réalité que l’IAg tend à instaurer ? Quelles nouvelles attitudes ou représentations s’installent au fil des interactions avec les agents artificiels ? Si le langage naturel n’est plus le seul apanage de l’Homme, comment son usage par la machine influe-t-il sur la création de sens, la subjectivité et la multiplicité des interprétations ? Ces questionnements ouvrent la voie à de nouvelles investigations sur le terrain, où « l’observation des pratiques, qu’elles soient individuelles ou collectives, nécessite alors d’adopter une approche de l’action envisagée comme un processus en tension entre les savoirs mobilisables, les compétences immédiates, les habitus, les arts de faire, les désirs d’agir… » (Chaudiron & Ihadjadene, 2010).
Bibliographie
Alombert, A. (2023). Panser la bêtise artificielle : Organologie et pharmacologie des automates computationnels. Appareil, 26. https://doi.org/10.4000/appareil.6979
Andler, D. (2023). Intelligence artificielle, intelligence humaine : La double énigme. GALLIMARD.
Bachimont, B. (2010). Le sens de la technique—Bruno Bachimont—Librairie Eyrolles. Encre marine. https://www.eyrolles.com/Loisirs/Livre/le-sens-de-la-technique-9782350880358/
Bergson, H. (2023). Intelligence et intuition. Payot & Rivages. https://www.payot-rivages.fr/payot/livre/intelligence-et-intuition-9782228934589
Boivin, B., Chane-Sane, M., Fritz-Corallini, L., Gonod, B., Mis, M., & Richardot, E. (2024, mars 21). Journées d’étude « Intelligence artificielle : Écosystèmes, enjeux, usages. Une approche interprofessionnelle » • Jour 1 : « Écosystème et enjeux », 13 novembre 2023 [Text]. https://bbf.enssib.fr/tour-d-horizon/journees-d-etude-intelligence-artificielle-ecosystemes-enjeux-usages-une-approche-interprofessionnelle-jour-1-ecosysteme-et-enjeux-13-novembre-2023_71899
Cardon, D., Cointet, J.-P., & Mazières, A. (2018). La revanche des neurones. L’invention des machines inductives et la controverse de l’intelligence artificielle. Réseaux, 211(5), 173‑220. https://doi.org/10.3917/res.211.0173
Chartron, G. (2023). L’IA générative : Repères, enjeux et contextualisation. Médiadoc, 31, 12.
Chaudiron, S., & Ihadjadene, M. (2010). De la recherche de l’information aux pratiques informationnelles. Études de communication. langages, information, médiations, 35, Article 35. https://doi.org/10.4000/edc.2257
Commission de la science et de la technique au service du développement. (2022). La quatrième révolution industrielle au service d’un développement inclusif (Science et technique au service du développement Vingt-cinquième session; p. 21). Nations Unies. https://unctad.org/system/files/official-document/ecn162022d2_fr.pdf
Compiègne, I. (2010). La société numérique en question(s). Éditions Sciences Humaines; Cairn.info. https://www.cairn.info/la-societe-numerique-en-questions--9782361060077.htm
Crawford, K. (2023). Contre-atlas de l’intelligence artificielle. Zulma Essais. https://www.zulma.fr/livre/contre-atlas-de-lintelligence-artificielle-3/
De la Higuera, C., & Iyer, J. (2024). IA pour les enseignants : Un manuel ouvert. https://www.ai4t.eu/textbook/
de Saussure, F. (1995). Cours de Linguistique générale (Grande bibliothèque). Payot & Rivages.
Devillers, L. (2024). Les systèmes d’Intelligence Artificielle et le langage. Enjeux d’éthique: Raison présente, N° 228(4), 65‑72. https://doi.org/10.3917/rpre.228.0065
Dubar, C. (2007). Les sociologues face au langage et à l’individu. Langage et société, 121‑122(3‑4), 29‑43. https://doi.org/10.3917/ls.121.0029
Enthoven, R. (2024, février 7). Raphaël Enthoven : “L’esprit est cette étrange étoffe dont l’humanité est faite et que la machine ne synthétise pas” | Philosophie magazine. philomag. https://www.philomag.com/articles/raphael-enthoven-lesprit-est-cette-etrange-etoffe-dont-lhumanite-est-faite-et-que-la
Ganascia, J.-G. (2024, avril 29). INTELLIGENCE ARTIFICIELLE GÉNÉRATIVE [Webpage]. Encyclopædia Universalis; Encyclopædia Universalis. https://www.universalis-edu.com/encyclopedie/intelligence-artificielle-generative
García-Peñalvo, F., & Vázquez-Ingelmo, A. (2023). What Do We Mean by GenAI? A Systematic Mapping of The Evolution, Trends, and Techniques Involved in Generative AI. International Journal of Interactive Multimedia and Artificial Intelligence, 8(4), 7. https://doi.org/10.9781/ijimai.2023.07.006
Garçon, A.-F. (2022). Mais qu’est-ce qu’un artefact ? e-Phaïstos. Revue d’histoire des techniques / Journal of the history of technology, X‑2, Article X‑2. https://doi.org/10.4000/ephaistos.10392
Gardner, H. (2008). Les intelligences multiples—La théorie qui boulevèrse les idées reçues (Éditions Retz). https://www.editions-retz.com/enrichir-sa-pedagogie/mes-connaissances-educatives/les-intelligences-multiples-9782725627878.html
Gefen, A. (2022). IA : Pour une histoire culturelle. Revue d’histoire culturelle, 4. https://doi.org/10.4000/rhc.1204
Grinbaum, A. (2023). Parler avec les machines: Études, Septembre(10), 55‑66. https://doi.org/10.3917/etu.4307.0055
Grinbaum, A., Chatila, R., Devillers, L., Martin, C., Kirchner, C., Perrin, J., & Tessier, C. (2023). Systèmes d’intelligence artificielle générative : Enjeux d’éthique (p. Avis 7 du CNPEN) [Report]. Comité national pilote d’éthique du numérique. https://cea.hal.science/cea-04153216
Grozdanovski, L. (2022). L’agentivité algorithmique, fiction futuriste ou impératif de justice procédurale ?Réflexions sur l’avenir du régime de responsabilité du fait de produits défectueux dans l’Union européenne. Réseaux, 232‑233(2‑3), 99‑127. https://doi.org/10.3917/res.232.0099
Guichard, J. (2007). Acteur social (social actor). In Orientation et insertion professionnelle (p. 3‑10). Dunod. https://doi.org/10.3917/dunod.guich.2008.01.0003
Kohler, A. (2020). Relation entre IA symbolique et IA forte. https://hal.science/hal-02444894
Kohler, D., & Weisz, J.-D. (2016). Industrie 4.0 : Comment caractériser cette quatrième révolution industrielle et ses enjeux ? Annales des Mines - Réalités industrielles, vembre 2016(4), 51‑56. https://doi.org/10.3917/rindu1.164.0051
Leveau-Vallier, A. (2023). INTRODUCTION À L’IA GÉNÉRATIVE. Hypothèses. https://hyper.hypotheses.org/161
Lévy, P. (2015). Le medium algorithmique. Sociétés, 129(3), 79‑96. https://doi.org/10.3917/soc.129.0079
Malabou, C. (2020). Questionner « l’intelligence » des machines. Multitudes, 78(1), 134‑141. https://doi.org/10.3917/mult.078.0134
Marsault, X., & Nguyen, H. M.-C. (2022, octobre 19). Les GANs : Stimulateurs de créativité en phase d’idéation. HAL-SHS : Architecture. https://doi.org/10.1051/shsconf/202214706003
Morin, E. (2005). Introduction à la pensée complexe. Éditons du Seuil.
Pallanca, O., & Read, J. (2021). Principes généraux et définitions en intelligence artificielle. Archives des Maladies du Coeur et des Vaisseaux - Pratique, 2021(294), 3‑10. https://doi.org/10.1016/j.amcp.2020.11.002
Perea, F. (2022). Des objets qui parlent ? Et ce qui reste aux humains. MkF éditions.
Pinède, N. (2019). Introduction. Dispositifs numériques et organisations. Entre permanences, tensions et changements. Les Cahiers du numérique, 15(4), 9‑16. https://doi.org/DOI:10.3166/LCN.15.4.9-16
Rabardel, P. (1995). Les hommes et les technologies; approche cognitive des instruments contemporains. Armand Colin. https://hal.science/hal-01017462
Richard, J.-F. (2024, mars 8). INTELLIGENCE - Universalis Edu. Encyclopædia Universalis. https://www-universalis-edu-com.ezpupv.scdi-montpellier.fr/encyclopedie/intelligence/
Saporta, G. (2018). Une brève histoire de l’intelligence artificielle. https://cnam.hal.science/hal-02471743
Tijus, C. (2024). Après-propos. L’intelligence artificielle : Une autre intelligence ? Enfance, 1(1), 51‑60. https://doi.org/10.3917/enf2.241.0051
Verlaet, L. (2022). Le constructivisme numérique : Modèle épistémologique pour concevoir des artefacts numériques. https://doi.org/10.34745/NUMEREV_1860
Vial, S. (2013). L’ être et l’écran : Comment le numérique change la perception. Presses Univ. de France.
Vial, S. (2014). Ce que le numérique change à autrui : Introduction à la fabrique phénoménotechnique de l’altérité. Hermès, La Revue, 68(1), 151‑157. https://doi.org/10.3917/herm.068.0151
Notes
[1] Source : Parlement Européen
[2] L’expression « société numérique » fait référence à la société de l’information ou société en réseaux, avec la technique pour élément constitutif. (Compiègne, 2010)
[3] Référence à l’œuvre littéraire « Les liaisons dangereuses » de Pierre Choderlos de Laclos décortiquant le processus de duperie dans la mise en place d’un simulacre relationnel.
[4] Intelligence artificielle : définition et utilisation, source : Parlement Européen
[5] Le Deep learning ou l’apprentissage profond est une architecture qui relie plusieurs couches de neurones interconnectés pour résoudre des tâches complexes Source : Wikipédia
[6] Machine learning ou apprentissage automatique est un champ d'étude de l'intelligence artificielle qui se fonde sur des approches mathématiques et statistiques pour donner aux ordinateurs la capacité d'« apprendre » à partir de données, c'est-à-dire d'améliorer leurs performances à résoudre des tâches sans être explicitement programmés pour chacune. Source : Wikipédia
2 Opération grâce à laquelle il est possible de demander à l'intelligence artificielle de compléter des parties manquantes d'une image. Source : Future-Sciences
[8] GAN (Réseau antagoniste génératif) - classe d'algorithmes d'apprentissage non supervisé qui repose sur le Machine learning. Source :Wikipedia
[9] Réseau de neurones basé sur du Deep learning, utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. Source : Data franka Wiki
[10] Architecture d'apprentissage profond introduite en 2017, principalement utilisée dans le domaine du traitement automatique des langues (TAL) en servant de base aux grands modèles de langage, mais peut aussi servir à traiter d'autres modalités comme les images, les vidéos ou le son, parfois simultanément. Source : Wikipédia
[11] Source : Librairie Mollat. (2023, mai 19). Daniel Andler - Intelligence artificielle, intelligence humaine : La double énigme. https://www.youtube.com/watch?v=X7YNJOQt_x4
[12] Partie de la philosophie qui a pour objet l'étude des propriétés les plus générales de l'être, telles que l'existence, la possibilité, la durée, le devenir. ET [Dans la pensée contemporaine, notamment dans la phénoménologie et l'existent.] Partie de la philosophie qui a pour objet l'élucidation du sens de l'être considéré simultanément en tant qu'être général, abstrait, essentiel et en tant qu'être singulier, concret, existentiel. Source : Cnrtl.fr
[13] L’anthropomorphisme est compris ici dans le sens de la caractéristique d’un mécanisme (IAg) qui rappelle l’humain, à savoir l’utilisation du langage naturel.
[14] Note de L. Verlaet : la « signifiance » entend dépasser le sens rationnel généralement attribué à la « signification » tout en y intégrant la subjectivité des acteurs-interprétants, considérant que l’« on ne peut tenir pour négligeable l’intelligence ‹ émotionnelle › dont la portée est affective ou sensible, liée à un vécu et des souvenirs personnels » (Leleu-Merviel, 2004, p.127).