Sur le net
Un confident ou un ami, un compagnon d’apprentissage, un thérapeute, parfois même un amoureux, un alter ego ou un proche décédé… Les « agents conversationnels », ces intelligences artificielles capables d’entretenir avec nous des échanges complexes, prennent aujourd’hui bien des formes. Et deviennent, pour beaucoup, des interlocuteurs privilégiés de la vie quotidienne. Avec des avantages et des risques encore difficiles à évaluer.
Avec plus de dix millions d’utilisateurs dans le monde, Replika propose de créer et de personnaliser un compagnon virtuel unique, « qui se soucie des autres » pour « écouter et dialoguer » à tout moment. Avec pour mission de « fournir un soutien amical et utile », expliquait sa fondatrice Eugenia Kuyda en 2023. Si l’application est l’une des plus célèbres, elle est loin d’être la seule. Xiaoice, son équivalent chinois développé par Microsoft, compte plus de 600 millions d'utilisateurs. En quelques années, l’offre s’est multipliée dans bien des domaines.
Sur character.ai, par exemple, on trouve des coachs sportifs, des professeurs de langue, de fausses célébrités, des camarades de jeu, des libraires pour conseiller des lectures, des assistants pour organiser des voyages ou s'entraîner à des entretiens professionnels… Tous virtuels, bien entendu, avec qui l’on peut discuter à l’envi de tel ou tel sujet. Et si on ne trouve pas chaussure à son pied, character.ai propose de créer son personnage de toute pièce, adapté aux besoins et aux désirs de chacun.
Thérapeutes virtuels
Ainsi, The Guardian rapporte l’histoire de Christa, qui, se sentant coincée dans son suivi thérapeutique classique, a décidé de concevoir un double « psychologue » avec des caractéristiques adaptées : « attentionnée » et « intelligente ». Un moyen pour elle d’avoir, toujours à disposition, une confidente disponible pour la conseiller et la soutenir, avec qui elle se sent libre de tout partager. Son cas n’est pas isolé et character.ai regorge de thérapeutes improvisés.
Désormais, les applications de bien-être et de soutien psychologique pullulent, dont les plus populaires comme Wysa et Youper peuvent se targuer d’avoir été téléchargé plus d’un million de fois chacune. Ces plateformes de suivi personnalisé vont parfois loin. « Project December » propose d’échanger avec un agent conversationnel qui simule les propos d’une personne décédée, après avoir rempli un long questionnaire sur le défunt et moyennant dix dollars.
La gestion du deuil est même à l’origine de Replika, sa créatrice ayant d’abord conçu une IA conversationnelle pour entretenir la mémoire d’un ami décédé. Son modèle, basé sur des milliers de conversations, avait pour but de pouvoir échanger avec lui comme elle le faisait de son vivant. Et c’est en voyant la relation particulière que les internautes nouaient avec cette réplique virtuelle que lui est venue l’idée de mettre au point son application.
Un simulacre séduisant
Bien que créée en 2017, c’est en 2020 que Replika a réellement percé, à l’instar d’autres applications comme Owlie ou Woebot, en pleine pandémie du Covid-19. Le confinement et les mesures de distanciation, avec leur lot de conséquences, dépression et anxiété, ont largement contribué à leur essor. Elles ont permis à des milliers de personnes de bénéficier d’un interlocuteur et de soutien constant dans une période de solitude et de stress.
Mais les raisons de succès sont aussi à chercher dans un contexte social plus global. « Il s’agit peut-être d’un effet de l’isolement général des individus, analyse Nicolas Rollet, sociologue, enseignant-chercheur à Télécom Paris et à l’Inria (Institut national de recherche en sciences et technologies du numérique). Les explications sont évidemment multiples, entre l’hypertrophie de l’individu, l’attractivité d’un autre disponible sans effort et sans contrepartie émotionnelle, la pression à la performance, peut-être aussi un fantasme de la modernité. Ce qui est particulier ici, c’est bien qu’un simulacre de réciprocité rend l’objet à la fois séduisant et gratuit. »
Les relations humaines se construisent souvent dans le débat, les désaccords, la confrontation ou l’incompréhension. Les agents conversationnels sont des interlocuteurs lisses, confortables, alignés sur l’utilisateur et faits pour répondre à ses attentes. Leur succès est peut-être aussi un « signe d'une forme d'appauvrissement du rapport à l’autre, de l'envie de l'autre, parce que l'altérité, ce n'est pas seulement “je t'utilise et je viens vers toi”, ça engendre des obligations », estime Nicolas Rollet, spécialisé dans les interactions humain/machine. Or, contrairement aux relations humaines, l’IA est une relation de service, que l’on peut éteindre à tout moment. En plus d’être, avant tout, un « divertissement, avec une forte dimension ludique », rappelle le sociologue.
Pour autant, le chercheur ne voit pas dans ces dialogues avec des êtres inanimés un phénomène récent. Est-ce si différent de l’enfant qui parle à ses jouets et les fait parler en retour ? « Le fait d'être attaché à des objets à qui on prête une dimension sociale, n’est pas nouveau. L’IA n’a a priori rien de social, tant que l’humain ne lui accorde pas, par des conduites concrètes, ce trait-là. C’est bien l’intelligence humaine qui agit socialement sur un type d’intelligence artificielle complexe ; c’est bien l’intelligence humaine qui se contente de ce simulacre et lui accorde tout un tas de traits qu’on prêterait d’ordinaire à un congénère ou un animal domestique. »
Limites
Les progrès technologiques encouragent cette tendance à projeter sur les IA des capacités d’écoute ou de compréhension qu’elles n’ont pas. Car leurs réponses sont de plus en plus précises et élaborées, elles saisissent et interprètent de mieux en mieux les intentions de leurs interlocuteurs humains. Mais elles ont leurs limites, et non des moindres. La plus importante est que ces IA n’ont pas de véritable « conception de l’interlocuteur », estime Justine Cassel, directrice de recherches à l’Inria et affiliée à l'université Carnegie Mellon. Un élément pourtant essentiel de toute interaction sociale.
Cette conscience permet d’adapter son discours au niveau de compréhension de l’autre, d’utiliser des formules de politesse et de la diplomatie linguistique, de laisser la parole aux autres pour favoriser le dialogue, ou encore de créer de la connivence. « Je vous vois, je vous entends, j'ai transformé ma parole pour que cela soit le plus utile possible. Je cherche à établir une relation de confiance et démontre mon intérêt pour notre conversation : ce sont des choses que ces systèmes pour l'instant ne gèrent pas », explique cette spécialiste des relations humains/machines.
Une autre limite de taille est leur manque de raisonnement. Aujourd’hui, les IA ont accès à un nombre considérable de documents et d’informations en ligne, qu’elles compulsent et synthétisent pour les restituer à l’utilisateur. « Mais ces systèmes ne font pas la différence entre des articles publiés, sourcés et revus par des éditeurs ou des journalistes et des articles rédigés par des enfants ou des complotistes, pointe la chercheuse. Ils ne savent pas distinguer le vrai du faux, n’ont pas d’esprit critique. » Un problème d’envergure à l’heure où de plus en plus d’élèves utilisent des agents conversationnels comme ChatGPT pour faire leurs devoirs.
Partenaire particulier
Ces failles sont au cœur des recherches de Justine Cassell, notamment dans l’éducation. Ses équipes développent ainsi des « partenaires d’apprentissage », des IA adaptées qui accompagnent les élèves dans leurs exercices. Ces agents conversationnels ont un aspect enfantin (jamais réaliste pour éviter toute confusion) et s’expriment comme eux, partant du principe que « les enfants apprennent des choses de leurs pairs qu’ils n'apprennent pas des adultes ». Ils dialoguent et les encouragent, partagent leurs joies quand ils réussissent et les poussent gentiment à la réflexion quand ils échouent.
Un « pair virtuel » qui permet de réfléchir à voix haute, dans un environnement ludique, sans jugement ni pression. Un outil pratique et utile qui vient en complément de l’enseignement en salle de classe, mais qui n’a pas pour objectif de le supplanter. Comme dans tous les autres secteurs de la société, la question est celle d’une vraie collaboration entre les individus et les machines, de concevoir et d’utiliser « l’IA comme partenaire » et non comme « oracle ».
Risques et bénéfices
Pour nombre de chercheurs, le problème n’est pas la technologie elle-même, mais l’usage qui en est fait, surtout quand les enjeux sociaux et économiques derrière sont considérables. Dans un rapport de 2024, le comité d’éthique du CNRS alerte sur les risques de « dépendance affective, d’addiction, d’emprise, de manipulation, de manque d’interactions avec autrui, voire de désocialisation » que peut engendrer l’utilisation d’agents conversationnels, avec qui l’usager tend à « développer l’illusion que se noue un lien intime et de confiance entre elle et lui, voire à s’y attacher ».
Les dangers pour le consommateur ne sont pas seulement ceux de la collecte, l’exploitation ou le piratage des données personnelles, parfois intimes, ils sont aussi d’ordre psychologiques et sociaux. Et bien que ces conséquences soient encore dures à évaluer, en raison de la nouveauté du phénomène, les experts du CNRS invitent à réfléchir à la place et au rôle de ces agents virtuels dans la société. À l’heure notamment où nombre d’entreprises cherchent à les « humaniser » un maximum, rendant parfois difficile la distinction entre un interlocuteur réel ou virtuel.
Si le rapport du CNRS a pour but d’appeler à la vigilance, il ne nie pas non plus les potentiels bénéfices de ces usages. Il rappelle que « certains robots sociaux pourraient faciliter des apprentissages, stimuler la curiosité et la créativité, conduire le patient à prendre régulièrement ses médicaments, aider à parler en public en dépassant sa timidité, à négocier avec des personnes issues de cultures différentes, pallier divers manques ou traumatismes. »
En ligne ou dans les médias, de nombreux utilisateurs d’agents conversationnels témoignent d’ailleurs de la manière dont ces confidents virtuels ont pu leur « donner confiance pour parler aux autres » ou « amélioré [leurs] relations », leur ont permis de « briser la solitude » ou de « surmonter [leurs] difficultés ». Les IA apparaissent alors comme des béquilles ou des marchepieds bienvenus. Tant que les usagers ne nourrissent pas à leur égard un attachement affectif problématique, comme a pu le démontrer une polémique en 2023, quand Replika a imposé des filtres pour limiter les fonctionnalités romantiques de ses bots.
Une régulation nécessaire
Tout dépend, en réalité, de ceux qui les fabriquent, résume la chercheuse Justine Cassel, par ailleurs membre du Conseil national du numérique. « Il y a des gens qui se suicident tous les jours, ils sont harcelés, isolés, et ils ont besoin d'être écoutés. Peut-être qu'il y a thérapeute virtuel bien fait, avec l'accord ou avec l'intervention d'un vrai thérapeute, qui peut les amener à accepter de parler avec une vraie personne. Mais ça, c'est un choix qui est fait par les personnes qui développent ces systèmes. »
D’où la nécessité, pour de nombreux experts, de réglementer le secteur afin d'éviter les abus ou les dérives. Comme cela a souvent été le cas à chaque révolution scientifique. « On sait fabriquer des voitures qui pourraient aller à 300 km heure, mais on bride les moteurs et on a une pratique éthique de la route qui fait qu’on limite les accidents, rappelle le sociologue Nicolas Rollet. On pourrait très bien avoir le même type de raisonnement avec le développement des IA parlantes. Il n’y a pas de raison qu’on ne régule pas cette technologie, comme on l’a fait pour toutes les autres. »
Le chercheur soutient l'idée d'un « progressisme vigilant », afin d'éviter les écueils de la panique morale d'un côté et ceux d'un enthousiasme naïf de l'autre. Le développement de l'intelligence artificielle pose de nombreux problèmes éthiques et polarise les débats. Certains intellectuels craignent que les IA dégradent le lien social, brutalisent la société et appauvrissent les relations humaines. Et les risques sont bien réels en fonction des usages, mais le problème n’est peut-être pas la machine elle-même. L’être humain qui est derrière, en revanche, semble comme toujours capable du meilleur comme du pire.
Le code à 7 caractères (précédé de « @ ») à côté du Nom est le Code MediaCongo de l’utilisateur. Par exemple « Jeanne243 @AB25CDF ». Ce code est unique à chaque utilisateur. Il permet de différencier les utilisateurs.
Les plus commentés
Politique « Le M23, avec ou sans le Rwanda, est actuellement quasiment incontesté dans la région » (Ronny Jackson)
26.03.2025, 21 commentairesProvinces Walikale - Centre : les FARDC bombardent l'aéroport de Kigoma après l'atterrissage d'un aéronef du M23
27.03.2025, 12 commentairesPolitique Cohésion nationale : "Un rapprochement Kabila-Tshisekedi est essentiel pour la sortir de la crise sécuritaire actuelle (Forces spéciales de la République)
27.03.2025, 10 commentairesPolitique « Ce que Ronny Jackson a dit relève de ses opinions personnelles » (Patrick Muyaya)
27.03.2025, 9 commentaires
Ils nous font confiance
Les «agents conversationnels» sont présents aujourd'hui dans de nombreux secteurs de la société, jouant le rôle d'assistants, compagnons, confidents (image d'illustration). Getty Images - portishead1