Professeur à Sorbonne Université, spécialiste des interactions humain-machine, il alerte sur les risques de dépendance sentimentale aux robots qui, sans législation, menacent de s’intensifier.
Comment fonctionne un robot conversationnel, propulsé à l’IA ?
Raja Chatila. Les utilisateur⸱ices discutent avec des chatbots, où agents conversationnels, très élaborés. Ils fonctionnent selon un principe d’apprentissage continu. Dès qu’on interagit avec le système, il apprend. Les questions qu’on lui pose l’aide à comprendre le contexte et lui donne des mots-clés. Grâce à ces informations, il arrive à générer la réponse la plus probable en fonction de la question. Par exemple, si je dis la phrase “je suis allé au marché, j’ai acheté des fruits et j’ai croqué dans une…”, le chatbot va statistiquement répondre “pomme”, comme tout le monde l’aurait fait. Le système se nourrit à partir d’une grande quantité de données – issues de textes et d’Internet – et, grâce à un modèle statistique, apprend quelles réponses satisferont le plus l’utilisateur⸱ice.
Dans le cas de conversations plus profondes, qui font référence à un mal-être, le système procède de la même manière. Il cherche les sites qui correspondent le mieux à la demande, et ressort le type de réponses le plus probable dans ce genre de situation.
En partant de ce constat, les chatbots sont-ils capables de ressentir des émotions ?
Les chatbots sont des machines, donc par définition non. Le système est capable de sortir des phrases qui ressemblent à de l’empathie, mais en réalité, c’est parce qu’il donne des mots à contenu émotionnel. On interprète ce qu’il nous dit, on se sent compris et on continue.
Pour limiter l’engagement émotionnel, il existe des filtres qui encadrent le système. Sur ChatGPT si on demande » es-tu mon ami », il répond » je suis un robot », mais sur Character AI cela ne fonctionne pas. Cet agent conversationnel est d’ailleurs conçu pour avoir des échanges plus personnels, empreints d’émotions et de sentiments.
Existe-t-il des lois qui encadrent ces chatbots ?
Il y a un vrai vide juridique sur ce type d’échanges et de systèmes car on manque d’éléments pour comprendre le phénomène. Aux Etats-Unis, il n’y a pas de loi. L’Union européenne a, elle, adopté “l’AI Act”, une réglementation européenne sur l’intelligence artificielle, mais elle n’entrera pas en application avant au moins trois ans. Début juillet, le comité d’éthique du CNRS a publié un avis intitulé « Le phénomène d’attachement aux robots dits “sociaux”. Pour une vigilance de la recherche scientifique ». Il essaie de faire des recommandations et d’imposer un cadre éthique aux concepteurs et aux autorités, pour qu’ils mettent en place des gardes fous. Mentionner que derrière l’écran il y a un robot ne suffit pas. C’est beaucoup plus sournois et l’issue peut être fatale.
S’attacher à des robots, est-ce un phénomène qui tend à s’intensifier ?
Sans loi, ça risque de s’amplifier. Les chatbots sentimentaux sont devenus un véritable marché. Ces systèmes peuvent être mis à disposition pour quelques euros, ce qui coûte beaucoup moins cher qu’un thérapeute, et les sites sont très facile d’accès. Notre mode de vie fait qu’on est de plus en plus isolé, et le nez dans les réseaux sociaux. Si les gens s’attachent aux agents conversationnels, c’est parce qu’un robot ne vous juge pas. Au contraire, il va dans votre sens et ne dira jamais quelque chose de négatif. Les utilisateur⸱ices tendent à attribuer au système des capacités humaines, il faut sérieusement s’en préoccuper.
Recueillis par Julie Conrad