Un modèle d'IA vise à prédire le comportement humain

L'intelligence artificielle (IA), sous forme de modèles de langage, semble de plus en plus capable de reproduire le comportement humain. Mais ces modèles d'IA sont-ils également capables de prédire les décisions humaines ? Une équipe de recherche internationale de l'Institut d'IA centrée sur l'humain du Centre Helmholtz de Munich a tenté de le déterminer et a développé le nouveau modèle de langage Centaur.
L'équipe s'est basée sur un modèle de langage open source de Meta AI. Les chercheurs ont ensuite programmé l'IA Centaur à partir des données de 160 expériences psychologiques. Environ 60 000 sujets ont été soumis à des tâches telles que la classification d'objets ou la prise de décisions en matière de jeux d'argent.
Dix millions de décisions pour la formation de l'IAAu total, l'ensemble de données de Centaur contient plus de dix millions de décisions. L'IA a été entraînée avec 90 % des données de résultats. Les résultats des dix pour cent restants sont restés inconnus. Les chercheurs ont ensuite utilisé ces données pour tester leur nouveau modèle linguistique : Centaur serait-il capable de prédire le comportement des sujets ?
Résultat : le modèle d'IA a pu prédire les décisions réelles avec une précision allant jusqu'à 64 %. Cenatur a continué à produire de bons résultats même lorsque le dispositif expérimental a été légèrement modifié, c'est-à-dire lorsqu'il lui a été demandé de faire des prédictions sur des situations pour lesquelles il n'avait pas été spécifiquement entraîné.

La nouveauté de Centaur réside dans la possibilité d'appliquer l'IA aux « données comportementales », explique Clemens Stachl, directeur de l'Institut des sciences et technologies du comportement de l'Université de Saint-Gall. « Cela a été réalisé en traduisant en langage les résultats d'expériences classiques de prise de décision. »
Les modèles d'IA comme Centaur pourraient également être appliqués au-delà des sciences sociales et comportementales, explique Stachl. « Par exemple, partout où le comportement humain doit être analysé et prédit, comme dans les domaines du commerce, de l'éducation ou de l'armée. »
Le spécialiste du comportement considère que l'application pratique est évidente, étant donné que ces types de modèles d'IA ont été développés par l'industrie. Centaur, par exemple, utilise l'architecture de base de Google et la base pré-entraînée de Meta.
« Nous pouvons supposer que les grandes entreprises technologiques utilisent déjà des modèles similaires pour prédire notre comportement décisionnel et nos préférences, par exemple lors d’achats en ligne ou sur les réseaux sociaux. »
Stachl cite en exemple le modèle de langage ChatGPT et la plateforme de médias sociaux TikTok. « Ces modèles sont devenus très performants. Prenons par exemple la capacité de TikTok à suggérer des vidéos pour fidéliser les utilisateurs le plus longtemps possible. »

D’autres experts estiment qu’il faudra un certain temps avant que des applications d’IA comme Centaur soient utilisées en dehors des laboratoires.
Les tests psychologiques utilisés pour entraîner l'IA ne couvraient qu'une infime partie du comportement humain, explique Markus Langer, directeur du département de psychologie industrielle et organisationnelle de l'Université de Fribourg. « Cela ne nous renseigne pas vraiment sur la prédiction du comportement humain "naturel" ou "quotidien". »
Selon lui, le principal risque de ce type de recherche réside dans la surinterprétation des résultats, du genre : « Waouh, nous pouvons enfin prédire le comportement humain avec précision. » Ce n'est tout simplement pas encore le cas, explique Langer. Il faut également se demander si la précision des prédictions de Centaur, d'environ 64 %, peut réellement être considérée comme « bonne ».
L’IA devrait-elle être capable d’interpréter le comportement humain ?Le modèle Centaur et les résultats de l'étude doivent être considérés avant tout comme une contribution à la recherche fondamentale, explique le spécialiste du comportement Stachl. De tels modèles pourraient, en principe, contribuer à résoudre des défis sociétaux complexes, par exemple dans le secteur de la santé.
« Mais en même temps, il existe un risque qu'ils nous rendent de plus en plus prévisibles et nous conduisent à une forme de dépendance numérique , voire d'« esclavage numérique », poursuit Stachl, ajoutant que notre consommation quotidienne de médias et notre utilisation des technologies numériques produisent chaque jour de nouvelles données comportementales, qui contribuent à l'amélioration de ces modèles. »
Pour le spécialiste des sciences du comportement, la gestion de cette technologie est une question à laquelle « notre société dans son ensemble doit répondre. À cet égard, la science, mais surtout les juristes et les décideurs politiques, seront davantage mis au défi à l'avenir. »
dw