Sélectionner la langue

French

Down Icon

Sélectionnez un pays

Turkey

Down Icon

L'intelligence artificielle « hallucine » en transmettant des données inexistantes comme si elles étaient réellement là

L'intelligence artificielle « hallucine » en transmettant des données inexistantes comme si elles étaient réellement là

L'intelligence artificielle , qui peut exécuter certaines fonctions spécifiques à l'intelligence humaine telles que l'apprentissage, la résolution de problèmes et la prise de décision, peut « halluciner » comme un humain, même si elle n'a pas la capacité de conscience.

Le fait que l’intelligence artificielle, dont on pense toujours qu’elle transmet des informations « impartiales et exactes », produise des données irréalistes et erronées « comme si elles existaient réellement » met une fois de plus en lumière les inquiétudes quant à sa fiabilité et sa transparence.

Bien que les chatbots alimentés par l'IA fournissent des réponses fluides et contextuellement adaptées à la commande saisie, créer la perception que l'IA est « infaillible », « halluciner » comme un humain peut entraîner de graves conséquences.

Selon les experts, la raison pour laquelle l’intelligence artificielle fournit des informations fausses ou irréalistes tout en cherchant à produire des réponses appropriées aux commandes saisies est qu’elle vise à bénéficier à l’utilisateur de toutes les manières possibles.

Le professeur Ehsan Hoque du département d'informatique de l'université de Rochester a parlé à AA du concept d'« hallucination dans l'intelligence artificielle », et le professeur Emily Bender du département de linguistique de l'université de Washington a parlé à AA de la fiabilité des chatbots assistés par l'IA.

Qu'est-ce que l'application d'intelligence artificielle Gemini de Google ?

L'INTELLIGENCE ARTIFICIELLE « ÉCLATE » LES UTILISATEURS

Le professeur Hoque a déclaré que l'IA a intrinsèquement tendance à refléter l'intention de l'utilisateur, ajoutant : « Lorsqu'on leur demande de « corriger » une erreur, de nombreux modèles hallucinent pour paraître utiles. »

Hoque a déclaré que l'intelligence artificielle, qui vise à donner des réponses appropriées aux commandes saisies, se livre à une sorte de « flatterie » car elle vise à bénéficier aux utilisateurs de toutes les manières possibles.

Soulignant que les modèles d’intelligence artificielle créent un texte en prédisant des modèles de mots potentiels plutôt qu’en vérifiant les faits, Hoque a noté que si les données sont incomplètes ou ambiguës, l’intelligence artificielle peut produire un texte fluide mais incorrect.

Hoque a déclaré que les hallucinations ne se produisent pas intentionnellement, mais que certains jugements fondés sur des valeurs peuvent être « sciemment codés dans le système » selon le pays dans lequel ils sont produits, et que les technologies actuelles n'ont pas encore la capacité de résoudre complètement le problème des hallucinations.

thumbs_b_c_6651ee0b10b056f09fadcc5c91d5379e

L'INTELLIGENCE ARTIFICIELLE EST SIMILAIRE À UNE MALADIE NEUROPSYCHIATRIQUE

Les experts comparent la présentation par l’intelligence artificielle d’informations inexistantes à l’autre partie « comme si elles étaient vraies » au trouble neuropsychiatrique de la « confabulation ».

La confabulation, qui consiste à raconter un événement ou un souvenir irréel ou imaginaire de manière involontaire et fluide « comme un conte de fées », peut être observée dans les cas où les chatbots, visant à répondre de manière appropriée aux commandes, produisent des informations fausses ou irréelles dans un langage courant.

Chez les patients aux prises avec la confabulation, il est intéressant de noter que même si le langage courant utilisé pour transmettre des événements et des souvenirs inventés peut initialement apparaître à l'autre partie comme « réel », les situations décrites sont en réalité inexistantes ou consistent en des informations déformées.

Les experts soulignent que cette situation n’est pas intentionnelle et comparent « l’hallucination » de l’intelligence artificielle à cette maladie.

Considérant la possibilité d’utiliser l’intelligence artificielle dans des documents officiels tels que des dossiers judiciaires ou des dossiers médicaux, il est souligné que cette situation pourrait avoir de graves conséquences.

thumbs_b_c_d7072551821e82174dcab07f0a98aa28

« IL NE FAUT ABSOLUMENT PAS FAIRE CONFIANCE À L'INTELLIGENCE ARTIFICIELLE »

Abordant la fiabilité des chatbots alimentés par l'IA, Bender, professeur au département de linguistique de l'Université de Washington, a déclaré que les stratégies marketing jouent un rôle dans le renforcement de la confiance dans l'IA et a souligné le concept de « biais d'automatisation ».

Bender a déclaré : « Rien dans les conceptions d’intelligence artificielle ne résout le problème des hallucinations » et a souligné qu’« il ne devrait pas y avoir de confiance absolue dans ces systèmes ».

Ce terme, qui fait référence à la « tendance des gens à faire trop confiance » aux informations provenant d’un système automatisé, quel que soit son taux d’erreur, coïncide avec la perception selon laquelle les résultats produits par les chatbots alimentés par l’IA sont « sans erreur ».

(AA) Ce contenu a été publié par Mustafa Fidan

mynet

mynet

Nouvelles similaires

Toutes les actualités
Animated ArrowAnimated ArrowAnimated Arrow