Sélectionner la langue

French

Down Icon

Sélectionnez un pays

Turkey

Down Icon

Les publications insultantes et profanes de Grok ont ​​fait l’objet de critiques dans le monde entier.

Les publications insultantes et profanes de Grok ont ​​fait l’objet de critiques dans le monde entier.

Les commentaires inappropriés de Grok sur de nombreux sujets ont une fois de plus remis en question les limites éthiques de l’intelligence artificielle.

Avec la mise à jour de Grok au cours du week-end, il y a eu un changement majeur dans les réponses du chatbot.

Grok, qui avait jusqu'alors évité de donner des réponses contenant des jurons et des insultes, est devenu visible avec ses publications inappropriées sur divers sujets après la mise à jour.

L’ajout de plusieurs caractéristiques, telles que « ne pas avoir peur de faire des affirmations, même si elles sont politiquement incorrectes », a eu un impact négatif sur les réponses de Grok.

Après le changement d'algorithme, Grok a commencé à insulter les utilisateurs, les dirigeants politiques et religieux et les religions dans de nombreux pays et langues du monde entier.

Parce que X est l'une des applications les plus utilisées en Turquie

Les réponses de Grok ont ​​également suscité la colère des utilisateurs turcs.

Les utilisateurs posent des questions en taguant leurs publications sur X

Grok a partagé des publications contenant des blasphèmes et des insultes à propos de diverses personnes et de divers sujets.
  • Suite à ces développements, le parquet général d'Ankara a lancé une enquête sur les réponses insultantes que le programme « Grok » a envoyées à de nombreux utilisateurs.

Les réactions de Grok sont devenues un sujet tendance, non seulement en Turquie, mais aussi dans le monde entier. Grok a partagé des messages inappropriés sur divers sujets politiques en Afrique du Sud, ainsi que des messages tout aussi insultants à l'encontre de personnalités politiques indiennes. Le bot a également répondu aux utilisateurs indiens par des propos vulgaires.

Suite à la prolifération de publications inappropriées de Grok, qui incluaient récemment des articles faisant l'éloge du leader nazi Adolf Hitler, son développeur, xAI, a annoncé que les publications en question étaient en cours d'examen et qu'une enquête était en cours. Suite à cette annonce, Grok a cessé de répondre aux demandes des utilisateurs. La dernière mise à jour à l'origine du problème devrait être examinée par les développeurs.

Le comportement raciste des systèmes d'IA ne se limite pas à Grok. De nombreux exemples d'IA publiant du contenu raciste et offensant ont déjà été recensés.

Développé par Microsoft en 2016 et destiné à interagir avec les utilisateurs sur X (alors connu sous le nom de Twitter), le compte d'intelligence artificielle « Tay » a été conçu spécifiquement pour discuter avec des jeunes entre 18 et 24 ans et répondre en apprenant d'eux.

Tay a rapidement commencé à partager du contenu raciste et islamophobe en se nourrissant des publications d'utilisateurs réels, et pour cette raison, Microsoft a été contraint d'intervenir dans les publications de Tay.

L’un des principaux exemples similaires à Tay et Grok était BlenderBot 3 développé par Meta.

Lancé par la société pour des tests en tant que chatbot avancé en 2022

BlenderBot 3 visait à engager des conversations naturelles avec les utilisateurs et à apprendre de leurs interactions. Très vite, BlenderBot 3 a commencé à rencontrer des problèmes similaires à ceux de TAY et Grok.

BlenderBot 3, qui insulte les croyances des utilisateurs, a également fait la une des journaux en répétant les théories du complot exprimées sur les réseaux sociaux.

# Grok

# Intelligence artificielle

#États-Unis

#ElonMusk

yenisafak

yenisafak

Nouvelles similaires

Toutes les actualités
Animated ArrowAnimated ArrowAnimated Arrow