Nous ne devons pas croire aveuglément à l’intelligence artificielle.

Grok, un chatbot développé par la société d'intelligence artificielle xAI, propriété d'Elon Musk, et fréquemment utilisé par les utilisateurs de X pour confirmer diverses opinions, a récemment attiré l'attention du monde entier avec ses réponses profanes et insultantes.
Suite aux réponses biaisées et insultantes de Grok, la fiabilité de l'intelligence artificielle (IA), que certains utilisateurs considèrent comme « absolument vraie », est une fois de plus mise en avant. Le professeur agrégé Dr Şebnem Özdemir, directeur du département des systèmes d'information de gestion de l'université d'İstinye et membre du conseil d'administration de l'Association pour les politiques d'intelligence artificielle (AIPA), a commenté la question, affirmant que toute information, qu'elle soit fournie par l'IA ou résidant dans le monde numérique, doit être vérifiée.
Özdemir a déclaré : « Même si les informations transmises de personne à personne nécessitent une confirmation, croire aveuglément à l'intelligence artificielle est une approche très romantique. En effet, cette machine se nourrit finalement d'une autre source. De même que nous ne devons pas croire les informations trouvées numériquement sans les vérifier, nous devons également garder à l'esprit que l'intelligence artificielle peut apprendre de la désinformation. »
Özdemir a déclaré que les gens font rapidement confiance à l'intelligence artificielle, ce qui est une erreur. Il a ajouté : « La capacité humaine à manipuler, à transmettre différemment ce qu'ils entendent ou à transformer quelque chose en quelque chose de totalement différent pour servir leurs propres intérêts, est un processus très courant. Les humains le font avec une intention et un objectif précis. Si l'on se demande si l'intelligence artificielle agit ainsi avec une intention ou un objectif précis, la réponse est non. En fin de compte, l'intelligence artificielle est une machine qui apprend des ressources qui lui sont fournies. »
« L'intelligence artificielle peut être entraînée de manière incorrecte ou biaisée »Özdemir, qui a souligné que l'intelligence artificielle a une structure qui apprend ce qu'on lui donne, tout comme les enfants, a souligné qu'on ne peut pas faire confiance à l'intelligence artificielle si l'on ne sait pas où et comment elle est nourrie.
Özdemir a déclaré : « L'intelligence artificielle peut être mal entraînée ou biaisée. En fin de compte, elle peut aussi être utilisée comme arme destructrice de réputation ou pour manipuler les sociétés. »
Suite aux réponses insultantes de Grok, Özdemir a répondu aux inquiétudes concernant l'IA qui échappe à tout contrôle : « Est-il possible de contrôler l'IA ? Non, ce n'est pas possible. Il est inadmissible de penser pouvoir contrôler quelque chose dont le QI progresse si rapidement. Nous devons l'accepter comme une entité. Nous devons trouver un moyen de faire des compromis, de communiquer et de rattraper notre retard. »
« Nous ne devrions pas avoir peur de l’intelligence artificielle, mais des gens qui ne se comportent pas moralement. »Özdemir a donné des exemples de la façon dont l'intelligence artificielle est devenue incontrôlable et a poursuivi :
En 2016, Microsoft a mené la célèbre expérience Tay. Tay peut en réalité être considéré comme une version primitive de Grok, ou peut-être une intelligence artificielle générative. Alors que la machine n'avait initialement aucune pensée négative envers l'humanité, en 24 heures, elle a appris des choses sur le mal, le génocide et le racisme auprès des Américains qui discutaient avec elle.
En fait, en moins de 24 heures, il a commencé à tweeter : « J’aimerais qu’on puisse mettre les Noirs et leurs enfants dans un camp de concentration pour être sauvés. » Ou, faisant référence au conflit américano-mexicain de l’époque, il a recommandé la construction d’un mur au Mexique. Tay n’a pas inventé cela tout seul. Il l’a appris des autres. Nous ne devrions pas avoir peur de l’intelligence artificielle, mais plutôt des personnes immorales.
Cumhuriyet