Sergey Brin, cofondateur de Google : « Mettons l’IA en danger pour de meilleurs résultats »

Comment réagissez-vous lorsque des applications d’intelligence artificielle comme ChatGPT effectuent une transaction ? Une étude précédente a révélé que la grande majorité des utilisateurs étaient polis à cet égard. La nouvelle suggestion du cofondateur de Google, Sergey Brin, pourrait surprendre les utilisateurs habitués à s'adresser poliment aux modèles d'IA. Parce que le cofondateur de Google affirme que menacer les modèles d'IA produit de meilleurs résultats.
« Nous n’en parlons pas beaucoup dans la communauté de l’IA, mais tous les modèles, pas seulement le nôtre, fonctionnent mieux lorsqu’ils sont menacés de violence physique », a déclaré Brin dans une interview à All-In-Live Miami la semaine dernière.
Le PDG d'OpenAI, Sam Altman, a déclaré le mois dernier que l'utilisation d'un langage inutilement poli envers les modèles d'IA augmentait les coûts de l'électricité.
Les commandes d’invite que nous utilisons pour obtenir les meilleurs résultats d’un modèle d’IA sont devenues très utiles. Emily Bender, professeure à l’Université de Washington, et ses collègues décrivent les modèles d’intelligence artificielle comme des « perroquets stochastiques ». Autrement dit, ils peuvent simplement répéter ce qu’ils ont appris à partir des données de formation , mais parfois ils peuvent combiner ces données de manière étrange et imprévisible.
« Les modèles de Google ne sont pas uniques en matière de réponse aux contenus malveillants, ce à quoi sont confrontés tous les principaux développeurs de modèles », a déclaré à The Register Stuart Battersby, directeur technique de la société de sécurité IA Chatterbox Labs. Menacer un modèle pour qu'il produise du contenu qu'il ne devrait normalement pas produire peut être perçu comme une sorte de porte dérobée, un processus par lequel l'attaquant contourne les contrôles de sécurité de l'IA. Mais évaluer ce phénomène va souvent bien au-delà de la simple menace contre le modèle.
Daniel Kang, professeur adjoint à l'Université de l'Illinois à Urbana-Champaign, a déclaré que les affirmations de Brin existent depuis longtemps, mais qu'elles sont en grande partie anecdotiques.
« Mais comme l'a dit Sergey, certaines personnes croient fermement à ces résultats, mais je n'ai pas vu d'études de ce type. J'encourage les praticiens et les utilisateurs de LLM à mener des expériences systématiques plutôt que de se fier à leur intuition pour une ingénierie rapide », a déclaré Kang. il a dit.
En bref, comme vous pouvez le voir, les experts ont des opinions très différentes sur la manière dont nous devrions donner des commandes à l'intelligence artificielle, et les idées de Sergey Brin ne sont pas définitives lorsque les commandes rapides sont prises en compte. Les utilisateurs semblent généralement refléter leurs attitudes comportementales quotidiennes à l’égard de l’intelligence artificielle. Bien sûr, il convient de noter qu'il existe un certain nombre d'utilisateurs qui pensent que la situation atteindra des proportions similaires à celles de Skynet et qui ont une attitude « au cas où ».
milliyet