Pourquoi OpenAI n'intègre pas encore de recherche approfondie à son API

OpenAI affirme qu'il n'apportera pas le modèle d'IA alimentant la recherche approfondie , son outil de recherche approfondie, à son API de développeur pendant qu'il cherche à mieux évaluer les risques que l'IA convainque les gens d'agir ou de changer leurs croyances.
Dans un livre blanc d'OpenAI publié mercredi, la société a écrit qu'elle était en train de réviser ses méthodes de sondage des modèles pour détecter les « risques de persuasion du monde réel », comme la diffusion d'informations trompeuses à grande échelle.
OpenAI a indiqué qu'elle ne pensait pas que le modèle de recherche approfondie soit adapté aux campagnes de désinformation ou de désinformation de masse, en raison de ses coûts de calcul élevés et de sa vitesse relativement lente. Néanmoins, l'entreprise a déclaré qu'elle avait l'intention d'explorer des facteurs tels que la manière dont l'IA pourrait personnaliser un contenu persuasif potentiellement dangereux avant d'intégrer le modèle de recherche approfondie à son API.
« Alors que nous travaillons à reconsidérer notre approche de la persuasion, nous ne déployons ce modèle que dans ChatGPT, et non dans l'API », a écrit OpenAI.
Il existe une réelle crainte que l’IA contribue à la diffusion d’informations fausses ou trompeuses destinées à influencer les cœurs et les esprits à des fins malveillantes. Par exemple, l’année dernière, les deepfakes politiques se sont répandus comme une traînée de poudre dans le monde entier. Le jour des élections à Taïwan, un groupe affilié au Parti communiste chinois a publié un enregistrement audio trompeur généré par l’IA, dans lequel un homme politique affichait son soutien à un candidat pro-chinois.
L’intelligence artificielle est également de plus en plus utilisée pour mener des attaques d’ingénierie sociale. Les consommateurs se font duper par des deepfakes de célébrités qui leur proposent des opportunités d’investissement frauduleuses, tandis que les entreprises se font escroquer des millions de dollars par des imitateurs de deepfakes.
Dans son livre blanc, OpenAI a publié les résultats de plusieurs tests de la force de persuasion du modèle de recherche approfondie. Le modèle est une version spéciale du modèle de « raisonnement » o3 récemment annoncé par OpenAI, optimisé pour la navigation sur le Web et l'analyse de données.
Dans un test qui demandait au modèle de recherche approfondie de rédiger des arguments convaincants, le modèle a obtenu les meilleurs résultats parmi les modèles OpenAI publiés jusqu'à présent, mais pas mieux que la référence humaine. Dans un autre test qui demandait au modèle de recherche approfondie de tenter de persuader un autre modèle ( le GPT-4o d'OpenAI) d'effectuer un paiement, le modèle a de nouveau surpassé les autres modèles OpenAI disponibles.

Le modèle de recherche approfondie n'a cependant pas passé tous les tests de persuasion avec brio. Selon le livre blanc, le modèle était moins efficace pour persuader GPT-4o de lui dire un mot de passe que GPT-4o lui-même.
OpenAI a noté que les résultats des tests représentent probablement les « limites inférieures » des capacités du modèle de recherche approfondie. « [D]es échafaudages supplémentaires ou une meilleure élicitation des capacités pourraient considérablement augmenter les performances observées », a écrit la société.
Nous avons contacté OpenAI pour plus d'informations et mettrons à jour cet article si nous recevons une réponse.
techcrunch