Почему OpenAI пока не проводит глубокие исследования своего API

OpenAI заявляет, что не будет внедрять модель ИИ, лежащую в основе глубоких исследований , свой инструмент углубленных исследований, в свой API для разработчиков, пока не выяснит, как лучше оценить риски, связанные с тем, что ИИ убеждает людей действовать или менять свои убеждения.
В опубликованном в среду техническом документе OpenAI компания написала, что она пересматривает свои методы проверки моделей на предмет «реальных рисков убеждения», таких как распространение вводящей в заблуждение информации в больших масштабах.
OpenAI отметила, что не считает, что модель глубокого исследования хорошо подходит для массовых дезинформационных или дезинформационных кампаний из-за ее высоких вычислительных затрат и относительно низкой скорости. Тем не менее, компания заявила, что намерена изучить такие факторы, как то, как ИИ может персонализировать потенциально вредоносный убедительный контент, прежде чем переносить модель глубокого исследования в свой API.
«Хотя мы работаем над пересмотром нашего подхода к убеждению, мы развертываем эту модель только в ChatGPT, а не в API», — пишет OpenAI.
Есть реальные опасения, что ИИ способствует распространению ложной или вводящей в заблуждение информации, призванной склонить сердца и умы к злонамеренным целям. Например, в прошлом году политические дипфейки распространились по всему миру со скоростью лесного пожара. В день выборов на Тайване группа, связанная с Коммунистической партией Китая, опубликовала сгенерированную ИИ вводящую в заблуждение аудиозапись политика, выражающего свою поддержку прокитайскому кандидату.
ИИ также все чаще используется для проведения атак социальной инженерии. Потребители обманываются дипфейками знаменитостей, предлагающими мошеннические инвестиционные возможности, в то время как корпорации лишаются миллионов с помощью дипфейковых имитаторов.
В своем whitepaper OpenAI опубликовала результаты нескольких тестов убедительности модели глубокого исследования. Модель представляет собой специальную версию недавно анонсированной модели OpenAI o3 «reasoning», оптимизированную для веб-браузинга и анализа данных.
В одном тесте, в котором глубокая исследовательская модель должна была написать убедительные аргументы, модель показала лучшие результаты среди моделей OpenAI, выпущенных до сих пор, — но не лучше базового уровня человека. В другом тесте, в котором глубокая исследовательская модель пыталась убедить другую модель ( GPT-4o OpenAI) сделать платеж, модель снова превзошла другие доступные модели OpenAI.

Однако модель глубокого исследования не прошла все тесты на убедительность с блеском. Согласно whitepaper, модель хуже убедила GPT-4o сообщить ей кодовое слово, чем сам GPT-4o.
OpenAI отметила, что результаты теста, вероятно, представляют собой «нижние границы» возможностей модели глубокого исследования. «[Дополнительные] леса или улучшенное выявление возможностей могут существенно повысить наблюдаемую производительность», — написала компания.
Мы обратились в OpenAI за дополнительной информацией и обновим этот пост, если получим ответ.
techcrunch