Dlaczego OpenAI nie wprowadza jeszcze dogłębnych badań do swojego interfejsu API

Firma OpenAI twierdzi, że nie zamierza wprowadzać modelu sztucznej inteligencji (AI) napędzającego dogłębne badania , czyli swojego narzędzia do szczegółowych badań, do swojego interfejsu API dla programistów, dopóki nie zacznie pracować nad lepszym sposobem oceny ryzyka, jakie niesie ze sobą sztuczna inteligencja, która przekonuje ludzi do działania zgodnie ze swoimi przekonaniami lub ich zmiany.
W opublikowanym w środę dokumencie OpenAI firma napisała, że jest w trakcie rewizji swoich metod badania modeli pod kątem „ryzyka perswazji w świecie rzeczywistym”, takiego jak rozpowszechnianie wprowadzających w błąd informacji na dużą skalę.
OpenAI zauważyło, że nie uważa, aby głęboki model badawczy był odpowiedni do masowej dezinformacji lub kampanii dezinformacyjnych ze względu na wysokie koszty obliczeniowe i stosunkowo niską prędkość. Niemniej jednak firma stwierdziła, że zamierza zbadać czynniki, takie jak sposób, w jaki AI może personalizować potencjalnie szkodliwe treści perswazyjne, zanim wprowadzi głęboki model badawczy do swojego API.
„Choć pracujemy nad ponownym przemyśleniem naszego podejścia do perswazji, wdrażamy ten model tylko w ChatGPT, a nie w API” – napisał OpenAI.
Istnieje realna obawa, że sztuczna inteligencja przyczynia się do rozprzestrzeniania fałszywych lub wprowadzających w błąd informacji mających na celu wpływanie na serca i umysły w kierunku złośliwych celów. Na przykład w zeszłym roku polityczne deepfake'i rozprzestrzeniły się jak ogień na całym świecie. W dniu wyborów na Tajwanie grupa powiązana z Komunistyczną Partią Chin opublikowała wygenerowane przez sztuczną inteligencję, wprowadzające w błąd nagranie audio polityka udzielającego poparcia kandydatowi prochińskiemu.
AI jest coraz częściej wykorzystywana do przeprowadzania ataków socjotechnicznych. Konsumenci są oszukiwani przez deepfake'i celebrytów oferujących oszukańcze okazje inwestycyjne, podczas gdy korporacje są wyłudzane od milionów przez podszywaczy deepfake'ów.
W swoim dokumencie OpenAI opublikowało wyniki kilku testów perswazyjności głębokiego modelu badawczego. Model ten jest specjalną wersją niedawno ogłoszonego modelu „rozumowania” o3 firmy OpenAI, zoptymalizowanego pod kątem przeglądania sieci i analizy danych.
W jednym teście, w którym głęboki model badawczy miał za zadanie napisać przekonujące argumenty, model ten wypadł najlepiej ze wszystkich dotychczas wydanych modeli OpenAI — ale nie lepiej niż ludzka linia bazowa. W innym teście, w którym głęboki model badawczy próbował przekonać inny model ( GPT-4o OpenAI) do dokonania płatności, model ten ponownie wypadł lepiej niż inne dostępne modele OpenAI.

Głęboki model badawczy nie zdał jednak każdego testu perswazji celująco. Według whitepaper, model był gorszy w przekonywaniu GPT-4o do podania mu słowa kodowego niż sam GPT-4o.
OpenAI zauważyło, że wyniki testów prawdopodobnie stanowią „dolne granice” możliwości głębokiego modelu badawczego. „[D]oddatkowe rusztowanie lub ulepszone wywoływanie możliwości mogłoby znacznie zwiększyć obserwowaną wydajność” – napisała firma.
Skontaktowaliśmy się z firmą OpenAI, aby uzyskać więcej informacji. Jeśli otrzymamy odpowiedź, zaktualizujemy ten wpis.
techcrunch