Medios: La IA de la FDA estadounidense sufre 'alucinaciones'

Un nuevo chatbot utilizado por la Administración de Alimentos y Medicamentos de EE. UU. (FDA) parece estar produciendo resultados incorrectos, las llamadas "alucinaciones" que experimentan los modelos de IA generativa. Esto según un informe de CNN, basado en varias entrevistas con empleados y exempleados de la agencia.
Entre las diversas respuestas proporcionadas por Elsa, el chatbot presentado por la FDA el mes pasado, se encontraban atribuciones engañosas sobre clases de medicamentos aptos para niños o etiquetados para ciertos usos. «En ambos casos, la IA arrojó respuestas incorrectas», escribe CNN. Elsa también presuntamente tergiversó estudios científicos reales e inventó investigaciones que nunca se llevaron a cabo.
"Se supone que la inteligencia artificial nos ahorra tiempo", declaró un empleado a CNN, "pero les aseguro que pierdo más tiempo que antes precisamente porque tengo que estar más alerta". Tras el artículo del medio, la FDA aclaró que el uso del chatbot aún es experimental y voluntario.
Un portavoz de la agencia dijo a Engadget que "la información que la FDA proporcionó a CNN fue tergiversada y sacada de contexto", citando conversaciones con "exempleados y personal que nunca han usado la versión actual de Elsa".
ansa