Seleccione idioma

Spanish

Down Icon

Seleccione país

Spain

Down Icon

"La IA eliminará los trabajos mileuristas en los que se hacen tareas repetitivas"

"La IA eliminará los trabajos mileuristas en los que se hacen tareas repetitivas"

Facebook aún no había nacido y Google daba sus primeros pasos, a finales de los años 90, cuando a Inma Martínez su jefe en la empresa de telecomunicaciones británica Cable & Wireless le pidió que se convirtiera en Doña Internet.

Inma Martínez, miembro del Consejo de la Secretaría de Estado de Digitalización e Inteligencia Artificial en España (Sedia) y asesora de agencias internacionales para la IA para G7 y la OCDE.

"En ese momento, para comprender la red comencé a mirar los primeros sistemas de personalización que usaba Amazon. Era un algoritmo muy simple. Y ahí es como me metí de lleno en la inteligencia artificial (IA). Además, al vivir en Londres, una de las cunas de la IA, y conocer a los de DeepMind antes de que los comprara Google, he estado completamente metida en la salsa. He estado al principio de todo, de absolutamente todo esto", explica Martínez, que actualmente es miembro del Consejo de la Secretaría de Estado de Digitalización e Inteligencia Artificial en España (Sedia) y asesora de agencias internacionales para la IA para G7 y la OCDE.

Esta valenciana se ha convertido en una de las mayores expertas en IA del mundo. Toda su trayectoria ha estado ligada a las últimas tecnologías, siendo asesora en la UE, del Gobierno británico o el neerlandés y, desde hace relativamente poco, en el español, entre otros.

Carrera de autos locos

Para Martínez, hablar de inteligencia artificial va más allá de hablar de tecnología. La IA se ha convertido en un arma poderosa para los estados, y su control y regulación está siendo foco de tensiones.

"Es muy importante decir que hay una pérdida de liderazgo en el mundo político, mientras la IA sigue adelantándose y avanzando a unas velocidades vertiginosas. No tenemos una idea clara de para qué exactamente hay que usarla. Hay un vacío de respuestas y esa es la peligrosidad del momento. Un día nos vamos a despertar y Sam Altman habrá puesto en marcha su primera versión de la inteligencia artificial general. Él cree que esto es como ChatGPT, que lo puso en manos de las personas para que la gente fuera su grupo de testers. Pero estamos en un momento mucho más complejo", explica Martínez.

La investigadora define la situación actual como una carrera de autos locos cuyo culpable es OpenAI al lanzar ChatGPT prematuramente y que ha llevado a la competencia a pisar el acelerador para no perder posiciones. "Hay muchas empresas intentando coger un cacho de la tarta y anunciando novedades constantemente, lo que te hace ver lo rápido que avanza la IA, pero esta velocidad está sobre todo motivada por la competitividad y eso es un peligro", añade.

En esta carrera no todo son pilotos estadounidenses invirtiendo millones y millones de euros. China, a quien EEUU ha acorralado bloqueando la venta de componentes clave para que no fabrique sus propios microchips de alta generación, sorprendió al mundo en enero con el lanzamiento de DeepSeek.

"La capacidad de China para producir hardware y software competitivo está redefiniendo la geopolítica de la IA. Se prevé que el país asiático tendrá la ventaja clave para realmente desplegar la IA de manera que todo el mundo pueda usarla, dirigiéndose a un segmento de mercado masivo que busca soluciones asequibles y eficientes. De hecho, la competencia es tan intensa que empresas globales como BMW están considerando usar IA china (a través de una asociación con Alibaba) para sus coches en el mercado chino, especialmente si las políticas proteccionistas de Estados Unidos continúan. Esto demuestra cómo las empresas están tomando decisiones estratégicas basadas en la elección de proveedores de IA, más allá de las grandes potencias occidentales", asegura.

El poder de los agentes

El enorme avance de la inteligencia artificial parece acercarnos a la siguiente fase de esta tecnología, los agentes. Pero, de nuevo, las prisas por liderar el sector podrían tener sus consecuencias. "Líderes de Google DeepMind ya han advertido públicamente que la IA agéntica todavía no está lista para que se comience a usar. Esta IA es multimodal e independiente, lo que significa que puede tomar decisiones y realizar acciones sin consultar con el usuario. Por inercia, siempre buscará dar un resultado, incluso si no tiene el permiso o los datos correctos, lo que podría llevar a alucinaciones y a decisiones peligrosas", explica la experta valenciana.

Un poco más alejado en el horizonte, el sector tecnológico tiene el foco puesto en el desarrollo de una IA general capaz de superar el pensamiento humano. La intención de OpenAI u otras tecnológicas de adelantarse y anunciar su IAG (AIG, por sus siglas en inglés) prematuramente, podría poner a disposición de los usuarios un producto inacabado y peligroso, con capacidad de "suplantar a los humanos en tareas que fomentan el desarrollo cognitivo, llevando a que las personas se atonten y sean menos creativas", apunta la científica.

Pero incluso antes de la llegada de esta IA general, la preocupación se centra en una posible pérdida de empleos e incluso profesiones. Inma Martínez lo tiene claro: "Sí, la IA eliminará aquellos trabajos en los que una persona se dedica a hacer una única tarea repetitiva durante todo el día, normalmente empleos mileuristas, si esta tarea puede ser automatizada por un sistema. Pero el problema no es la tecnología en sí misma, sino el hecho de que hemos permitido que haya personas que trabajan en cosas sin respeto y sin propósito". Otras carreras, como la programación, tampoco tendrá sentido en unos años para la científica, que predice que las carreras creativas se pagarán "como el oro" porque será necesario que las realicen humanos.

Regulación

Esta falta de liderazgo político en inteligencia artificial se muestra al hablar de regulación. Mientras las Naciones Unidas y la Unesco han intentado establecer marcos éticos y de seguridad, la Unión Europea también puso en marcha el año pasado su propia Ley de inteligencia artificial en un intento por no quedarse rezagada. Pero en este caso, estas prisas se tradujeron, según la científica, en una norma mal acabada.

La investigadora apunta a que la ley habla de una IA centrada en el humano, pero no ofrece ninguna definición de lo que esto significa, no proporciona parámetros claros ni pautas sobre cómo las empresas deben actuar o cómo se debe certificar la IA, y supondrá grandes costos para pequeñas empresas.

El panorama es distinto en España, uno de los primeros países en Europa en lanzar su estrategia nacional con la propuesta de sandboxes regulatorios. "España ha sido lista al enfocar este asunto mediante campos de pruebas que permiten una interpretación y aplicación de la gobernanza de datos adaptada a cada sector industrial. Hemos acertado al enfocar esta hoja de ruta en potenciar las industrias clave para el PIB", asegura.

La investigadora insiste en que es fundamental encontrar un liderazgo político en IA capaz de actuar ahora para definir dónde cortarla, dónde potenciarla y, sobre todo, para qué usarla exactamente, "antes de que las sin razones y la falta de respuestas determinen un futuro sin propósito humano".

Expansion

Expansion

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow