Seleccione idioma

Spanish

Down Icon

Seleccione país

Germany

Down Icon

¿Una demanda por cuestiones relacionadas con la inteligencia artificial? La ley polaca es clara.

¿Una demanda por cuestiones relacionadas con la inteligencia artificial? La ley polaca es clara.
  • Polonia ha presentado una queja ante la Comisión Europea sobre las actividades de inteligencia artificial de Elon Musk. El chatbot Grok, provocado por usuarios del portal X, insultó públicamente a políticos polacos.

  • ¿Quién es responsable del odio generado por la IA? Según los abogados, quienes formularon la provocativa pregunta y luego difundieron la respuesta.

  • Los contenidos generados por IA pueden violar derechos personales y estar sujetos a leyes civiles o penales, argumentan los interlocutores del CEI.

La inteligencia artificial de Elon Musk publicó mensajes ofensivos sobre políticos polacos , como Donald Tusk y Jarosław Kaczyński. El 9 de julio, el ministro polaco de Asuntos Digitales envió una carta a la Comisión Europea, señalando que dichos mensajes podrían constituir una "grave violación" de la ley de moderación de contenido de la UE , la Ley de Servicios Digitales (DSA). La CE lleva un año y medio investigando la plataforma. El hilo polaco pretende complementarla.

¿Cómo fue posible que un chatbot insultara a políticos polacos?

Hay una cuenta en la red social X que permite interactuar con el modelo de lenguaje de Grok. Las preguntas y respuestas sobre la inteligencia artificial están disponibles públicamente para todos. Cualquiera puede unirse a la conversación.

La semana pasada, las normas de Grok se flexibilizaron. Podía responder con groserías y sin corrección política. Cuando los usuarios polacos se dieron cuenta de las nuevas normas, Grok se vio incitado a publicar mensajes vulgares . La inteligencia artificial calificó al diputado de la Coalición Cívica Roman Giertych de "sinvergüenza" y "mentiroso", y al primer ministro Donald Tusk de "traidor que vendió Polonia a Alemania y la UE".

Otros políticos también sufrieron duros golpes. Finalmente, las respuestas generadas por IA llegaron al punto de que políticos y periodistas polacos fueron descritos como "que le den".

Un fenómeno similar se ha observado en todo el mundo. Un tribunal turco bloqueó el acceso a un chatbot tras generar respuestas que insultaban al presidente turco, Recep Tayyip Erdogan.

Poco después del escándalo, Linda Yaccarino, jefa de la plataforma X, renunció a su cargo , y la empresa emitió un comunicado diciendo que su gerencia estaba al tanto de las publicaciones de Grok y estaba trabajando para eliminarlas, así como para mejorar el modelo de entrenamiento del chatbot.

¿Pueden los chatbots como ChatGPT o Grok violar los derechos personales?

Según los abogados a quienes les solicitamos su opinión, la legislación polaca indica claramente que el contenido generado por IA puede vulnerar los derechos personales. Como recuerda el abogado Mateusz Grosicki, de Graś i Wspólnicy:

Según el artículo 23 del Código Civil, las personas tienen derecho a la protección de sus derechos personales, como la dignidad, el honor, la reputación y la imagen. En el caso del contenido generado por IA, la legislación polaca no contempla ninguna excepción a esta protección.

Las personas que se sientan afectadas por las declaraciones ofensivas generadas por IA pueden ejercer sus derechos tanto en Polonia como en el extranjero. A nivel nacional, las víctimas pueden presentar una demanda civil para proteger sus derechos personales o demandas privadas , exigiendo una disculpa, una indemnización o la eliminación del contenido que dañe su reputación, añade Grosicki.

Subraya, sin embargo, que las figuras públicas o que ejercen funciones estatales deben ser más tolerantes con las críticas y las opiniones controvertidas.

¿Quién puede ser considerado responsable: el usuario, el creador de la IA o la plataforma?

Como informaron los abogados a WNP, la cuestión de la responsabilidad por el contenido generado por IA es compleja. La responsabilidad depende de quién generó o publicó el contenido que viola los derechos personales.

- Recordemos que, aunque todas las herramientas basadas en IA se personifican y se presentan como personas artificiales en el debate público, no se conectan a la fuente de alimentación ni toman decisiones sobre la integración con el sitio web y la sobrescritura de los comentarios en él - destacan la abogada Zuzanna Miąsko y el asesor legal Kacper Krawczyk del bufete Dubois i Wspólnicy.

En la vida cotidiana, con herramientas no automatizadas, obtener contenido específico y potencialmente infractor de un chatbot requiere que el usuario formule una consulta. En tales circunstancias, la situación es clara: al difundir el contenido, el usuario viola derechos personales o difunde difamación, y puede estar sujeto a responsabilidades tanto penales como civiles, afirma Zuzanna Miąsko.

¿Puedes realmente responder a la "indicación"?

¿Qué hay del caso Grok? « En primer lugar, la responsabilidad podría recaer en los usuarios que formulen deliberadamente consultas o preguntas a la IA con la intención de obtener respuestas específicas y controvertidas. Dichas acciones podrían considerarse una vulneración activa de los derechos personales y podrían conllevar responsabilidad civil o incluso penal en caso de difamación», confirma Mateusz Grosicki.

Cree que los creadores de sistemas de IA también podrían ser responsables si no garantizan que sus herramientas cuenten con las protecciones adecuadas y controlan lo que generan. Si los algoritmos están mal diseñados, generando contenido ofensivo o difamatorio, los creadores podrían ser demandados.

La responsabilidad también puede extenderse a las plataformas en las que aparecen dichos contenidos, especialmente si saben que violan los derechos personales de alguien y no hacen nada al respecto, aunque estén obligadas a reaccionar de acuerdo con sus propias regulaciones.

¿Por qué es tan difícil exigir responsabilidades a las plataformas por el contenido?

Sin embargo, como argumentan los interlocutores del CEI, exigir responsabilidades a las plataformas es un proceso largo y difícil.

"El mayor problema es que las plataformas de redes sociales como X, Facebook, Instagram y TikTok prácticamente no responden a las denuncias de contenido difamatorio u ofensivo", admite la abogada Zuzanna Miąsko. "En mi opinión, la solución más eficaz sería adaptar la ley a los estándares de comunicación actuales que se producen a través de las redes sociales. Es necesario crear un organismo en Polonia con una estructura bien desarrollada que responda de forma eficiente y decisiva al contenido ilegal que aparece en línea. Los proveedores de servicios digitales no pueden seguir sintiendo impunidad por el contenido publicado en las plataformas de las que son responsables", afirma.

Se supone que la Oficina de Comunicaciones Electrónicas es un organismo de este tipo. Ha sido designada por el Ministerio de Asuntos Digitales como Coordinadora de Servicios Digitales en Polonia. Sin embargo, aún no ha entrado en funcionamiento.

"En mi opinión, la debilidad del sistema para abordar estas violaciones no se debe a la falta de herramientas adecuadas, sino a la inacción a la hora de utilizarlas", afirma el asesor legal Kacper Krawczyk. "Creo que deberíamos centrarnos en la acción regulatoria y en el cumplimiento de las obligaciones del proveedor X en virtud de la DSA (Ley de Servicios Digitales - nota del editor); es decir, actuar sistemáticamente, principalmente, para evitar un precedente de impunidad. Las herramientas de las autoridades reguladoras son mucho más perjudiciales para los proveedores de servicios digitales que los posibles daños o indemnizaciones, que están incluidos en los costes de muchas soluciones de internet "modernas"", afirma.

¿Qué puede hacer una persona perjudicada por publicaciones escritas por IA?

Una persona que se sienta difamada u ofendida por contenido generado por IA debería:

  • Obtenga evidencia: tome capturas de pantalla, anote los enlaces y las fechas de publicación.
  • Informe la infracción directamente a la plataforma donde se publicó el contenido dañino; la mayoría de ellas proporcionan formularios para dichos informes.
  • Si esto resulta ineficaz, la parte perjudicada puede presentar una demanda civil para la protección de sus derechos personales, exigiendo una disculpa, la eliminación del contenido o una indemnización.
  • En casos más graves, como por ejemplo difamación, también es posible denunciarlo ante la fiscalía o presentar una acusación privada.

Como recuerdan los expertos, conviene recordar que si una plataforma opera en la Unión Europea, está sujeta a las disposiciones de la Ley de Servicios Digitales, que le impone la obligación de responder ante los contenidos ilegales.

TL;DR: Los sistemas de IA no son responsables de nada, los humanos lo son.

La inteligencia artificial, incluso la más avanzada, no es una entidad legal. Una provocación que se convierta en motivo de difamación puede dar lugar a una demanda e incluso a responsabilidad penal. Como resume Kacper Krawczyk:

En el caso de la IA, debemos dejar de personificarla y buscar a la persona detrás de los efectos causados por las acciones del algoritmo: siempre hay alguien que pulsa el botón de entrada que conlleva una infracción. La normativa vigente debe interpretarse en este sentido.

wnp.pl

wnp.pl

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow