Selecione o idioma

Portuguese

Down Icon

Selecione o país

Netherlands

Down Icon

Um processo judicial sobre questões relacionadas à inteligência artificial? A lei polonesa é clara.

Um processo judicial sobre questões relacionadas à inteligência artificial? A lei polonesa é clara.
  • A Polônia apresentou uma queixa à Comissão Europeia sobre as atividades de IA de Elon Musk. O chatbot Grok, provocado por usuários do portal X, insultou publicamente políticos poloneses.

  • Quem é responsável pelo ódio gerado pela IA? Segundo advogados, são as pessoas que fizeram a provocação e depois disseminaram a resposta.

  • Conteúdo gerado pela IA pode violar direitos pessoais e estar sujeito à legislação civil ou criminal, argumentam interlocutores do CIS.

A inteligência artificial de Elon Musk publicou mensagens ofensivas sobre políticos poloneses , incluindo Donald Tusk e Jarosław Kaczyński. Em 9 de julho, o Ministro polonês de Assuntos Digitais enviou uma carta à Comissão Europeia, apontando que tais mensagens podem constituir uma "violação grave" da lei de moderação de conteúdo da UE , a Lei de Serviços Digitais (DSA). A CE conduz uma investigação sobre a plataforma há um ano e meio. O tópico polonês visa complementá-la.

Como é que um chatbot insultou políticos polacos?

Há uma conta na rede social X que permite interagir com o modelo de linguagem Grok. Perguntas e respostas sobre a inteligência artificial estão disponíveis publicamente para todos. Qualquer pessoa pode participar da conversa.

Na semana passada, as regras de Grok foram flexibilizadas. Ele podia responder usando palavrões e sem correção política. Quando usuários poloneses tomaram conhecimento das novas regras, Grok foi incitado a publicar mensagens vulgares . A inteligência artificial chamou o deputado da Coalizão Cívica Roman Giertych de "canalha" e "mentiroso" e o primeiro-ministro Donald Tusk de "traidor que vendeu a Polônia para a Alemanha e a UE".

Outros políticos também sofreram golpes. No fim das contas, as respostas geradas por IA chegaram ao ponto em que políticos e jornalistas poloneses foram chamados de "foda-se".

Um fenômeno semelhante foi observado em todo o mundo. Um tribunal turco bloqueou o acesso a um chatbot após ele gerar respostas que insultavam o presidente turco Recep Tayyip Erdogan.

Pouco depois do escândalo, Linda Yaccarino, chefe da plataforma X, renunciou ao cargo , e a empresa emitiu um comunicado dizendo que sua administração estava ciente das postagens de Grok e estava trabalhando para removê-las, bem como para melhorar o modelo de treinamento do chatbot.

Chatbots como ChatGPT ou Grok podem violar direitos pessoais?

De acordo com os advogados cuja opinião foi solicitada, a lei polonesa indica claramente que conteúdo gerado por IA pode violar direitos pessoais. Como lembra o advogado Mateusz Grosicki, de Graś i Wspólnicy:

De acordo com o Artigo 23 do Código Civil, os indivíduos têm direito à proteção de seus direitos pessoais, como dignidade, honra, reputação e imagem. No caso de conteúdo gerado por IA, a lei polonesa não prevê exceção a essa proteção.

"Pessoas que se sintam afetadas por declarações ofensivas geradas pela IA podem buscar seus direitos tanto na Polônia quanto no exterior. No âmbito nacional, as vítimas podem entrar com uma ação civil para proteger seus direitos pessoais ou entrar com ações privadas , exigindo um pedido de desculpas, indenização ou remoção de conteúdo que prejudique sua reputação", acrescenta Grosicki.

Ele ressalta, porém, que figuras públicas ou que exercem funções estatais devem ser mais tolerantes com críticas e opiniões controversas.

Quem pode ser responsabilizado: o usuário, o criador da IA ou a plataforma?

Como advogados disseram à WNP, a questão da responsabilidade por conteúdo gerado por IA é complexa. A responsabilidade depende de quem gerou ou publicou o conteúdo que viola direitos pessoais.

- Vamos lembrar que, embora todas as ferramentas baseadas em IA sejam personificadas e apresentadas como pessoas artificiais em discussões públicas, elas não se conectam à fonte de alimentação, nem tomam decisões sobre integração com o site e substituição de comentários nele - enfatizam a advogada Zuzanna Miąsko e o consultor jurídico Kacper Krawczyk do escritório de advocacia Dubois i Wspólnicy.

"No dia a dia, com ferramentas não automatizadas, obter conteúdo específico e potencialmente infrator de um chatbot exige que o usuário formule uma consulta. Nessas circunstâncias, a situação é clara: ao disseminar o conteúdo, o usuário está violando direitos pessoais ou disseminando calúnia, e pode estar sujeito a responsabilidade criminal e civil", afirma Zuzanna Miąsko.

Você pode realmente responder pelo "prompt"?

E quanto ao caso Grok? " Em primeiro lugar, a responsabilidade pode recair sobre os usuários que deliberadamente formulam consultas ou perguntas à IA com a intenção de obter respostas específicas e controversas. Tais ações podem ser consideradas violação ativa de direitos pessoais e podem acarretar responsabilidade civil ou mesmo criminal em caso de difamação", confirma Mateusz Grosicki.

Ele acredita que os criadores de sistemas de IA também podem ser responsabilizados caso não garantam que suas ferramentas tenham salvaguardas adequadas e controlem o que geram. Se os algoritmos forem mal projetados, resultando em conteúdo ofensivo ou difamatório, os criadores poderão ser processados.

A responsabilidade também pode ser aplicada às plataformas onde esse conteúdo aparece — especialmente se elas sabem que ele viola os direitos pessoais de alguém e não fazem nada a respeito, mesmo sendo obrigadas a reagir de acordo com seus próprios regulamentos.

Por que é tão difícil responsabilizar as plataformas pelo conteúdo?

No entanto, como argumentam os interlocutores do CIS, buscar responsabilidade das plataformas é um processo longo e difícil.

"O maior problema é que plataformas de mídia social como X, Facebook, Instagram e TikTok praticamente não respondem a denúncias de conteúdo difamatório ou ofensivo", admite a advogada Zuzanna Miąsko. "Na minha opinião, a solução mais eficaz seria adaptar a lei aos padrões de comunicação atuais, que ocorrem por meio das mídias sociais. É necessário criar um órgão na Polônia com uma estrutura bem desenvolvida que responda de forma eficiente e decisiva ao conteúdo ilegal que aparece online. Os provedores de serviços digitais não podem continuar impunes por conteúdo publicado em plataformas pelas quais são responsáveis", afirma.

O Escritório de Comunicações Eletrônicas deveria ser um desses órgãos. Foi designado pelo Ministério de Assuntos Digitais como Coordenador de Serviços Digitais na Polônia. No entanto, ainda não entrou em operação.

"Na minha opinião, a fragilidade do sistema em lidar com tais violações não decorre da falta de ferramentas adequadas, mas da falta de ação em seu uso", afirma o consultor jurídico Kacper Krawczyk. "Acredito que devemos nos concentrar em ações regulatórias e na execução das obrigações do provedor X sob a DSA (Lei de Serviços Digitais - nota do editor) – ou seja, agir sistematicamente, principalmente para evitar um precedente de impunidade. As ferramentas das autoridades reguladoras são muito mais prejudiciais aos provedores de serviços digitais do que potenciais danos ou indenizações, que estão embutidos nos custos de muitas soluções de internet 'modernas'", afirma.

O que uma pessoa prejudicada por postagens escritas por IA pode fazer?

Uma pessoa que se sinta difamada ou ofendida por conteúdo gerado por IA deve:

  • Proteja evidências – faça capturas de tela, anote links e datas de publicação.
  • Denuncie a violação diretamente à plataforma onde o conteúdo prejudicial foi publicado — a maioria delas fornece formulários para tais denúncias.
  • Caso isso não seja eficaz, a parte lesada pode entrar com uma ação civil para proteção de direitos pessoais, exigindo um pedido de desculpas, remoção do conteúdo ou indenização.
  • Em casos mais graves – por exemplo, difamação – também é possível denunciar o caso ao Ministério Público ou apresentar uma acusação particular.

Como lembram os especialistas, vale lembrar que se uma plataforma opera na União Europeia, ela está sujeita às disposições da Lei de Serviços Digitais, que lhe impõe a obrigação de responder a conteúdos ilegais.

TL;DR: Os sistemas de IA não são responsáveis por nada, os humanos são.

A inteligência artificial, mesmo a mais avançada, não é uma entidade legal. Uma provocação que se torne motivo para difamação pode resultar em processo judicial e até mesmo em responsabilidade criminal. Como resume Kacper Krawczyk:

No caso da IA, precisamos parar de personificá-la e procurar a pessoa por trás dos efeitos causados pelas ações do algoritmo – alguém sempre clica no botão de entrada, o que leva a uma violação. As regulamentações existentes devem ser interpretadas nesse espírito.

wnp.pl

wnp.pl

Notícias semelhantes

Todas as notícias
Animated ArrowAnimated ArrowAnimated Arrow