Os chatbots de IA são uma revolução, mas também uma ameaça. Especialista: Eles coletam muitos dados que podem acabar nas mãos erradas

Dados de chatbots de IA podem cair nas mãos de criminosos cibernéticos, serviços estrangeiros ou anunciantes e ser usados em detrimento dos usuários, alerta Mateusz Chrobok, especialista em segurança cibernética, em entrevista à PAP. Ele recomendou praticar a higiene digital e ser cético em relação ao conteúdo gerado.
Mateusz Chrobok, especialista em segurança cibernética e IA que administra uma plataforma educacional e um canal no YouTube com 157.000 seguidores. as pessoas notaram que as empresas de tecnologia que desenvolvem chatbots de inteligência artificial geralmente obtêm dados sobre os usuários da internet, incluindo mídias sociais, e com base nas informações que eles inserem nos chatbots.
"Com base nisso, geralmente somos perfilados por uma determinada empresa para que as respostas do chatbot sejam mais personalizadas para nós", explicou ele.
O especialista destacou que , a partir de prompts, ou seja, consultas que um determinado usuário insere no chatbot, as empresas podem ler informações sobre a linguagem que o usuário usa, aparência - no caso de fotos anexadas, visualizações, situação familiar, problemas, etc. Algumas empresas também solicitam acesso a informações do dispositivo do usuário, por exemplo. contatos, localização. "O DeepSeek chinês também coletou a maneira como digitamos no teclado, da qual podemos extrair muitos dados, como idade ou se estamos cansados ou com falta de sono em um determinado dia", observou Chrobok.
"Às vezes, somos tentados a abrir mão de nossos dados em troca de acesso gratuito a um chatbot, um modelo melhor, etc. Então, na verdade, estamos abrindo mão de nossa privacidade em troca de certos benefícios", observou ele. Ele ressaltou que o uso de chatbots traz o risco de vazamento de dados sensíveis. Chrobok relembrou uma situação de dois anos atrás, quando a OpenAI confundiu os índices de usuários do ChatGPT. Isso resultou em uma situação em que, após fazer login em sua conta, uma pessoa tinha acesso ao histórico de conversas de outra pessoa. "O problema afetou 1,2% dos usuários, mas na prática significa milhões de pessoas", ressaltou.
Outra ameaça à segurança associada aos chatbots é o ataque ATO, ou Account Takeover (PAP), destacou o especialista. Após assumir o controle da conta, o cibercriminoso pode obter acesso a dados do histórico de conversas do usuário, por exemplo: nome, sobrenome, número de telefone, número do cartão de crédito, se ele acidentalmente os inseriu ou compartilhou em algum documento, alertou Chrobok. "Pesquisas mostram que os modelos armazenam esse tipo de informação e, se forem treinados para isso, não podem ser facilmente apagados. Também existem maneiras de extrair esses dados de um chatbot", observou o especialista.
Ele acrescentou que algumas empresas permitem que os usuários desabilitem a opção de salvar o histórico ou treinar um modelo em seus dados. "Para informações muito sensíveis, é mais seguro instalar um modelo local no seu dispositivo ou servidor. Assim, há uma chance maior de que nossos dados não vazem", enfatizou.
Chrobok destacou que os dados coletados também podem ser usados para criar anúncios personalizados. "Imaginemos que estamos tendo um dia ruim ou lutando contra depressão, obesidade ou algum outro problema e os anunciantes usam essas informações para influenciar nossas decisões de compra, o que não necessariamente nos beneficiará. Aqui entramos no mundo cinzento da manipulação. O que achamos que seria bom para nós não é necessariamente bom para os criadores de modelos de IA e empresas que otimizam lucros", avaliou.
Segundo o especialista, o nível de proteção dos dados do usuário pode ser influenciado pelo país de origem do chatbot. "A DeepSeek, uma empresa chinesa, cria ótimos modelos como o r1, mas ele é bloqueado em muitos lugares porque, de acordo com a lei chinesa, seus criadores devem fornecer dados dos usuários às autoridades, e as autoridades podem, por exemplo, entregá-los aos serviços", destacou. Ele deu o exemplo de uma situação hipotética em que um funcionário americano escreve para um chatbot chinês e conta sobre seus problemas com sua família ou empresa. "As informações coletadas podem ser usadas pela China para recrutar essa pessoa como espiã ou para exercer influência de alguma outra forma. Acredito que, ao revelar nossas fraquezas, ficamos mais suscetíveis à manipulação em tal situação", enfatizou.
Chrobok observou que pesquisas mostram que os modelos refletem as opiniões de seus criadores. "Por exemplo, o DeepSeek chinês tem um sentimento negativo (tom do conteúdo gerado - PAP) ao falar sobre soldados americanos, e os modelos da OpenAI têm exatamente o oposto", destacou e acrescentou que "cada modelo é uma certa bolha de informação". "Eles não são neutros, mesmo que alguns criadores tentem fazê-los assim. Vale lembrar disso", enfatizou.
Questionado sobre a segurança do uso de chatbots como suporte emocional ou terapeuta — o que alguns usuários fazem — o especialista relembrou uma situação ocorrida em 2023 na Bélgica. Um homem muito consciente dos problemas relacionados ao aquecimento global estava escrevendo sobre isso com um chatbot. Em determinado momento, a IA lhe disse que se ele quisesse reduzir a quantidade de CO2 que gera, seria melhor que ele não existisse, então o homem tirou a própria vida. Foi o primeiro suicídio registrado após uma conversa com inteligência artificial, observou o especialista.
"Isso é extremo, mas mostra o que pode nos ameaçar quando pedimos conselhos à IA, compartilhamos nosso estado mental e opiniões com ela. As respostas que ela fornece são baseadas em estatísticas, o que significa que nem sempre serão precisas. Graças ao progresso da tecnologia, elas são cada vez mais assim, o que significa que confiamos nelas com mais frequência, e isso pode diminuir nossa vigilância", observou ele, acrescentando que quanto mais especializada a questão, mais – pelo menos por enquanto – os modelos de inteligência artificial estão errados.
"Isso pode ser significativamente melhorado com métodos técnicos como a Pesquisa Aprofundada (método avançado de análise de informações - PAP), mas nem todos sabem como usá-los. É por isso que incentivo o ceticismo em relação ao conteúdo gerado por chatbots", enfatizou o especialista.
Quando questionado sobre os riscos associados aos chatbots no local de trabalho, Chrobot deu um exemplo de 2023, quando um funcionário da Samsung carregou uma apresentação com dados secretos no ChatGPT, que posteriormente vazaram e poderiam ter sido obtidos por concorrentes. "Muitas empresas e gestores têm medo disso e, às vezes, proíbem completamente os funcionários de usar inteligência artificial. Na minha opinião, esse não é um bom caminho", disse o educador. Segundo ele, sem essa tecnologia, as empresas serão menos competitivas. "Você só precisa saber como usá-lo com segurança", observou ele.
Segundo Chrobok, o processo de implementação segura da IA nas empresas deve começar com o desenvolvimento da "higiene da IA", ou seja, educação dos próprios superiores e depois dos funcionários. "Em segundo lugar, medidas técnicas são importantes", destacou, explicando que existe todo um campo de soluções chamado Prevenção de Vazamento de Dados, no qual os empregadores podem investir. Isso inclui, por exemplo, modelos que avaliam quais dados podem sair da empresa e quais não podem. O especialista destacou que toda organização também deve ter regras para o uso de IA, que especifiquem, por exemplo, quais dados podem ser enviados para um chatbot, quais deles são sensíveis e quais devem ser marcados como gerados com inteligência artificial, porque, por exemplo, isso é exigido por lei.
Questionado se, em sua opinião, apesar dos riscos, a inteligência artificial deveria ser implementada em todas as empresas, o especialista afirmou que obrigar todos os empreendedores a usar IA seria "desumano". "Mas é melhor conhecer essa tecnologia porque ela pode ajudar você a se encontrar no mercado de trabalho ou agilizar o trabalho em si, para que haja menos trabalho e ele seja mais eficaz", disse ele.
"Estamos em um momento que alguns chamam de evolução, revolução ou usam outras palavras grandiosas. Ainda não é o momento em que a IA nos superará, embora em alguns aspectos certamente o seja", ressaltou. Ele enfatizou que a inteligência humana é limitada. "Os modelos de IA também têm suas limitações e ameaças, mas estão se tornando mais precisos e, no futuro, serão melhores que os humanos. Nossas habilidades e capacidades simplesmente serão mais fracas", disse ele.
Ele observou que está preocupado com a abordagem de algumas empresas em relação aos funcionários em conexão com o e-mail vazado do CEO de uma determinada empresa, no qual ele escreveu que "antes de contratar um humano, teste alguns modelos de IA". "Talvez este seja o futuro que nos espera, se nenhuma outra solução surgir pelo caminho. Apesar de tudo, sou fã da implementação de inteligência artificial para aprimorar nosso trabalho. Falar em "modismo temporário" ou "hype da IA" é, na minha opinião, perder um momento importante", enfatizou Chrobok.
Monika Blandyna Lewkowicz (PAP)
mbl/ mick/ mhr/
bankier.pl