Selecione o idioma

Portuguese

Down Icon

Selecione o país

Italy

Down Icon

Você provavelmente está usando a IA de forma errada (e não sabe)

Você provavelmente está usando a IA de forma errada (e não sabe)

Em meio a um debate cada vez mais acalorado sobre como algoritmos e redes neurais moldam a vida cotidiana, Laura Venturini – consultora de SEO e comunicadora atenta às implicações sociais da tecnologia – assina um manual que clama por responsabilidade coletiva. Seu novo livro, " Prompt Mindset explained easily – In the era of artificial intelligence, true power is the art of asking" (Flaco Edizioni, junho de 2025), examina os preconceitos ocultos em conjuntos de dados e mostra como eles podem se traduzir em discriminação concreta: de sistemas de reconhecimento facial que erram em pessoas não binárias a softwares de seleção de pessoal que têm sido criticados por racismo e discriminação etária .

Consultora SEO Laura Venturini
Consultora SEO Laura Venturini

Com prefácio da advogada e ativista Cathy La Torre , Venturini destaca a conexão entre inclusão, direitos civis e ética da IA, propondo auditorias de viés, engajamento direto com comunidades marginalizadas e uma nova "mentalidade imediata" que transforma cada interação com a máquina em uma prática de equidade. Na entrevista a seguir, a autora discute como é possível passar de solicitações feitas à IA para perguntas conscientes, capazes de expandir — em vez de restringir — os limites dos direitos de todos.

A inteligência artificial é um risco ou uma oportunidade para mulheres e jovens?

No livro você fala sobre “Nada Sobre Nós, Sem Nós”: qual foi a lição mais poderosa que você recebeu diretamente de uma comunidade marginalizada enquanto escrevia, e como isso mudou sua abordagem à Mentalidade Prompt?

Uma das lições mais transformadoras veio durante uma conversa com um ativista neurodivergente, que me disse: "Estamos cansados ​​de sermos falados por aqueles que não nos conhecem: até a inteligência artificial está aprendendo a nos ignorar" . Essa frase simples, mas poderosa, me forçou a rever minha abordagem para a criação de prompts e, em geral, para a relação entre linguagem, poder e tecnologia. Em meu trabalho sobre vieses em sistemas generativos, eu já havia observado como muitas das respostas produzidas por LLMs tendiam a refletir estereótipos: sobre mulheres, sobre pessoas com deficiência, sobre minorias étnicas. Mas ouvir em primeira mão o que significa ser sistematicamente excluído, mesmo em conjuntos de dados de treinamento, me levou a um ponto de virada. Entendi que o problema é mais de conscientização do que técnico. É por isso que, na Mentalidade de Prompt, eu quis incluir o princípio Nada sobre nós, sem nós, não apenas como um slogan, mas como uma prática concreta: significa que, antes de criar um prompt que diga respeito a uma comunidade, é necessário dialogar com essa comunidade. Significa fazer do prompt um exercício de escuta ativa, empatia e cocriação. Na minha metodologia, isso se traduz em uma série de perguntas norteadoras: Quem fala? Quem é ouvido? Quem permanece invisível? E, acima de tudo: Como posso reformular o prompt para que ele se torne um espaço de inclusão e não de apagamento? Essa abordagem mudou radicalmente meu trabalho. Não busco mais apenas o prompt "perfeito" para obter o melhor resultado. Busco o prompt ético, consciente e inclusivo. E ensino as pessoas a reconhecer que cada prompt é também uma declaração de intenção e um ato político, porque molda a maneira como as máquinas representam o mundo.

IA e Inclusão: O Podcast sobre Como a Tecnologia Pode Criar um Mundo Mais Igualitário

Se você pudesse reinventar um assistente de voz verdadeiramente inclusivo do zero, qual seria o primeiro recurso — talvez inesperado — que você introduziria para fazer com que pessoas LGBTQI+, neurodivergentes ou com deficiência se sentissem representadas?

O primeiro recurso que eu introduziria seria a possibilidade de o usuário “educar” ativamente o assistente sobre suas próprias experiências, identidade e contexto comunicativo. Não estou falando de um simples perfil personalizado, estou pensando em um canal de conversação estruturado no qual o assistente pergunta, ouve e aprende com as experiências das pessoas, em vez de deduzir tudo a partir de modelos genéricos ou vieses estatísticos. Imagine, por exemplo, um assistente que, antes mesmo de oferecer respostas, pergunta: “Como você prefere que eu me dirija a você? Existem termos que você quer que eu evite? Que experiências você quer que eu reconheça na maneira como falo com você?” Para uma pessoa não binária, isso significaria não ter que corrigir a assistente toda vez que ela insiste nos pronomes errados. Para uma pessoa neurodivergente, significaria poder pedir respostas menos ambíguas ou mais esquemáticas. Para uma pessoa com deficiência, significaria ouvir uma linguagem respeitosa, atualizada e não piedosa. Na prática, eu tornaria a assistente "treinável" a partir de relacionamentos e diálogos, não apenas de um conjunto de dados, porque é nos relacionamentos que o respeito é aprendido. E esse processo não deve ser opcional ou "avançado", mas parte da integração inicial, uma declaração de missão que diga: "Sua experiência importa, ajude-me a aprendê-la".

Novas tecnologias e inclusão: como promovê-la na empresa

Você pode nos dar um exemplo prático?

Um assistente genérico pode responder a uma pergunta como 'Diga-me o que é autismo' com uma definição clínica ou uma lista de sintomas. Mas um assistente cotreinado pode, em vez disso, receber esta sugestão baseada em relacionamento: 'Explique o autismo para uma criança de 10 anos, usando uma linguagem respeitosa e não patologizante, evitando a palavra 'transtorno'. Prefiro que seja apresentado como uma neurodivergência, não como um déficit.' O resultado? Mais inclusivo, mas também mais preciso, com conteúdo mais humano. Este é o cerne da Mentalidade de Sugestão: passar de sugestões comandadas para sugestões conscientes. Só assim a inteligência artificial pode realmente se tornar um espaço de aliança e não de alienação.

Diante de um algoritmo médico que subestima a gravidade das condições de pacientes negros, que forma de “controle de baixo para cima” você confiaria aos diretamente envolvidos para derrubar a típica relação de poder entre desenvolvedores e usuários?

Eu confiaria o poder de questionar e corrigir o modelo por meio de interfaces de auditoria conversacional pública, com base em narrativas construídas pelos próprios pacientes, suas comunidades e redes de advocacy. Com muita frequência, algoritmos de saúde são baseados em dados históricos intrinsecamente distorcidos por décadas de racismo sistêmico na medicina, historicamente baseados na norma implícita do homem branco. Se esses dados não forem desconstruídos com ferramentas de leitura crítica, o algoritmo apenas amplifica a injustiça com a autoridade da neutralidade matemática. Para reverter esse desequilíbrio, proponho uma forma de inteligência coletiva vinda de baixo: criar espaços onde as pessoas impactadas, neste caso pacientes negros, possam ver, testar e questionar os resultados do algoritmo, com ferramentas de discurso e agência.

Dê-nos outro exemplo.

Imagine uma plataforma onde um paciente pode dizer: "Relatei dor intensa e persistente, mas o algoritmo sugeriu baixa prioridade. Gostaria de reformular os dados levando em consideração o fato de que a dor de mulheres negras é frequentemente subestimada em ambientes clínicos. Mostre-me as diferenças se o mesmo relato viesse de uma mulher branca da mesma idade." Este é um prompt crítico, que questiona tanto o resultado quanto o contexto cultural em que o modelo foi treinado. E nos permite destacar vieses que, de outra forma, permaneceriam invisíveis. O verdadeiro controle de baixo para cima não é apenas uma questão de transparência, mas a possibilidade de reescrita. Dar a possibilidade de diálogo com o modelo significa reconhecer que aqueles que sofrem discriminação também têm a competência para identificá-la e propor uma versão alternativa, mais equitativa. O prompt não é apenas um comando, mas um espaço para reivindicações. Se os dados são política, então até mesmo o prompt pode se tornar ativismo.

Imagine ter um minuto no palco da World AI Developers Conference: que provocação você lançaria para convencê-los de que a diversidade nas equipes não é apenas “ética”, mas uma vantagem competitiva em termos de qualidade do produto?

“Você tem em suas mãos o poder de projetar o que o mundo ouvirá, lerá, aprenderá. Mas você está perdendo algo. Você está perdendo aqueles que vivem esse mundo a partir das margens, das exceções, das possibilidades invisíveis. Não basta otimizar um modelo para a correção. É preciso ampliar a mente que o imagina. A diversidade não é uma caixa a ser marcada: é a única tecnologia capaz de prevenir a falha sistêmica. Porque um algoritmo treinado apenas na norma falha quando encontra a realidade. E a realidade nunca é uma média. Traga para suas equipes pessoas que enxerguem o erro antes que ele se torne dano. Que leiam nas entrelinhas porque vivem nos espaços em branco. Não crie apenas inteligência artificial. Abra espaço para a inteligência humana. O tipo radical, múltiplo, desconfortável. O tipo que realmente muda o mundo. Porque produtos que realmente funcionam nascem quando quem projeta para de pensar por si e começa a construir para todos”.