Selecione o idioma

Portuguese

Down Icon

Selecione o país

America

Down Icon

Fale com profissionais médicos, não apenas com o ChatGPT, pedem os médicos de Ontário

Fale com profissionais médicos, não apenas com o ChatGPT, pedem os médicos de Ontário

O ChatGPT e ferramentas de inteligência artificial semelhantes podem, às vezes, responder às perguntas dos pacientes com precisão, mas pesquisadores médicos canadenses alertam que as informações precisam ser verificadas cuidadosamente antes de agir com base no que você vê.

O conselho dos pesquisadores veio à tona enquanto a Associação Médica de Ontário (OMA) organizou uma coletiva de imprensa esta semana, discutindo fontes de informação "faça você mesmo" — de mecanismos de busca a mídias sociais e chatbots — e seus impactos, bem como o que os pacientes podem fazer em vez disso.

É importante alertar as pessoas agora, disse a Dra. Valerie Primeau, psiquiatra de North Bay que lidera programas comunitários e de internação para saúde mental e dependência química, porque os pacientes estão cada vez mais recorrendo a ferramentas de IA.

Os chatbots fornecem resultados convincentes e empáticos — mas as informações podem ser falsas .

"Tenho pacientes que agora recorrem ao ChatGPT para obter conselhos e conversar", disse Primeau. "Portanto, prevejo que continuaremos com esse problema e, se não o resolvermos agora e ajudarmos as pessoas a lidar com isso , elas terão dificuldades."

O Dr. David D'Souza, um radio-oncologista de London, Ontário, que lidera pesquisas clínicas sobre tratamentos baseados em imagens para câncer, disse que, dependendo de como os pacientes interrompem o que a IA lhes diz, eles podem adiar os tratamentos convencionais.

"Um paciente veio até mim perguntando se deveria esperar alguns anos para tratar o câncer que havia sido diagnosticado, pois acredita que a IA personalizará os tratamentos contra o câncer para cada paciente", disse D'Souza aos repórteres. "Tive que convencê-lo de que ele deveria se tratar agora."

Mulher sorridente
A Dra. Zainab Abdurrahman sugere que os pacientes comparem as respostas do chatbot com o que dizem os sites de organizações médicas profissionais. (Tiffany Mongu/CBC)

Considerando que os consumidores usarão as ferramentas, a presidente da OMA, Dra. Zainab Abdurrahman, aconselhou que, se uma postagem disser "os médicos estão escondendo isso de você", ela sugere verificar os sites de grupos especializados relevantes, como associações provinciais de tratamento do câncer, para ver se eles comprovam isso.

Anúncios falsos , incluindo imagens geradas por IA, também podem enganar os pacientes, alertou Abdurrahman, que também é imunologista clínico e alergista.

A perda de nuances torna os resultados da IA mais difíceis de serem confiáveis

Embora a tecnologia esteja avançando, os chatbots de hoje respondem rotineiramente a consultas de saúde com informações falsas queparecem confiáveis .

Emum estudo , o Dr. Benjamin Chin-Yee, professor assistente no departamento de patologia e medicina laboratorial da Western University, e seus coautores inseriram quase 5.000 resumos de literatura médica e científica em grandes modelos de linguagem de IA, incluindo ChatGPT, e solicitaram resumos.

Eles descobriram que três quartos das versões de IA omitiam partes importantes de declarações cuidadosamente guardadas.

Por exemplo, o artigo do periódico pode dizer que um medicamento foi eficaz apenas em um determinado grupo de pacientes, enquanto o resumo omite esse detalhe importante, disse Chin-Yee, que também é hematologista.

Uma fotografia mostra telas exibindo o logotipo da DeepSeek, uma empresa chinesa de inteligência artificial que desenvolve modelos de linguagem de grande porte de código aberto, e o logotipo do chatbot de inteligência artificial ChatGPT da OpenAI em Toulouse, sudoeste da França, em 29 de janeiro de 2025.
Tecnologias de IA generativa, como chatbots, são baseadas em tecnologias de correspondência de padrões que fornecem o resultado mais provável para uma determinada pergunta. (Lionel Bonaventure/AFP/Getty Images)

"A preocupação é que, quando essa nuance de detalhes se perde, isso pode ser enganoso para os profissionais que estão tentando usar esse conhecimento para impactar sua prática clínica."

Chin-Yee disse que a IA é uma área ativa de pesquisa que está mudando rapidamente, com modelos mais novos que são mais semelhantes aos humanos e fáceis de usar, mas pode haver desvantagens em confiar apenas nas ferramentas.

Da mesma forma, David Chen, um estudante de medicina da Universidade de Toronto, comparou os resultados fornecidos pelos chatbots a 200 perguntas sobre câncer de um fórum do Reddit com as respostas fornecidas por oncologistas.

"Ficamos surpresos ao descobrir que esses chatbots foram capazes de executar tarefas com níveis de competência quase humanos, com base na avaliação de qualidade, empatia e legibilidade feita por nossa equipe médica", disse Chen.

Mas os resultados experimentais podem não refletir o que acontece no mundo real.

"Sem supervisão médica, é difícil confiar 100% em alguns desses resultados dessas tecnologias generativas", disse Chen, acrescentando que as preocupações com privacidade, segurança e confiança do paciente ainda não foram totalmente exploradas.

ASSISTA | Pesquisadores usam IA para ajudar a tratar pacientes com problemas cerebrais:
Espera-se que a inteligência artificial revolucione a área da saúde. E na Faculdade de Medicina da Universidade Memorial, a IA já está sendo usada no tratamento de pacientes com diversas doenças cerebrais. A professora de neurociência Michelle Ploughman mostrou a Carolyn Stokes, da CBC, seu laboratório no Miller Centre e demonstrou como a IA está mudando o atendimento aos pacientes.
Não confie em um único chatbot

Tecnologias de IA generativa, como chatbots, baseiam-se em tecnologias de correspondência de padrões que fornecem o resultado mais provável para uma determinada pergunta, com base nas informações com as quais foi treinado. Na medicina, porém, diagnósticos improváveis também podem ser importantes e não devem ser descartados.

Além disso, os chatbots podem causar alucinações — produzir resultados que parecem convincentes, mas são incorretos, inventados, sem sentido ou irrelevantes.

"Também foram publicados estudos de pesquisa que sugerem que há taxas de alucinação desses bots de bate-papo que podem chegar a mais de 20%", disse Chen, o que pode tornar o resultado "clinicamente errôneo".

Um homem de paletó esportivo e lenço de bolso sorri para a câmera
As informações médicas fornecidas pelos chatbots ainda não foram totalmente avaliadas para uso público, afirma o Dr. Eric Topol. (Nicholas Barrett)

Na primavera, o cardiologista Eric Topol, professor e vice-presidente executivo da Scripps Research em San Diego, Califórnia, publicou um livro, Superagers: An Evidence-Based Approach to Longevity , que analisou o impacto da IA na longevidade e na qualidade de vida.

"Há muitas histórias boas e ruins", disse Topol sobre os pacientes que usam chatbots. "Isso não foi avaliado sistematicamente de forma significativa para uso público."

Topol disse que aconselha as pessoas a consultarem vários chatbots e verificarem se estão recebendo informações confiáveis. Ele também sugeriu pedir citações da literatura médica, observando que às vezes elas não são reais e precisam ser verificadas.

O ideal, disse Topol, seria realizar um teste real de respostas de chatbots com dezenas de milhares de pessoas, monitorando quais testes foram realizados, qual diagnóstico foi dado e os resultados para aqueles que usaram fontes de IA e para aqueles que não usaram. Mas é improvável que empresas de tecnologia participem, pois nenhuma delas sairia ganhando, disse ele.

"O mundo é diferente agora e você não pode voltar no tempo", disse Topol sobre o uso inteligente das ferramentas.

cbc.ca

cbc.ca

Notícias semelhantes

Todas as notícias
Animated ArrowAnimated ArrowAnimated Arrow