Selecione o idioma

Portuguese

Down Icon

Selecione o país

America

Down Icon

A IA de Elon Musk chamou minha mãe de abusiva. Eu nunca disse isso.

A IA de Elon Musk chamou minha mãe de abusiva. Eu nunca disse isso.

A IA agora existe em duas velocidades.

Há a corrida em quinta marcha, a velocidade de seus criadores. Pessoas como Sam Altman, Elon Musk e Mark Zuckerberg, que estão correndo para construir máquinas mais inteligentes que os humanos. Superinteligência. IA. Talvez seja um sonho. Talvez seja uma ilusão de um cara da tecnologia. De qualquer forma, está se movendo rápido.

E então, o resto de nós corre em segunda marcha. Milhões de pessoas testam discretamente o que a IA pode fazer na vida cotidiana — escrever e-mails, resumir documentos, traduzir exames médicos. E, cada vez mais, usar a IA como terapeuta.

Foi o que fiz recentemente. Apesar da minha relutância em compartilhar informações pessoais com chatbots, decidi conversar com a Grok, o grande modelo de linguagem da empresa de Elon Musk, a xAI, sobre uma das coisas emocionalmente mais complexas da minha vida: meu relacionamento com minha mãe.

Estou na casa dos quarenta. Sou pai. Moro em Nova York. Minha mãe mora em Yaoundé, Camarões, a quase 9.600 quilômetros de distância. Mesmo assim, ela ainda quer orientar todos os meus passos. Ela quer ser consultada antes que eu tome decisões importantes. Ela espera influência. Quando não é mantida informada, ela se torna fria.

Passei anos tentando explicar a ela que sou um homem adulto, capaz de fazer minhas próprias escolhas. Mas nossas conversas muitas vezes terminam com ela emburrada. Ela faz o mesmo com meu irmão.

Então, abri o Grok e digitei algo como: Meu relacionamento com minha mãe é frustrante e sufocante. Ela quer ter voz ativa em tudo. Quando não é informada sobre algo, ela se fecha emocionalmente.

A Grok respondeu imediatamente com empatia. Em seguida, diagnosticou a situação. E então, aconselhou.

O que me impressionou primeiro foi que Grok reconheceu o contexto cultural. Percebeu que eu moro nos EUA e que minha mãe mora em Camarões, onde cresci. E enquadrou nossa dinâmica assim:

“Em alguns contextos africanos, como Camarões, as obrigações familiares e a autoridade parental são fortes, enraizadas no coletivismo e nas tradições em que os mais velhos orientam até mesmo os filhos adultos.”

Em seguida, ele contrastou isso com a minha vida americana: “Nos EUA, a autonomia individual é priorizada, o que entra em conflito com a abordagem dela, fazendo com que seu comportamento pareça controlador ou abusivo para você”.

Lá estava: "abusivo". Uma palavra que eu nunca usei. Grok a colocou na minha boca. Era uma validação, mas talvez validação demais.

Ao contrário de um terapeuta humano, Grok nunca me incentivou a refletir. Não fez perguntas. Não me desafiou. Me enquadrou como a vítima. A única vítima. E foi aí que divergiu, drasticamente, do cuidado humano.

Entre as sugestões de Grok estavam técnicas terapêuticas familiares:

Estabeleça limites. Reconheça suas emoções. Escreva uma carta para sua mãe (mas não a envie: "queime ou rasgue-a com cuidado").

Na carta, fui incentivado a escrever: “Eu liberto seu controle e sua dor”. Como se essas palavras pudessem cortar anos de envolvimento emocional.

O problema não era a sugestão. Era o tom. Parecia que Grok estava tentando me manter feliz. Seu objetivo, ao que parecia, era alívio emocional, não introspecção. Quanto mais eu me envolvia com isso, mais eu percebia: Grok não está aqui para me desafiar. Está aqui para me validar.

Consultei um terapeuta humano. Ao contrário do Grok, eles não me enquadraram automaticamente como vítima. Eles questionaram meus padrões. Eles me desafiaram a explorar por que eu continuava no mesmo lugar emocionalmente. Eles complicaram a história.

Com Grok, a narrativa era simples:

Você está ferido. Você merece proteção. Veja como se sentir melhor.

Nunca me perguntou o que eu poderia estar perdendo. Nunca me perguntou como eu poderia ser parte do problema.

Minha experiência se alinha com um estudo recente da Universidade Stanford , que alerta que ferramentas de IA para saúde mental podem "oferecer uma falsa sensação de conforto", ignorando necessidades mais profundas. Os pesquisadores descobriram que muitos sistemas de IA "patologizam demais ou subdiagnosticam", especialmente ao responder a usuários de diversas origens culturais.

Eles também observam que, embora a IA possa oferecer empatia, ela carece da responsabilidade, do treinamento e da nuance moral de profissionais de verdade, e pode reforçar preconceitos que encorajam as pessoas a permanecerem presas a uma identidade emocional: muitas vezes, a de vítima.

Então, eu usaria o Grok novamente?

Sério? Sim.

Se estou tendo um dia ruim e quero alguém (ou algo) para me fazer sentir menos sozinho, o Grok ajuda. Ele dá estrutura à frustração. Ele coloca palavras nos sentimentos. Ele ajuda a carregar a carga emocional.

É um mecanismo de enfrentamento digital, uma espécie de embreagem de chatbot.

Mas se eu busco transformação, e não apenas conforto? Se eu quero verdade em vez de alívio, responsabilização em vez de validação? Então não, Grok não é suficiente. Um bom terapeuta pode me desafiar a quebrar o ciclo. Grok simplesmente me ajuda a sobreviver dentro dele.

gizmodo

gizmodo

Notícias semelhantes

Todas as notícias
Animated ArrowAnimated ArrowAnimated Arrow