Selecione o idioma

Portuguese

Down Icon

Selecione o país

Germany

Down Icon

Aprendizado de máquina | A IA não tem tédio

Aprendizado de máquina | A IA não tem tédio
Assim como o cavalo Hans fazia, as inteligências artificiais às vezes aprendem de forma diferente do que aparentam.

Quão criativas são as inteligências artificiais? Se você perguntar ao ChatGPT, uma das inteligências artificiais mais utilizadas atualmente, a resposta é bem clara. As máquinas são "menos flexíveis e criativas que os humanos, mas podem ser muito eficientes na resolução de tarefas específicas devido ao rápido processamento de grandes quantidades de dados", diz o chatbot.

Você não deve acreditar em tudo que ele diz. Surabhi Nath, pesquisador cognitivo do Instituto Max Planck de Cibernética Biológica, que inicialmente atuava em pesquisas cerebrais e agora também investiga processos cognitivos de inteligências de máquinas, esteve envolvido em um estudo comparativo sobre a criatividade de um total de 220 inteligências humanas e 440 de máquinas. Os parâmetros flexibilidade e persistência foram examinados.

“O resultado foi bastante semelhante”, disse Nath ao “nd.Die Woche”. Em termos de persistência – o desafio era encontrar o máximo de nomes alternativos possível para tijolo e clipe de papel em apenas dois minutos – houve pouca diferença. Em termos de flexibilidade – em dez minutos, uma variedade de ideias para usar esses dois objetos deve ser encontrada; Os pesquisadores descobriram que, ao examinar o intervalo entre arremessar e construir, "havia humanos que eram mais flexíveis do que outros, e inteligências artificiais que, por sua vez, agiam com mais flexibilidade do que outras". A criatividade é, portanto, distribuída de forma igualmente desigual entre humanos e máquinas.

Mais dados tornam você mais flexível

O interessante, no entanto, foi que das 440 inteligências artificiais examinadas pelo grupo de pesquisa dos Institutos Max Planck em Tübingen e Leipzig, da Universidade de Tübingen e da Universidade de Amsterdã, apenas oito foram realmente capazes de realizar o teste. Entre eles estavam o ChatGPT, o chatbot Gemini do Google, o Claude AI, desenvolvido por desistentes da OpenAI como uma alternativa ao ChatGPT, e o Llama AI do grupo Meta do Facebook.

Entretanto, para aqueles que operaram de forma comparativamente flexível na tarefa do tijolo, ou seja, fizeram saltos semânticos que podem ser interpretados como um sinal de criatividade, os resultados na tarefa do clipe de papel foram piores. No entanto, as pessoas que resolveram a primeira das duas tarefas de forma criativa abordaram a segunda de maneira igualmente criativa. Nath atribui isso aos seguintes motivos: »Escolhemos o tijolo porque há mais estudos sobre ele até agora. Usamos clipes de papel como comparação porque estudos sobre esse tópico não são tão difundidos. Aparentemente, as inteligências artificiais simplesmente tinham mais dados à disposição e, portanto, eram mais flexíveis."

Isso confirma a suposição comum: inteligências artificiais só são boas para tarefas específicas se tiverem sido treinadas precisamente para essas tarefas com uma grande quantidade de dados. Se houver menos dados disponíveis, os resultados também serão mais escassos.

Para arriscar uma comparação com os humanos: os modelos de linguagem atuais são parcialmente talentosos em áreas para as quais são bem treinados. Mas, pelo menos por enquanto, não devemos considerá-los gênios universais que têm a resposta certa para tudo. E mesmo que eles tenham sido treinados com muitos dados sobre o tópico certo, há muitas limitações.

Uma delas é: eles simplesmente não aprendem mais. Se você perguntar à versão gratuita do GPT-4 da OpenAI sobre seu próprio horizonte de conhecimento, a resposta é: "Meu conhecimento é baseado nos dados disponíveis até meu último treinamento em outubro de 2023." Não estou aprendendo nada novo no momento depois que meu treinamento foi concluído. Isso significa que não consigo absorver novas informações ou evoluir como um humano faria."

O feedback não é levado em consideração

Somente uma atualização geraria mais conhecimento. E nem mesmo o conteúdo criado em diálogos com os usuários fica posteriormente disponível para o chatbot: »Como um modelo de IA baseado em uma base de conhecimento fixa, não posso aprender diretamente de respostas individuais ou feedback durante uma conversa em andamento, nem adaptar meu conhecimento permanentemente. Isso significa que posso considerar as informações que você me dá durante nossa conversa, mas essas mudanças são apenas temporárias e não afetam meu comportamento futuro ou minha base de conhecimento."

Os processos de aprendizagem anteriores, no GPT-4 até outubro de 2023, também diferem muito daqueles da aprendizagem humana. Embora o feedback externo, um comentário positivo ou negativo sobre a ação recém-tomada, seja relevante como uma variável de controle para humanos, os chatbots atualmente disponíveis aprendem apenas com os dados e seus próprios métodos de reconhecimento de padrões . O GPT-4 explica o processo autoexperimentado de aprendizagem autossupervisionada da seguinte forma: "Aprendi com grandes quantidades de dados de texto, onde gerei meus próprios 'rótulos' ou pistas para identificar padrões e relacionamentos."

Aplicado em termos humanos, isso seria comparável a assistir a um vídeo "faça você mesmo" no YouTube — sem nenhuma função de feedback — sobre como cobrir uma casa. E então você faz isso sozinho. Isso pode funcionar para pessoas habilidosas em artesanato, como carpinteiros ou pedreiros. Entretanto, como acontece na maioria dos prédios de outras pessoas, é provável que seja preferível passar a noite ao ar livre.

As limitações do aprendizado não supervisionado e autosupervisionado foram recentemente destacadas por outro estudo do Instituto Max Planck de Cibernética Biológica. Erros sistemáticos cometidos por IAs treinadas dessa maneira agora estão sendo pesquisados ​​como o “Efeito Hans Inteligente”. O nome remonta a um cavalo de Berlim do século passado que supostamente era capaz de contar. Ele mostrou a solução para problemas matemáticos simples batendo com o casco. No entanto, uma comissão científica concluiu que “Hans, o Esperto” era, acima de tudo, um observador extremamente bom. Ele lia a linguagem corporal e as expressões faciais dos questionadores quando a resposta certa se aproximava, quando ele batia e então colocava o acento final — geralmente correto — com seu casco.

"A IA deve ser parceira na busca de uma solução."

Pesquisador cognitivo Surabhi Nath

O mesmo ocorre com a inteligência artificial. Em 2018, um grupo de pesquisadores da França e do Canadá descobriu por que uma IA de reconhecimento de imagem estava identificando erroneamente alguns huskies como lobos. Ele havia sido treinado com imagens de lobos na neve – e sempre que um husky era visto na neve, a IA detectava um lobo.

Isso ainda é estranho. No entanto, um grupo de pesquisa da TU Berlin descobriu recentemente que a IA usada na medicina ao analisar imagens de raios X não analisou apenas as imagens em si, mas também o texto ao lado delas, o que levou a diagnósticos incorretos.

Benefícios do aprendizado por reforço

O método de aprendizagem por reforço está mais próximo do processo usual de aprendizagem humana. Isso inclui principalmente feedback sobre resultados intermediários, elogios e críticas construtivas. O psicólogo e cientista da computação canadense Richard Sutton há muito defende o treinamento da inteligência artificial por meio do aprendizado por reforço.

Segundo Sutton, as vantagens seriam: menos dados são necessários para o treinamento e a eficácia é potencialmente maior. Ele descreve o aprendizado por reforço como o terceiro pilar do treinamento em inteligência artificial – juntamente com o aprendizado não supervisionado, que era típico das primeiras IAs de coleta de dados, e o aprendizado autossupervisionado atualmente dominante.

Nath, aluno de doutorado do Max Planck, também está convencido desse método. »Estamos fazendo isso agora mesmo! "Estamos tentando desenvolver um modelo para descobrir quais podem ser boas recompensas", diz ela. Inicialmente, ela está conduzindo pesquisas em humanos e espera, posteriormente, poder aplicar essas experiências a modelos de linguagem artificial. "Como isso funciona exatamente teria que ser explicado por um engenheiro de aprendizado de máquina. Mas minha intuição me diz que o aprendizado por reforço se tornará cada vez mais importante."

Riscos da IA ​​na educação

Um grande perigo que está sendo discutido agora é que o uso da IA ​​pode não apenas reduzir o desempenho cognitivo, mas pode até enfraquecer áreas não utilizadas do cérebro. O pesquisador de cérebro e máquinas Nath também vê esse perigo. Para o uso da IA ​​na educação, ela sugere: »Você poderia treinar a IA para não dar a resposta final, mas sim uma resposta intermediária. Ela deve ser uma parceira na busca de uma solução." Aqui, também, o feedback e o diálogo são componentes cruciais na aprendizagem — e no desenvolvimento da criatividade.

Aliás, há uma coisa que os humanos terão à frente das IAs por um bom tempo, diz Nath: os saltos criativos que surgem porque as pessoas estão entediadas e buscam novas soluções. O próximo passo da inteligência artificial após o aprendizado por reforço pode ser o desenvolvimento de um conceito de tédio como um gatilho para a criatividade.

nd-aktuell

nd-aktuell

Notícias semelhantes

Todas as notícias
Animated ArrowAnimated ArrowAnimated Arrow