Qualquer um pode se sentar com um programa de inteligência artificial (AI), como Chatgptpara escrever um poema, uma história infantil ou um roteiro. É estranho: os resultados podem parecer bastante “humanos” à primeira vista. Mas não espere nada com muita profundidade ou “riqueza” sensorial, como os pesquisadores explicam em um novo estudo.
Eles descobriram que o Modos de linguagem grande (LLMS) Esse poder atualmente Ferramentas de IA generativas são incapazes de representar o conceito de uma flor da mesma maneira que os humanos.
De fato, os pesquisadores sugerem que os LLMs não são muito bons em representar qualquer ‘coisa’ que tenha um componente sensorial ou motor – porque não têm um corpo e qualquer experiência humana orgânica.
“Um modelo de linguagem grande não pode cheirar uma rosa, tocar as pétalas de uma margarida ou caminhar por um campo de flores silvestres. Sem essas experiências sensoriais e motoras, não pode realmente representar o que é uma flor em toda a sua riqueza. O mesmo se aplica a outros conceitos humanos”, disse Qihui Xu, principal autor do estudo da Universidade de Ohio, nós.
O estudo sugere que a baixa capacidade da IA de representar conceitos sensoriais como flores também pode explicar por que eles Falta criatividade no estilo humano.
“A IA não tem experiências sensoriais ricas, e é por isso que a IA freqüentemente produz coisas que satisfazem um tipo de definição mínima de criatividade, mas é oca e rasa”, disse Mark Runco, cientista cognitivo da Universidade do Sul de Oregon, EUA, que não esteve envolvido no estudo.
O O estudo foi publicado na revista Natureza comportamento humano4 de junho de 2025.
Ai pobre em representar conceitos sensoriais
Quanto mais cientistas investigam o funcionamento interno dos modelos de IA, mais eles estão descobrindo o quão diferente é o ‘pensamento’ comparado ao dos humanos. Alguns dizem que os AIs são tão diferentes que são mais parecidos formas alienígenas de inteligência.
No entanto, testar objetivamente o entendimento conceitual da IA é complicado. Se os cientistas da computação abrirem um LLM e olharem para dentro, eles não entenderão necessariamente o que os milhões de números que mudam a cada segundo realmente significam.
Xu e colegas pretendiam testar como os LLMs podem ‘entender’ as coisas com base nas características sensoriais. Eles fizeram isso testando o quão bem os LLMs representam palavras com significados sensoriais complexos, fatores de medição, como o quão emocionalmente despertar uma coisa é ou se você pode visualizar mentalmente uma coisa e representações de movimento ou de ação.
Por exemplo, eles analisaram até que ponto os humanos Experimente flores cheirando ou experimente -os usando ações do tronco, como procurar tocar uma pétala. Essas idéias são fáceis de entender, pois temos conhecimento íntimo de nossos narizes e corpos, mas é mais difícil para os LLMs, que não têm um corpo.
No geral, os LLMs representam bem as palavras – mas essas palavras carecem de qualquer conexão com os sentidos ou ações motoras que experimentamos ou sentimos como seres humanos.
Mas quando se trata de palavras que têm conexões com coisas que vemos, prove ou interagimos com o uso de nosso corpo, é aí que a IA não consegue capturar convincentemente conceitos humanos.
O que se entende por ‘ai arte é oco’
A IA cria representações de conceitos e palavras analisando padrões de um conjunto de dados usado para treiná -lo. Essa ideia está subjacente a cada algoritmo ou tarefa, desde escrever um poema, prever se uma imagem de um rosto é você ou seu vizinho.
A maioria dos LLMs é treinada em dados de texto raspados da Internet, mas alguns LLMs também são treinados em aprendizado visual, a partir de Imagens imobiliárias e vídeos.
Xu e colegas descobriram que o LLMS com aprendizado visual exibia alguma semelhança com representações humanas em dimensões relacionadas ao visual. Esses LLMs venceram outros LLMs treinados apenas no texto. Mas esse teste foi limitado ao aprendizado visual – excluiu outras sensações humanas, como toque ou audição.
Isso sugere que, quanto mais informações sensoriais um modelo de IA recebe como dados de treinamento, melhor poderá representar aspectos sensoriais.
Ai continua aprendendo e melhorando
Os autores observaram que os LLMs estão melhorando continuamente e disseram que era provável que a IA melhorasse em capturar conceitos humanos no futuro.
Xu disse que quando o Future LLMs é aumentado com dados e robótica do sensor, eles podem ser capazes de fazer inferências ativamente e agir sobre o mundo físico.
Mas os especialistas independentes DW falaram com o fato de o futuro da IA sensorial permaneceu incerta.
“É possível que uma IA seja treinada em informações multissensoriais possa lidar com aspectos sensoriais multimodais sem nenhum problema”, disse Mirco Musolesi, cientista da computação da University College London, Reino Unido, que não estava envolvido no estudo.
No entanto, Runco disse que mesmo com recursos sensoriais mais avançados, a IA ainda entenderá coisas como flores completamente diferentes para os seres humanos.
Nossa experiência e memória humana estão fortemente ligadas aos nossos sentidos-é uma interação do corpo cerebral que se estende além do momento. O cheiro de uma rosa ou a sensação sedosa de suas pétalas, por exemplo, pode desencadear memórias alegres de sua infância ou excitação luxuriosa na idade adulta.
Os programas de IA não têm um corpo, lembranças ou ‘eu’. Eles não têm a capacidade de experimentar o mundo ou interagir com ele como animais e animais humanos-que, disse Runco, significa “a produção criativa da IA ainda será vazia e superficial”.
Editado por: Zulfikar Abbany