Ler e escrever são atividades que apenas os humanos podem realizar. Ainda é um desafio tentarmos entender melhor como a mente humana consegue desenvolver essas habilidades. Estudos recentes mostram que as redes neurais do cérebro estão preparadas para identificar palavras desde cedo, mesmo antes de as crianças serem apresentadas ao alfabeto. E, os pesquisadores também constataram que bebês que vivem em ambientes bilíngues conseguem diferenciar idiomas.

Já na infância, nós temos conectividades neurais que permitem uma eficaz neuroplasticidade do cérebro, que é a capacidade desse órgão se adaptar a novas informações. Nosso cérebro não é uma folha em branco. Ele já tem aparato mental suficiente para trabalhar com o que recebe de novo, nesse caso as palavras, e da melhor forma possível. A compreensão da linguagem é um processo complexo e influenciado por uma série de fatores. Precisamos considerar influências da formação neural, da genética, a alimentação que as crianças recebem, o tipo de educação que é fornecido durante a vida. Tudo ao que elas são expostas pode causar impacto. Ou seja, a imersão no contexto e nas experiências do mundo real são essenciais ao processo de aprendizado da linguagem. A aquisição da linguagem verbal não é um fato que se dá isoladamente no desenvolvimento infantil. Seu aparecimento faz parte de uma série de transformações no comportamento da criança, marcadas pelo aparecimento de condutas simbólicas e de transformações correlatas na forma de compreender e interagir com o mundo. Recomendo a leitura de um artigo instigante, de Gary Marcus, “Learning Language is Harder Than You Think”.

Sua leitura mostra que até hoje, ninguém, jamais, conseguiu criar um relato convincente e completo de como as crianças humanas aprendem a linguagem. Adquirir uma linguagem é (a) ser capaz de passar das frases ao significado e (b) passar das intenções (significados) às frases. Todas as crianças normais conseguem adquirir a linguagem nesse sentido; nenhuma máquina atualmente existente, por mais sofistica que seja, consegue fazer.

Mas, ultimamente, temos visto muita conversa sobre se sistemas de ML apresentar capacidade de ler e entender, estabelecendo um diálogo inteligente com os humanos. Mas, será que as máquinas estão realmente compreendendo o que estão dizendo? Vejam esse artigo “Google’s powerful AI spotlights a human cognitive glitch: Mistaking fluent speech for fluent thought”. Ele mostra por que é muito fácil para os humanos caírem na armadilha cognitiva de pensar que uma máquina que pode usar a linguagem fluentemente é senciente, consciente ou inteligente.

No estudo, seus autores pediram a um grande modelo de linguagem (LLM), o GPT-3, que completasse a frase “manteiga de amendoim e abacaxi___”. E a resposta: “Manteiga de amendoim e abacaxi são uma ótima combinação. Os sabores doces e salgados da manteiga de amendoim e do abacaxi se complementam perfeitamente.” Se uma pessoa dissesse isso, pode-se inferir que eles experimentaram manteiga de amendoim e abacaxi juntos, formaram uma opinião e a compartilharam com o leitor. Mas como o GPT-3 chegou a esse parágrafo? Gerando uma palavra que se encaixa no contexto que os pesquisadores forneceram. E depois outro. E depois outro. O modelo nunca viu, tocou ou provou abacaxis: apenas processou todos os textos na internet que os mencionam. Mas, no entanto, ao ler este parágrafo podemos imaginar o GPT-3, como um ser inteligente, pode raciocinar sobre pratos de manteiga de amendoim e abacaxi.

O cérebro humano está programado para inferir intenções por trás das palavras. Toda vez que você se envolve em uma conversa, sua mente automaticamente constrói um modelo mental de seu parceiro de conversa e do contexto que a envolve. Você então usa palavras preencher esse modelo mental com os objetivos, sentimentos e crenças dessa pessoa.

O processo de pular das palavras para o modelo mental é contínuo, sendo acionado toda vez que você recebe uma frase completa. Esse processo cognitivo economiza muito tempo e esforço na vida cotidiana, facilitando muito suas interações sociais. No entanto, no caso de sistemas de IA, ele falha, pois não tem como construir um modelo mental.

Isso se mostra em situações como “Manteiga de amendoim e penas ficam ótimas juntas porque ___”. Nesse caso GPT-3 completou: “A manteiga de amendoim e as penas têm um ótimo sabor juntos porque ambos têm um sabor de noz. A manteiga de amendoim também é suave e cremosa, o que ajuda a compensar a textura da pena.”. Reparem que o texto, neste caso é tão fluente quanto nosso exemplo com abacaxis, mas desta vez o sistema está dizendo algo totalmente insensato. Fica claro que o GPT-3 nunca experimentou manteiga de amendoim e penas e nem tem compreensão do que seja amendoim, manteiga ou penas. As palavras podem ser enganosas, e é muito fácil confundir fala fluente com pensamento fluente. O que vemos na prática é isso: frases bem feitas, geradas estatisticamente, confundidas como prova de senciência ou inteligência.

A IA não é inteligente, apenas exibe comportamento que parece ser inteligente. A IA é uma sofisticada tecnologia de reconhecimento de padrões. É uma ferramenta de software e não um ser consciente e inteligente.

Deixe um comentário