Apesar dos impressionantes avanços que aparentemente colocam os computadores ao alcance da inteligência humana, suas operações internas desmentem o hype

Sou um entusiasta das tecnologias que chamamos de inteligência artificial (IA). E não é de hoje. Lembro que na adolescência devorava os livros de Isaac Asimov, como a famosa trilogia “Fundação” e, principalmente, “Eu, robô”, uma série de contos que são um marco na história da ficção científica, pela introdução das célebres Leis da Robótica, e por um olhar completamente novo a respeito das máquinas.

Os robôs de Asimov conquistaram a cabeça e a alma de gerações de escritores, cineastas e cientistas, sendo até hoje fonte de inspiração de tudo o que lemos e assistimos sobre eles. Depois veio o inesquecível filme de Stanley Kubrick, “2001, uma Odisseia no Espaço”, e com ele o HAL 9000 (Heuristically programmed ALgorithmic computer), que é um computador com avançada inteligência artificial, instalado a bordo da nave espacial Discovery e responsável por todo seu funcionamento.

Os diálogos dele com os atores me deixaram realmente impressionado com que o futuro poderia nos trazer. Quando li um paper sobre Eliza, software criado por pesquisadores do MIT, vi que a IA era possível sim, pois já nos anos 1960 um sistema conseguia interagir de forma razoável com humanos. Comecei a ler todos os livros sobre o assunto e em meados dos anos 1980, consegui aprovação para colocar em prática uma experiência dentro da empresa na qual trabalhava.

Na época, o cenário da IA estava dividido em duas linhas de pensamento: um grupo que adotava o conceito de “rule-based”, também chamado de “expert systems” ou sistemas especialistas; e o grupo que se orientava pelo conceito de redes neurais (neural networks).

Sim, redes neurais já existiam. As redes neurais pareciam muito promissoras, mas faltavam dados e a capacidade computacional disponível era imensamente inferior à que temos hoje. Pragmaticamente optei pelos sistemas especialistas, pois a lógica de desenvolvimento me parecia mais factível: entrevistar profissionais especialistas em determinada área e codificar seus processos de decisão, em uma árvore de decisão.

Um sistema especialista tem dois componentes básicos: um motor de inferência e uma base de conhecimentos. A base de conhecimento tem os fatos e regras, e o motor de inferência aplica as regras aos fatos conhecidos e deduz novos fatos.

A primeira dificuldade foi aprender novas linguagens como Prolog e Lisp. Mas, vencida a barreira, a prática de buscar o conhecimento dos especialistas foi um entrave. Por serem especialistas, eram muito requisitados e não tinham tempo disponível, muito menos para um projeto experimental.

Além disso, era muito difícil tentar traduzir suas decisões, muitas vezes intuitivas, em regras claras para serem colocadas na árvore de decisão. E, à medida que o sistema acumulava conhecimento do especialista, o processo tornava-se mais e mais complexo.

Em resumo, o sistema nunca funcionou adequadamente e foi descontinuado. Na verdade, o sistema especialista não era especialista. Mas, valeu a experiência.

Nos últimos dez anos, a IA renasceu e a ênfase foi direcionada para as redes neurais. Já temos disponíveis os seus dois fatores essenciais: capacidade computacional e abundância de dados.

O ponto de inflexão das redes neurais deu-se em meados dos anos 2000 com as pesquisas de Geoffrey Hinton, que descobriu maneiras eficientes de treinar várias camadas de redes neurais. Isto permitiu o rápido avanço de algoritmos de reconhecimento de imagem e fala. Surgiu o termo “deep learning” que hoje é o motor básico dos principais avanços na área de IA.

A IA tem muito potencial, mas creio que estamos vivendo uma fase de hype, onde ela está sendo superestimada

Depois de muito anos de estudo e prática em projetos, tenho hoje uma visão bem mais realista. A IA tem muito potencial, mas creio que estamos vivendo uma fase de hype, onde ela está sendo superestimada.

Vamos começar com o próprio termo: “Inteligência Artificial”. As palavras geralmente têm mais significado do que a própria palavra. Por exemplo, quando falamos em cores, nós associamos o verde com natureza e vida saudável, e o vermelho com proibição e perigo.

Mas essas inferências não estão embutidas no significado básico de “vermelho” ou “verde”. São acréscimos culturais que atribuímos às palavras que possibilitam a riqueza da linguagem. Essa riqueza, aliás, é um dos motivos pelos quais os documentos jurídicos e os estudos médicos são tão difíceis de ler. Os termos usados ​​são retirados dessa bagagem cultural, exigindo palavras adicionais para preencher as lacunas.

A palavra “inteligente” é assim. Dizer que um computador ou programa é inteligente pode nos levar a percepções diferentes. Podemos apenas dizer que o computador provido de IA produz um resultado que normalmente associamos à inteligência.

O resultado se parece com a atividade de um agente (uma pessoa) conhecido por possuir inteligência. Mas para muitos, o termo transmite muito mais: que o computador está se tornando tão inteligente quanto nós e que em breve poderá até nos ultrapassar.

O termo “inteligente” pode, portanto, significar coisas diferentes e ocultar as diferenças entre as maneiras como os seres humanos pensam e como as máquinas processam dados.

Sabemos, por exemplo, que os computadores não jogam xadrez como nós. Mas esquecemos essa diferença porque os avanços impressionantes dos algoritmos permitem agora que os computadores ganhem de nós não apenas em jogos de xadrez, mas também em jogos de estratégia (como o Go), traduzam idiomas, analisem ressonâncias magnéticas e até reconheçam figuras como nossos rostos, cães e gatos.

Esses avanços nos transmitem a ideia de que está acontecendo mais do que uma mera programação e que os computadores estão se tornando “inteligentes” no mesmo sentido que um ser humano.

Vamos olhar as técnicas de Deep Learning, que funcionam por meio de camadas de programação. Cada camada, na verdade, reduz um pouco o problema, transferindo-o para a próxima camada, até que a camada final produza o resultado.

O ajuste cuidadoso das camadas, auxiliado por técnicas como backpropagation, eventualmente cria redes que podem fornecer respostas confiáveis ​​dentro de um domínio conhecido e restrito, como reconhecer rostos ou um câncer de mama. O sistema alcança esse resultado porque cada camada deixa de lado os dados que não são relevantes para o problema.

Nós, humanos, fazemos isso o tempo todo. Se colocarmos uma fantasia de cachorro em um gato, ainda assim veremos um gato. Sabemos o suficiente para ignorar a fantasia e continuar a reconhecer o gato. Em certo sentido, comprimimos a informação canina que recebemos para chegar à essência felina.

O termo “Inteligência Artificial”, não expressa a realidade e acaba se tornando enganoso

Os pesquisadores de IA esperavam que os sistemas de DL fizessem, mais ou menos, a mesma coisa. Acontece que eles não fazem. O artigo “Information theory holds surprises for machine learning” mostra o resultado de pesquisas que contradizem essa expectativa.

Por isso, é relativamente fácil enganar os algoritmos. Vejam esses exemplos: “Google’s image recognition AI fooled by new tricks” , “MIT fooled Google’s AI into believing a cat was guacamole” e “Researchers: Deep Learning vision is very diferent from human vision”.

Os artigos mostram, inequivocamente, que os sistemas de DL não têm bom senso e não conseguem reconhecer o que “veem”, podendo produzir resultados verdadeiramente absurdos.

Apesar dos impressionantes avanços que aparentemente colocam os computadores ao alcance da inteligência humana, suas operações internas desmentem o hype: os computadores não são inteligentes como os humanos.

Embora eles possam, por meio da programação e da engenharia inteligente (ambas providas por humanos), produzir resultados que associamos à inteligência, eles não entendem o que estão fazendo ou vendo. Eles podem reconhecer uma mancha em uma radiografia e apontar que é um câncer, mas não têm a mínima ideia do que seja um câncer.

O artigo “Does AI Truly Learn And Why We Need to Stop Overhyping Deep Learning” é esclarecedor. Muitas vezes, nós tratamos nossas criações algorítmicas como se estivessem vivas, proclamando que nosso algoritmo “aprendeu” uma nova tarefa, em vez de meramente induzir um conjunto de padrões estatísticos de um conjunto de dados de treinamento escolhido a dedo, sob a supervisão direta de um humano, que escolheu quais algoritmos, parâmetros e fluxos de trabalho usar para construí-lo.

A tecnologia de IA, (vamos continuar usando o termo, cunhado em 1956, pelo fato de já estar disseminado e pela falta de outro), vai produzir um conjunto extremamente poderoso de ferramentas que nos ajudarão em muitas coisas. Mas são apenas isso, ferramentas. São um conjunto de modelos matemáticos.

Não podemos superestimar seu potencial e criar iniciativas “moonshot” caríssimas e que provavelmente fracassarão. O artigo “Why A.I. Moonshots Miss” mostra claramente que devemos compreender as limitações e fragilidades da IA, para melhor analisar seus riscos e aproveitar as vantagens reais que, como ferramentas, essas tecnologias oferecem.

Infelizmente, o termo “Inteligência Artificial”, não expressa a realidade e acaba se tornando enganoso. O fato é que as suas técnicas mais avançadas, como Deep Learning, tem apenas a aparência de inteligência. Os humanos são inteligentes. Os computadores apenas fingem que são.

Cezar Taurion é Head da Ciatécnica Research, e Partner/Head de Digital Transformation da Kick Corporate Ventures. Membro do conselho de inovação de diversas empresas e mentor e investidor em startups de IA. É autor de nove livros que abordam assuntos como Transformação Digital, Inovação, Big Data e Tecnologias Emergentes. Professor convidado da Fundação Dom Cabral, PUC-RJ e PUC-RS