Curioso, que conversando com uma garotada envolvida em sistemas de ML, eles aparentemente desconhecem as origens da IA e acreditam que tudo começou apenas recentemente. E com eles…Creio que conhecer um pouco de sua história e evolução, nos ajuda a trilhar os caminhos futuros. Vamos relembrar alguns pontos marcantes de sua evolução nesse artigo.

A IA não é magia e muito menos novidade. Suas origens podem ser rastreadas a uma conferência de pesquisadores em 1956, quando o cientista da computação John McCarthy, cunhou o termo. Em 1959, o pesquisador A. L. Samuel, criou outro termo que usamos intensamente hoje, “machine learning”, em seu artigo “Some Studies in Machine Learning using the Game of Checkers”, publicado no IBM Journal of Research and Development. O jogo de damas foi um dos primeiros jogos a serem usados como teste para o que comumente chamamos de inteligência artificial. O método que ele usou foi baseado em um modelo de árvore, que continua sendo a base de todos os modelos de game atuais, incluindo o AlphaGo da DeepMind. No jogo de damas, como é impossível processar todas as possíveis combinações na árvore, que se estima em seis elevado a 50, o processo trabalha com apenas uma pequena parte dela. A partir de cada jogada do adversário, ele calcula as prováveis quatro ou cinco jogadas subsequentes. Ele usou um algoritmo clássico, minimax, que na teoria da decisão, é um método para minimizar a possível perda máxima. Pode ser considerado como a maximização do ganho mínimo (maximin).

A estratégia do programa foi olhar as possíveis sequências à frente e aplicar uma função matemática para estimar a que seria mais adequada. Ele descobriu que o programa “aprendia” por si mesmo. Na prática podemos dizer que foi o embrião do que chamamos hoje de “reinforcement learning”, uma técnica bastante comum e usada intensamente em sistemas de Machine Learning (ML). O resultado final foi que o jogo apresentava um desempenho melhor que a média dos jogadores experientes. Foi um marco importante evolução da IA, mas que acabou esquecido. Pouca gente aborda esse feito de 63 anos atrás. Ah, e ele teve que programar na unha no IBM 701. Não existia nenhuma biblioteca de algoritmos prontos e nem um compilador para facilitar seu trabalho. A programação foi toda desenvolvida em linguagem de máquina.

Também nessa época, em julho de 1958, o U.S. Office of Naval Research mostrou uma invenção notável. Um IBM 704, um computador de 5 toneladas, do tamanho de uma sala, com uma memória equivalente a 18.432 bytes, foi alimentado com um conjunto de cartões perfurados. Após 50 tentativas, o computador aprendeu sozinho a distinguir os cartões marcados à esquerda dos cartões marcados à direita. Foi a primeira demonstração do “perceptron”. Estão aí as raízes do Deep Learning (DL) e aprendizado supervisionado. A ideia do perceptron foi criação do psicólogo Frank Rosenblatt. Ele se inspirou na maneira como os neurônios processam informação. Um neurônio é uma célula do nosso cérebro que recebe sinais elétricos ou químicos de outros neurônios conectados a ele. Basicamente um neurônio soma todos os inputs que recebe dos outros neurônios e quando um determinado limite é alcançado, ele dispara uma mensagem para outros neurônios conectados a ele. As sinapses de outros neurônios a um determinado neurônio têm diferentes pesos e ao calcular a soma dos inputs, o neurônio considera essa variável, dando maior valor as conexões fortes e menos às conexões mais fracas.

A ideia de Rosenblatt era simular esse processo em computadores. Para ele, esse processo poderia executar tarefas como reconhecer rostos e objetos. Para isso, o computador poderia “aprender” ou ser “treinado” com exemplos. A cada acerto, o sistema seria recompensado e os pesos e limites seriam ajustados dinamicamente. Reconhecemos aí os modelos de aprendizado supervisionado que usamos hoje! O aprendizado supervisionado requer que o algoritmo seja exposto a um grande volume de dados, com exemplos corretos e errados, para que, no processo, aprenda distinguir os certos dos errados. O algoritmo de Rosenblatt, “perceptron-learning algorithm” foi a base conceitual que gerou os atuais sistemas de DL, pois posteriormente, alguns pesquisadores adicionaram camadas adicionais de neurônios, criando uma “multilayer neural network” (Deep Learning!). Mas, devido às limitações da tecnologia da época e absoluta carência de dados digitais, além do falecimento de Rosenblatt em 1971, suas ideias não floresceram. Apenas recentemente que suas propostas geraram os atuais sistemas de ML/DL.

Como a tecnologia dos anos 50 a 70 era muito restrita, o usa da IA resumiu-se poucos pesquisadores em universidades. Em meados dos anos 80 e início dos anos 90 vivemos outro momento de interesse em IA. Foi a época da IA simbólica, também conhecida como IA clássica, baseada em regras. A IA simbólica envolve a incorporação explícita do conhecimento humano e regras de comportamento em programas de computador. Foi nesse período que comecei a me interessar pelo assunto, tendo participado ativamente do desenvolvimento de um dos então chamados “expert systems”. A proposta do sistema era simular o processo de tomada de decisão de um analista de crédito, para quem sabe, substituir alguns humanos nessas tarefas. Haja ingenuidade! Parte das regras de aprovação de crédito estavam nos manuais do banco e, portanto, facilmente codificáveis no programa. O problema foi absorver o conhecimento intuitivo dos analistas experientes. A intuição é puramente subjetiva e impossível de ser codificada em linhas de código. Como programar algo do tipo “eu olho nos olhos do cliente, acredito nele e por isso aprovo o crédito!”? Assim, o resultado foi um sistema que conseguiu no máximo atuar com a proficiência de um estagiário…foi descontinuado, mas me mostrou que poderíamos ir bem mais longe se tivéssemos dados e capacidade computacional. E usássemos outros processos, como redes neurais.

Em 1997, o Deep Blue da IBM venceu o então campeão mundial de xadrez, Garry Kasparov, renascendo o interesse pela IA. Passada a euforia, viu-se que um jogo de xadrez poderia ser ganho com um pprograma que pudesse usar um computador muito poderoso. É o estilo “força bruta”, e o Deep Blue calculava 200 milhões de possíveis jogadas à frente, capacidade muito superior à de qualquer humano. Não era um sistema de ML, mas foi um passo à frente na evolução de sistemas sofisticados. O artigo “20 Years after Deep Blue: How AI Has Advanced Since Conquering Chess” publicado em 2017 nos dá uma boa visão do que foi o Deep Blue e os avanços da chamada IA desde então.

Pulamos no tempo até os dias de hoje. Algoritmos de IA estão fazendo parte do nosso dia a dia, nos recomendando livros e filmes, sugerindo produtos e aprovando ou negando crédito. Autorizam ou não uma transação analisando nosso rosto, e também nos vigiam, dizendo se somos ou não “sociais”, e não somos um risco de cometer um ato terrorista. Temos assistentes pessoais como Alexa e Siri falando conosco. Vimos o Watson da IBM vencer em 2011, o programa de perguntas e repostas da TV americana, Jeopardy, e em 2016, vimos o AlphaGo da DeepMind vencer o campeão mundial de Go.

Tudo isso despertou muito interesse de governos, empresas e investidores. Colocar IA na descrição do produto ou no nome de uma startup valorizava o negócio. Vimos uma explosão de startups com “qualquernome.ai” proliferando por tudo quanto é lugar. Um artigo da Wired de 2014, “The Three Breakthroughs That Have Finally Unleashed AI on the World” mostrou claramente o interesse do mercado pela tecnologia. O artigo brinca com o assunto, dizendo “The business plans of the next 10.000 startups are easy to forecast: Take X and add AI”.

A rápida evolução da IA animou muita gente e perspectivas extremamente ambiciosas foram criadas. A maioria não decolou. O artigo “Why A.I. Moonshots Miss” mostra que as previsões otimistas de muita gente, inclusive de conceituadas empresas de consultoria como McKinsey não aconteceram. O fato é que a maioria dos moonshots falha: fusão nuclear, combustíveis sintéticos, maglev e blockchain para tudo. Em vez disso, as tecnologias bem-sucedidas geralmente começam em aplicações pequenas, são as vezes esquecidos e só algum tempo depois se expandem para aplicações maiores e mais importantes. Os transistores foram usados ​​pela primeira vez em aparelhos auditivos e rádios antes de se tornarem onipresentes em equipamentos militares, computadores e telefones. Os computadores começaram como máquinas de contabilidade e depois se expandiram para todas as funções de uma empresa. Os LEDs foram usados ​​pela primeira vez em calculadoras e painéis de automóveis, muito antes de serem usados ​​para iluminação. A internet começou como uma ferramenta para professores antes de se tornar a tecnologia mais utilizada desde a eletricidade. As células solares foram usadas em satélites e locais remotos muito antes de serem usadas para gerar eletricidade para residências e empresas. Em quase todos os casos, as tecnologias começam em um nicho e depois se expandem de forma incremental para outras aplicações ao longo de décadas por meio de melhorias exponenciais em preço e desempenho. A IA, com as técnicas de ML, não seria exceção, e não poderia começar de forma tão ambiciosa como se sonhava…

Estamos agora, passada a euforia, aprendendo que os sistemas de IA tem muitas limitações. As ideias grandiosas que a IA substituiria os humanos na maioria das profissões simplesmente nem chegou perto de acontecer. A técnica de IA que predomina hoje, ML, é apenas uma “narrow AI” ou seja, é capaz de executar apenas uma única função. Pode ser melhor que um humano nessa tarefa, como jogar xadrez, mas não tem a mínima ideia do que é um jogo de xadrez. Sistemas que fazem bem determinadas tarefas são muito úteis e podem aumentar a eficiência dos processos. Podem criar novos modelos de negócio, pois sem o uso dessa tecnologia jamais conseguiríamos ter um mecanismo de busca tão eficiente como o do Google.

Mas, apesar de termos algoritmos muito bons executando determinadas tarefas, mesmo se juntássemos todos eles, não teríamos um sistema inteligente. Um conjunto de “narrow AIs” não gera um sistema realmente inteligente. O cientista cognitivo Steven Pinker disse com razão “A IA de nível humano ainda é algo para daqui a quinze a vinte e cinco anos, assim como sempre foi”.

No meu entender estamos ainda muito longe de uma, e nem se sabe se será possível, máquina inteligente, com consciência, que entenda as coisas que está fazendo e que possa ser chamada com propriedade de inteligência artificial. Mas, essa discussão ainda vai longe!

Deixe um comentário