A evolução dos sistemas de IA neste setor tem sido bastante acelerada e precisamos estar sempre nos atualizando. Para termos uma ideia, o número de projetos de pesquisa na saúde tem crescido de forma exponencial.

É um segmento que desperta atenção na evolução tecnológica, não apenas das empresas que já atuam nele, mas vemos BigTechs como Apple, Amazon e Google fazendo incursões cada vez mais profundas, buscando conquistar seu espaço. Um estudo da Cbinsigths (The Big Tech in Healthcare Report: How Amazon, Google, Microsoft, Apple, & Oracle are fighting for the $11T market ) aborda a estratégia que essas corporações estão colocando em prática. Além disso, o uso de apps de saúde tem crescido assustadoramente. Basta ver o estudo “Over 350K digital health apps are flooding the market — here’s how apps can stand out” para termos uma ideia da verdadeira inundação de apps para esse setor.

Mas o uso de IA requer atenção, pois apesar de excelentes resultados em testes e ambientes controlados, como um modelo de DL para detecção de artrose (Artificial Intelligence searches an early sign of osteoarthritis from an x-ray image — might save from unnecessary treatments and examination) existe um gap entre o protótipo e a aplicação no mundo real.

Por exemplo, um estudo feito nos EUA sobre startups voltadas a saúde mental on-line concluiu que elas, em sua maioria, enfatizaram o crescimento sobre a qualidade, investiram pesadamente em publicidade nas mídias sociais e promoveram drogas aditivas, além de usarem especialistas inadequados.

O tratamento remoto de problemas de saúde mental aumentou durante a pandemia, pois o tratamento presencial tornou-se difícil enquanto o isolamento causado pela pandemia aumentava a ansiedade e a depressão. As startups de saúde mental digital prometeram fornecer aos pacientes acesso a cuidados de alta qualidade por vídeo, telefone e mensagens. A telessaúde tornou-se comum.

Muitas startups implantaram táticas clássicas do Vale do Silício, como gastar pesadamente em publicidade e expansão enquanto usavam contratados em vez de funcionários para controlar custos. Mas, uma estratégia projetada para negócios como delivery de refeições, mostra-se uma fórmula que é inadequada para uma atividade sensível de tratar pacientes de saúde mental.

As startups alegam que sua publicidade pode quebrar o estigma associado à busca de tratamento de saúde mental, enquanto o uso de enfermeiras em vez de médicos para prescrever medicamentos pode reduzir o preço do atendimento e expandir o número de provedores disponíveis. Muitos pacientes disseram que o atendimento que receberam das empresas foi bom e não estava disponível em outros lugares.

Por outro lado, algumas startups empregavam conselheiros que aparentemente trabalhavam em seus carros ou atendiam quando caminhando em casa. Alguns conselheiros disseram que as más experiências dos clientes resultaram em parte do aumento da demanda durante a pandemia, que fez com que a startup reduzisse o nível de contratação e treinamento.

Outras startups prescrevem estimulantes, que podem beneficiar pessoas com transtorno de déficit de atenção e hiperatividade, mas são procurados por outras pessoas pelo estímulo que proporcionam. Alguns médicos se sentiram pressionados por startups a prescrever medicamentos.

Uma startup americana tratou o vício em opióides via telessaúde, prescrevendo medicamentos alternativos sem fornecer o aconselhamento necessário que os especialistas recomendam. Esta startup tem milhares de clientes, mas apenas um punhado de conselheiros em alguns estados.

“Quando você coloca dinheiro de capital de risco nessa mistura, isso realmente leva as pessoas a correrem riscos”, disse uma enfermeira. “Uma coisa é ser um inovador disruptivo, mas há uma razão pela qual a medicina é sobrecarregada por tantos regulamentos: estamos lidando com a vida das pessoas”.

Mas, por que devemos prestar atenção ter cuidados com uso de IA na saúde? Alguns anos atrás, pesquisadores da Universidade de Iowa nos EUA fizeram um experimento interessante: treinaram pombos para reconhecer imagens de câncer de mama. Quando acertavam, eram premiados com milhos. O resultado foi que depois de algum tempo, os pombos, que tem uma acuidade visual muito superior à dos humanos, passaram a ter assertividade maior que os radiologistas. Isso significa que podemos substituir radiologistas por um pombal? Claro que não. Os pombos não tinham a menor ideia do que estavam fazendo. Não sabiam o que é câncer de mama e nem seu impacto na vida das pessoas. Os radiologistas humanos sabem.

É a mesma coisa com algoritmos de redes neurais. O termo sugere que esses algoritmos replicam as redes neurais dos nossos cérebros. Não é verdade. Nós ainda não compreendemos como o cérebro usa seus neurônios, e, portanto, não podemos simulá-los em computadores.

As redes neurais artificiais não funcionam da maneira que nossos cérebros. Não criam modelos mentais. Na verdade, são similares a maneira como os coeficientes são estimados em modelos de regressão, descobrindo valores para os quais as predições do modelo são mais próximas dos valores observados, sem compreender o que está sendo modelado.

São muito úteis, mas chamar essas fórmulas matemáticas de “inteligência artificial” é um exagero. Não são inteligentes, não entendem o que estão fazendo. Não sabem o que estão manipulando. Não replicam a maneira como os humanos pensam. Como os pombos.

Esse é o desafio de aplicação da IA em setores críticos, como na saúde. Existe um potencial enorme, mas a jornada é muito mais longa e árdua que muitos imaginavam no início. Uma olhada nos EUA, mostra que mesmo em práticas clínicas que apareciam como extremamente promissores, como na radiologia, apesar de já existirem dezenas de algoritmos aprovados pelo FDA, a Anvisa de lá, apenas uma pequena parcela está realmente em uso. O artigo “AI has a long way to go before doctors can trust it with your life” mostra que um dos principais problemas é a inconsistência dos resultados. Apenas 5.7% dos radiologistas que usaram algoritmos de IA reportaram que seus sistemas sempre funcionam, enquanto 94% classificaram seus resultados como erráticos. Na prática, aprendemos que treinar e testar um modelo em laboratório é bem diferente de colocá-lo em produção. Imaginou-se que seria relativamente fácil fazer com que os algoritmos analisassem imagens com precisão. Na verdade, eles fazem isso, mas sua assertividade depende das imagens de treinamento e quando saem de um ambiente de testes, com imagens de alta qualidade e caem no mundo real, com imagens menos nítidas e protocolos diferentes dos quais aprendeu, sua taxa de acerto cai significativamente.

O que aprendemos é que a maioria dos desafios da IA não são aplicações técnicas da IA. Já existe um grande número de algoritmos, mas no entanto, a maioria de sua validação e implementação na prática médica é prejudicada pela dificuldade de acesso a grandes conjuntos de dados de alta qualidade. Além disso, os sistemas de IA não operam no vácuo, precisando ser integrados aos demais sistemas de um hospital. Assim, para apoiar a parte diagnóstica do trabalho dos radiologistas, os desenvolvedores dos sistemas de IA precisam criar, treinar, testar, buscar autorização do FDA (no caso dos EUA) para, distribuir, apoiar e atualizar milhares de algoritmos. E as organizações de saúde e os médicos precisariam encontrar, avaliar, comprar e implantar vários algoritmos de muitos desenvolvedores e, em seguida, incorporá-los aos fluxos de trabalho existentes.

Para agravar o desafio, está a demanda voraz por dados dos modelos de DL. A maioria dos modelos foi desenvolvida em configurações controladas usando conjuntos de dados disponíveis, e muitas vezes limitados, e sabemos que os resultados que os algoritmos produzem são tão robustos quanto os dados usados para criá-los. Os modelos de IA podem ser frágeis, funcionando bem com dados do ambiente no qual foram desenvolvidos, mas erráticos ou incoerentes quando aplicados a dados gerados em outros locais com diferentes populações de pacientes, máquinas de imagem e técnicas.

No início, como acontece com muitas outras tecnologias, superestimamos a IA, e achamos que essas ferramentas iriam remover completamente a necessidade de humanos em muitas tarefas. Mas o que aprendemos depois de muitas experiências reais é que isso não é, pelo menos em um horizonte previsível, realmente possível. Apreendemos que a IA consegue sim substituir apenas uma pequena parte do que especialistas humanos podem fazer. É um amadurecimento saudável e realista. Sabemos agora que a IA e humanos devem cada vez mais atuar em sinergia, com as máquinas ampliando nossa capacidade de reconhecimento, mas a compreensão e o entendimento continuam humanos.

Algumas limitações como falta de senso comum, adaptações a situações inesperadas, “pensar” e agir de forma ética, e entender causa e efeito são fatores que impedem os sistemas de IA de substituir profissões como as exercidas por médicos e enfermeiras.

Mas, a IA vai transformar essas profissões, pois muitas das suas tarefas rotineiras serão feitas pelas máquinas e isso vai dar a esses profissionais um recurso precioso e escasso, o tempo, para que com ele se dediquem a uma medicina mais humana e menos robótica. O importante é que humanos e máquinas consigam atuar em harmonia, com as máquinas ajudando a ampliar a capacidade humana nas suas tarefas. Isso exige uma evolução dos sistemas, e um aprendizado dos profissionais de saúde para entenderem as implicações e limitações dos sistemas de IA. A IA será mais uma ferramenta de apoio à prática médica, mas não é a tecnologia que vai substituir o humano.