Pages Menu
TwitterRssFacebook
Categories Menu

Desmistificando a Inteligência Artificial pt. 3/5: O que é mais importante na construção de uma IA ?

por em 22/10/2020 em Ciência, Notícias, Tecnologia | Nenhum comentário

Desmistificando a Inteligência Artificial pt. 3/5: O que é mais importante na construção de uma IA ?

Se você está acompanhando essa série de textos (veja aqui a parte 1 e a parte 2) já percebeu que até agora quase nada foi dito sobre o aspecto técnico. Falamos até o momento apenas sobre sociedade, mas também tentamos desembaçar a idéia de que uma inteligência artificial é algo que por qualquer motivo teria intenções.

Nesse texto vamos falar sobre o que é importante para que um algoritmo de IA tenha objetivo e propósito. Nesse sentido um algoritmo de IA é bem diferente de um programa de computador tradicional com instruções explícitas do que e como executar.Mas antes de entrar nas tecnicidades da construção de um algoritmo, vamos entender de forma mais ampla o que deve dirigir a construção de um modelo de IA:

Feeling, insight, ou somente o palpite é como nos referimos à capacidade do ser humano de tomar decisões com pouca informação.

Somos uma máquina de probabilidades e de inferência constante e, por esse motivo, a tomada de decisão sem um grande volume de informações ou com apenas as informações disponíveis é algo que o ser humano aprendeu a fazer muito bem já que nem todos os problemas que enfrentamos no dia a dia contam com informações suficientes e de qualidade disponíveis.

A IA já lida com esse tipo de problema há algum tempo utilizando-se de técnicas pouco exploradas ainda fora da área acadêmica como a inferência probabilísticas, raciocínio qualitativo e espacial, ontologias, entre outros.

Em contrapartida, no mundo fora das universidades, entramos em um período em que armazenar informações ficou mais barato, falamos de bigdata e muitas vezes também do excesso de dados e que não sabemos exatamente como e onde utilizá-los.

Uma das áreas onde anteriormente havia escassez de dados disponíveis é a medicina. Os trabalhos de metanálises (análises realizadas sobre análises) dependiam da coleta de dados por um longo período de tempo e geralmente se coleta informações com foco em uma pesquisa e acaba-se deixando de lado outras variáveis que poderiam ser utilizadas para expandir o estudo.

Recentemente se tornou possível a criação e manutenção de bases de dados mais completas na área médica e não por coincidência é nessa área onde a pesquisa e adoção de sistemas inteligentes avança substancialmente.

Também por esse motivo vamos utilizar aplicação da IA na medicina como um exemplo que pode ser extrapolado e também nos ajudar a entender o que realmente é necessário para construir um algoritmo de IA que seja de fato….. inteligente.

Primeiro fator de sucesso: Uma boa base de dados.

Muito se fala sobre a adoção de sistemas de suporte ao diagnóstico de doenças como o câncer ou da análise de imagens para identificação de tumores ou doenças neurodegenerativas.

Parafraseando uma amiga: “machine learning não é mágica”, ou seja, para criar modelos úteis é preciso ter dados, e mais que isso, é preciso ter qualidade nesses dados.

Bancos de dados de qualidade sempre foram o problema para criação de modelos de suporte ao diagnóstico. Dificilmente temos bancos de dados com todas as variáveis ou com dados suficientes para criação de um modelo que seja confiável para adoção por um médico.

Os modelos do IBM Watson de diagnóstico de câncer funcionam exatamente por isso: existem dados de qualidade disponíveis, logo, com a técnica certa e com o poder computacional abundante, é possível encontrar os padrões.

Recentemente li um artigo em que pesquisadores propuseram um modelo de suporte ao diagnóstico de demências com base em imagens de ressonância magnética obtendo resultados um alto índice de sensibilidade e especificidade.

ooops, vamos a um pouco de conceito aqui:

  • sensibilidade é a capacidade do teste/modelo identificar na população que pode estar doente aquelas que realmente estão doentes.
  • especificidade é a capacidade do mesmo teste/modelo dar negativo nos indivíduos que não apresentam.

Resumindo: o ideal seria que o teste/modelo apresentasse 100% de especificidade ( que indica que realmente quem você acha que não está doente, não está doente) e 100% de sensibilidade (quem você acredita estar doente realmente esteja doente).

Quando eu estive a frente de pesquisas desse tipo, eu obtive valores de 100% e 74% respectivamente. Esse grupo, utilizando técnicas mais ágeis na classificação (não requeriam tantos tratamentos e normalizações na imagem) conseguiu chegar a indicadores de especificidade bem melhores.

Para casos como esse, de modelos que tratam de reconhecimento de padrões em imagens de ressonância magnética, existem algumas bases de dados de neuroimagens públicas que os pesquisadores podem recorrer para conseguir um bom número de amostras, some a isso a evolução da adoção de técnicas de reconhecimento de padrões e naturalmente os resultados desse tipo de pesquisa serão cada vez mais promissores.

Mas serão aplicáveis no dia a dia ?

Segundo fator de sucesso: Os modelos que simplificam a vida.

Podemos presumir que, entre os muitos desafios da gestão de saúde, um deles é diagnosticar uma patologia na triagem, se possível. Quanto mais assertividade e menos exames forem solicitados para se chegar ao diagnóstico, mais rápido inicia-se o tratamento, mais pessoas podem ser tratadas, mais qualidade de vida se proporciona ao paciente.

Na triagem não existem imagens de ressonância. O “mundo real” da triagem conta com poucos dados, protocolos de diagnóstico estabelecidos, tempo curto e feeling do especialista.

Para exemplificar a importância de uma base de dados, vou citar um artigo que foi recentemente foi publicado por um grupo do MIT (1), esse artigo propõe uma avaliação do teste do relógio (um dos testes utilizados para decisão de comprometimento cognitivo), o objetivo da pesquisa é diagnosticar o comprometimento cognitivo e o tipo de demência de acordo com os padrões encontrados no desenho feito pelos pacientes.

Nesse estudo as imagens foram submetidas a diversos algoritmos de classificação e os resultados obtidos estiveram entre 0,7 (regular) e 0,8 (bom) de área sob a curva ROC.

paaaaara, para para….. mais conceitinho aqui:

  • A área sob a curva ROC é uma medida que indica o poder discriminativo do teste, ou seja, o quanto o teste pode classificar corretamente aqueles que tem ou não tem a doença, quanto maior a área, melhor o poder descriminatório.

Measuring Performance: AUC (AUROC) – Glass Box

Em 2014 quando conclui minha pesquisa de doutorado uma das propostas foi a criação de um modelo de comprometimento cognitivo utilizando um modelo matemático fuzzy, como resultado eu obtive um valor de 0,8 de área sob a curva ROC considerando todo protocolo diagnóstico utilizado na triagem do Hospital das Clinicas em SP.

O problema ?

Não era possível com apenas esse modelo de decisão dizer qual era o diagnóstico final. Minha expectativa era que a imagem de ressonância contasse essa parte da história, mas a imagem não era útil naquele contexto,  pois sequer existia na triagem, o que me fez seguir por outros caminhos para concluir a pesquisa.

O modelo do MIT tem um caminho a evoluir, mas graças a uma base de dados organizada dos testes, ele resolve esse problema de forma mais simples e elegante.

Entretanto, a vantagem desse modelo não é apenas dizer um diagnóstico provável com base em um teste e sim o fato que ele usa apenas uma imagem digitalizada em uma folha de papel de um teste feito em tempo de triagem, ou seja, infinitamente mais barato e viável que avaliar uma ressonância.

O terceiro fator de sucesso: O ser humano

Esses exemplos dimensionam a importância dos fatores de sucesso para adoção de modelos de IA/machine learning: uma base de dados consistente e a importância de entender o universo onde esse modelo será aplicado.

Mas eles também contam sobre um terceiro elemento de sucesso na adoção de qualquer tecnologia, em especial das que dependem de modelagem de conhecimento: O ser humano.

O potencial humano é o catalizador principal da inovação e o grande agente da disrupção. Em resumo: simplificar e evoluir os modelos tradicionais.

Um bom engenheiro de IA/machine learning capaz de criar e evoluir modelos complexos é sem dúvida, um dos principais fatores de sucesso para o sucesso da adoção IA em escala comercial e a partir dai começar toda a revolução que a IA promete.

spoiler: No próximo e penúltimo artigo da série vamos estar ainda no campo social e falar dos vieses de modelos e como eles podem ser problemáticos e fecharemos essa série introdutória falando das 4 grandes técnicas que todo estudante de computação aprende.

Modo Noturno