COLUNISTAS
 »
   
DESVENDANDO A TECNOLOGIA
Cláudio Boghi é administrador de empresas, analista de sistemas e possui MBA em Tecnologia Educacional. É mestre em administração de empresas e em ciência da tecnologia pela USP. Atua como consultor há mais de 27 anos em tecnologia da informação e em gestão socioambiental.
 
 
postado em 06/11/2018 16h09

Será que sabemos como funciona a Inteligência Artificial?



(Foto:Divulgação/Adital)

Como a inteligência artificial funciona?

Os cientistas da computação sabem em termos gerais - bem gerais - como as redes neurais se desenvolvem. Afinal, são eles que escrevem os programas de treinamento que direcionam os chamados "neurônios artificiais" dos computadores para se conectarem a outros neurônios - tem havido grandes avanços na computação com hardware neuromórfico, mas, na inteligência artificial atual, tudo são funções matemáticas.

Cada neurônio analisa uma informação, e cada neurônio se baseia nas informações dos nós anteriores. Com o tempo, as conexões evoluem. Elas vão de aleatórias a reveladoras, e a rede "aprende" a fazer coisas como detectar indícios de câncer muito antes que ele seja visível para um radiologista humano, identificam rostos na multidão, dirigem carros e por aí vai.

Essas são as boas notícias.

A notícia desconcertante é que, à medida que a inteligência artificial desempenha um papel cada vez mais importante na vida dos humanos, seus processos de aprendizado estão se tornando cada vez mais obscuros. Justamente quando realmente precisamos confiar neles, eles se tornaram inescrutáveis, tornaram-se o que os próprios cientistas da computação chamam de uma "caixa preta", mas uma caixa preta que não revela seus dados, na verdade esconde-os de qualquer entendimento.

Isso é um grande problema.

"Quanto mais confiamos nos sistemas de inteligência artificial para tomar decisões, como dirigir carros de forma autônoma, filtrar notícias ou diagnosticar doenças, mais importante é que os sistemas de inteligência artificial possam ser responsabilizados," defende o professor Stan Sclaroff, da Universidade de Boston, nos EUA.

Criador que não compreende a criatura

Quem se propôs a tentar desvencilhar-se desse vexame que é o criador não compreender como sua criatura funciona, foi a professora Kate Saenko, que teve uma ideia: Ela pediu para que humanos olhassem dezenas de fotos que descrevem os passos que o computador pode ter tomado em seu caminho para uma decisão, e então tentassem identificar o caminho mais provável que o programa tomou para chegar à sua conclusão.

Os humanos deram respostas que faziam sentido, mas surgiu um problema: faziam sentido para os seres humanos, e os humanos, ressalta Saenko, têm preconceitos. De fato, os humanos nem sequer entendem como eles mesmos tomam decisões. Como então eles poderiam descobrir como uma rede neural, com milhões de neurônios e bilhões de conexões, toma decisões?

Saenko então partiu para um segundo experimento, usando computadores em vez de pessoas, para ajudar a determinar exatamente qual é o "roteiro cognitivo" que as máquinas usam para aprender.

"Desta vez não tivemos humanos no circuito. Em vez disso, colocamos outro programa de computador para avaliar as explicações do primeiro programa.

"O experimento funciona assim: O primeiro programa, a rede neural, fornece uma explicação de por que tomou a decisão destacando partes da imagem que usou como evidência. O segundo programa, o avaliador, usa isso para obscurecer as partes importantes e alimenta a imagem obscurecida de volta no primeiro programa.

"Se o primeiro programa não puder mais tomar a mesma decisão, então as partes obscurecidas foram realmente importantes, e a explicação é boa. No entanto, se ainda tomar a mesma decisão, mesmo com as regiões obscuras, então a explicação é julgada insuficiente," detalhou a pesquisadora.

Cognição de máquina

A equipe ainda não chegou ao roteiro cognitivo da inteligência artificial. Na verdade, o problema é tão complexo que eles pararam para discutir qual método é melhor para explicar o processo de tomada de decisão de uma rede neural - o humano ou o software?

Saenko ainda está relutante em escolher um vencedor: "Eu diria que não sabemos o que é melhor porque precisamos dos dois tipos de avaliação. O computador não tem preconceitos humanos, então é um melhor avaliador nesse sentido. Mas continuamos a fazer a avaliação com humanos no circuito porque, no final, sabemos como os humanos interagem com a máquina."

Então estamos realmente fadados a confiar em programas de computador que não compreendemos como funcionam?

Saenko prefere se concentrar em aspectos mais práticos, destacando outras questões: "Esse tipo de avaliação aumenta a confiança humana nas redes neurais? Se você tivesse um carro autônomo e pudesse explicar por que ele está dirigindo de certa forma, isso realmente faria alguma diferença para você?"

"Eu responderia 'sim'. Mas eu também diria que precisamos de muito mais pesquisas," concluiu.

Até a próxima!

1-) Explainable Neural Computation via Stack Neural Module Networks

Ronghang Hu, Jacob Andreas, Trevor Darrell, Kate Saenko

2-) Inovação Tecnológica - https://www.inovacaotecnologica.com.br/

 

Comentários