Inteligência Artificial Explicável: O que é XAI

Elemento decorativo neurônio
Capa Inteligência Artificial Explicável

Também conhecida como XAI (abreviação do inglês "Explainable Artificial Intelligence"), a Inteligência Artificial Explicável é um conjunto de técnicas que buscam tornar os modelos de Inteligência Artificial mais compreensíveis para os seres humanos.

Como vimos em artigos anteriores, o avanço na área de Inteligência Artificial veio com o uso de técnicas de Machine Learning e Redes Neurais. Uma das consequências desse avanço é o fato de que nem sempre é possível explicar as decisões tomadas por um modelo de IA.
Isso acontece devido ao nível de complexidade dos algoritmos e, também, pelo próprio processo de Machine Learning, que permite aos modelos aperfeiçoar tomadas de decisão.
Sendo assim, é necessário dar aos usuários condições de entender as bases de uma decisão ou previsão feita por um modelo de IA. Ainda, demonstrar com clareza quais foram os principais fatores que influenciaram essa decisão ou previsão.

Inteligência Artificial Explicável: sua importância

Mas por que é importante manter os modelos de IA compreensíveis e explicáveis? Inicialmente, é preciso lembrar que, para a grande maioria das pessoas, o uso de inteligência artificial ainda é muito inicial.
Dessa forma, o impacto decisório de um modelo de IA ainda é compreensível, por exemplo, em um corretor ortográfico ou em uma sugestão de filme.
Isso muda drasticamente de acordo com o setor que se está observando. Imaginemos, como exemplo, um modelo de IA que analisa históricos médicos de pacientes e auxilia no processo de diagnóstico de doenças.
Mesmo que a inteligência artificial tenha recebido dados relevantes para seu aprendizado, ainda assim é importante ter algum controle sobre seu processo de decisão. Em determinadas áreas, o nível de responsabilidade envolvido é muito alto.
A importância de manter os modelos explicáveis, portanto, se torna especialmente relevante em áreas de grande impacto na vida das pessoas. Além da área médica, podemos citar como exemplos a área jurídica e a aplicação de modelos de IA para controle de trânsito.

O problema das caixas-pretas

Boa parte dos modelos de Inteligência Artificial que usamos hoje são desenvolvidos por empresas que mantêm suas programações e estruturas básicas trancadas a sete chaves.
Contudo, por mais que se respeite as questões de propriedade intelectual envolvidas, alguns desses modelos atuam em áreas sensíveis. Tais áreas demandam o devido nível de confiabilidade e transparência.
Quando tomamos a área médica novamente como exemplo isso se torna evidente, pois por mais que inteligência artificial consiga ótimos resultados na área, é preciso garantir a lisura de seus processos. São por motivos como esse que diversas organizações ao redor do mundo estão buscando soluções para tornar esses modelos menos opacos.
Para isso, existem propostas de mecanismos pelos quais cientistas de dados podem colaborar e criar diretrizes e boas práticas para a legibilidade dos processos internos das IA. Isso garantiria a transparência, principalmente no sentido de demonstrar o uso de dados qualificados, seguros e com respeito à privacidade de usuários.
Além disso, pode-se pensar em diferentes níveis de interpretação do funcionamento dos modelos, a depender do tipo de usuário. Assim, desenvolvedores teriam acesso às questões de sistema, cientistas de dados poderiam verificar a proveniência dos dados utilizados e as formas pelas quais eles são usados e, finalmente, usuários finais compreenderiam os motivos principais que levaram ao resultado obtido.

Como explicar modelos de IA

De maneira geral, existem dois principais métodos de abordagem para tornar modelos de IA mais compreensíveis para seres humanos - Interpretabilidade e Transparência. Esses métodos objetivam proporcionar a cientistas e desenvolvedores maneiras de demonstrar o funcionamento de um modelo e os caminhos que levam às suas decisões.
INTERPRETABILIDADE
Interpretabilidade tem a ver com a visualização das transformações sofridas por entradas de dados em um sistema de inteligência artificial, ou seja, como dados são tratados pelo modelo. Isso implica na capacidade de se observar os diferentes mecanismos de algoritmos e a influência deles nos resultados finais.
Para tanto, são empregadas técnicas de verificação de peso e importância de fatores na decisão do modelo de IA. Por exemplo, recursos de Interpretabilidade apontam quais foram os elementos mais importantes em um grupo de dados sobre um usuário para a decisão de apresentar um quarto de hotel específico em um mecanismo de busca, em vez de outro equivalente.
Ainda, técnicas de visualização ajudam a identificar como as diferentes camadas do modelo de IA lidam com os dados. Esses mapas de ativação apresentam as camadas como um mapa neural para demonstrar como diferentes “neurônios” do modelo reagem aos dados para, então, tomar suas decisões e encaminhá-los ao próximo núcleo.
TRANSPARÊNCIA
Já a Transparência possui relação com o nível de confiabilidade do modelo de inteligência artificial. O objetivo principal nesse sentido é conseguir demonstrar que o modelo consegue operar e tomar decisões que não são baseadas em vieses discriminatórios ou apoiados em falsas premissas.
Em suma, o método de Transparência se refere a formas de tornar os modelos de IA não apenas explicáveis, mas também auditáveis. Assim como em qualquer outro campo científico, o escrutínio e revisão de pares é essencial para confirmar a eficácia dos modelos e, portanto, das ações que serão tomadas a partir dos caminhos apontados pela Inteligência Artificial.
Nos últimos anos a preocupação com a transparência da Inteligência Artificial ganhou lugar de destaque e, por isso, a União Europeia passou a observar o assunto com grande interesse. No relatório “Explainable AI: The Basics”, desenvolvido pela The Royal Society, são expostas as principais dessas preocupações e, também, os caminhos pelos quais comunidades podem tentar superá-los.
Contudo, como se pode imaginar, nem sempre é possível tornar um modelo de AI completamente compreensível para seres humanos. Devido à grande complexidade de alguns modelos, a tarefa de explicar suas ações se torna inviável. Por isso, é importante pensar em níveis de explicabilidade, a depender do contexto e do público-alvo com que se está lidando.
O elemento mais importante é o foco nos esforços de manter a inteligência artificial transparente e responsável, para que sua aplicabilidade possa alcançar o maior número de pessoas possível.

Questões futuras

A área de Inteligência Artificial Explicável ainda está em expansão, mas já se mostra bastante promissora para um futuro próximo.
As preocupações com segurança de dados e privacidade certamente serão o norte dessa área, com governos e organizações internacionais criando formas de regulamentar a atividade em seus territórios.
Isso significa que é necessário o envolvimento constante de todos os stakeholders desse processo, uma vez que a deliberação irá apontar os caminhos a serem seguidos. Além disso, as grandes empresas de tecnologia certamente irão investir em pesquisa e colaboração com cientistas de dados e desenvolvedores, a fim de se anteciparem e manterem vantagens competitivas.
Por fim, para as empresas consumidoras de inteligência artificial e demais usuários, cabe observar os desdobramentos dessa área que tanto impacta as vidas de todos. Tudo aponta que o crescimento da Inteligência Artificial Explicável trará novas possibilidades e oportunidades para geração de tecnologias inovadoras.
Quer conhecer formas inovadoras de utilizar inteligência artificial em sua empresa para gerar inteligência e estratégia? Entre em contato para uma consultoria focada em fazer sua empresa realizar mais!
Acompanhe a Realize Hub nas redes sociais
Privacy Preferences
When you visit our website, it may store information through your browser from specific services, usually in form of cookies. Here you can change your privacy preferences. Please note that blocking some types of cookies may impact your experience on our website and the services we offer.