Por Fernando de Oliveira e Gustavo de Souza
Com a explosão do uso de ferramentas de IA em gestão, o setor financeiro não é exceção. Apesar da flexibilidade e acurácia desses métodos, o seu uso indiscriminado traz riscos que devem ser discutidos pelos negócios.
Algoritmos de IA (Deep Learning) e Machine Learning (ML) produzem outputs dependentes da amostra de treinamento e da arquitetura do modelo.
Um exemplo é a tecnologia francesa usada no Brasil para monitoramento de gestos em câmeras de segurança, visando detectar furtos: trata-se de uma aplicação sensível, que deve considerar vieses que podem ocorrer no treinamento do modelo, preferencialmente sob a ótica de equipes multidisciplinares.
+ Leia também: Inovando a análise de crédito: uma parceria entre Efí Bank e UFOP
Os problemas em torno da seleção de amostras de treinamento em aplicações como essas são óbvios e já têm a atenção da sociedade. Mas atualmente a discussão tem dado um passo adiante para o nível da arquitetura dos modelos empregados.
Especificamente, esse tipo de aplicação requer que se considere o problema da interpretabilidade: mesmo com treinamento rigoroso, até que ponto é tecnicamente possível explicar uma decisão/output do modelo?
No setor financeiro, essa questão é crítica na análise de risco de crédito. Desde a crise do subprime (2008), modelos precisam atender a padrões regulatórios de acurácia. Mais recentemente, porém, a ênfase se deslocou também para a explicabilidade. Exemplos: LGPD, Basiléia II/III e Banco Central do Brasil.
A Circular BACEN 3.978/2020 exige rastreabilidade sempre que sistemas automáticos tomam decisões reguladas. Na União Europeia, o AI Act/GDPR (Art. 22) obriga que bancos forneçam “informações significativas sobre a lógica envolvida” em decisões automáticas. Acontece que, nesse quesito, os modelos tradicionais de risco Internal Ratings Based utilizados no mercado de crédito costumam deixar a desejar.
Em resumo, o que ocorre é que esses modelos recorrem a um alto nível de randomização para atingir a acurácia desejada, reduzindo com isso a sua capacidade de explicação.
Um pouco mais a fundo, o que acontece é que para ser acurados esses modelos recorrem a técnicas que acabam inviabilizando a reconstrução de resultados dos modelos — probabilidades de default (PD) e classificações de risco — como combinação determinística de variáveis, e impossibilitando rastrear uma decisão até um raciocínio claro de transição de estados ou regras interpretáveis. No AI Act de 2024, o uso de Deep Learning em scoring de crédito foi classificado como de alto risco.
Essas restrições são essenciais para o funcionamento saudável do setor de crédito.
Além do cumprimento legal, trazem benefícios práticos: ampliam a transparência para clientes, favorecem a gestão de portfólios e permitem que instituições expandam crédito com base em dados auditáveis. Também reforçam o tratamento ético da informação, algo crucial em um cenário em que “dados são o novo ouro”.
Atualmente, porém, ferramentas novas de ML já permitem avançar significativamente nessa direção em compliance regulatório.
Essa pauta fundamenta os trabalhos em risco de crédito dos pesquisadores Fernando e Gustavo (UFOP) em convênio com o Efí Bank. Além de integrar modelos tradicionais de ML para parâmetros de risco (PD, EAD, LGD) às melhores técnicas usadas em aplicações financeiras para interpretabilidade post-hoc, inovamos aplicando algoritmos recentes de inferência e previsão em séries temporais para aprender dependências condicionais do risco em função de históricos.
O método identifica padrões temporais de forma interpretável no nível simbólico, oferecendo explicações comportamentais para probabilidades de default. Tais explicações são úteis para classificação, auditoria regulatória e para gestores ajustarem decisões ao perfil do cliente.
Adicionalmente, estamos desenvolvendo uma arquitetura de Aprendizado Federado (Federated Learning) para integrar o funcionamento dessa metodologia a novos modelos de ML para classificação interpretável, com foco em situações em que o interesse é avaliar a adequação de amostras provenientes de diferentes populações com históricos sociogeográficos distintos.
Pretende-se obter melhores estimativas que captem a heterogeneidade local para um melhor rigor no uso do modelo de risco de crédito.
Concluímos que avanços em compliance regulatório não são apenas exigência, mas fator de diferenciação entre instituições financeiras. Além disso, parcerias como a do UFOP e o Efí Bank têm efeito multiplicador, ao formar estudantes e pesquisadores em temas de fronteira.
No nosso caso, já incorporamos alunos de graduação e pós em projetos com esta parceria e estabelecemos intercâmbio ativo de resultados com o Efí Bank.
Fernando de Oliveira atua há mais de 20 anos com métodos estatísticos para compreensão de fenômenos de natureza estocástica, considerando a análise/modelagem de dados para colaborar/orientar as tomadas de decisões. Fernando realiza e realizou trabalhos colaborativos com profissionais nacionais e internacionais de diversas áreas do conhecimento. Tem uma vasta produção de conhecimento científico publicada em veículos nacionais e internacionais. Com Doutorado na área de Estatística, é um profissional dedicado, versátil e apaixonado pelo que faz. Além disso, é um aficionado por cafés.
Gustavo de Souza é doutor em Física (UFMG/2015), professor de Matemática e pesquisador em Matemática Aplicada na Universidade Federal de Ouro Preto (UFOP). Possui experiência no desenvolvimento de modelos matemáticos em aplicações diversas como Física Quântica, controle estatístico de séries, Epidemiologia e saúde pública. Trabalhando atualmente com modelos de risco de crédito e pesquisas sobre ensino de Matemática. Apaixonado por música clássica e literatura de ficção científica.
Compartilhe nas redes: