Sábado, 24 de Janeiro de 2026
facebook001.png instagram001.png twitter001.png youtube001.png whatsapp001.png
dolar R$ 5,36
euro R$ 6,23
libra R$ 6,23

00:00:00

image
facebook001.png instagram001.png twitter001.png youtube001.png whatsapp001.png

00:00:00

image
dolar R$ 5,36
euro R$ 6,23
libra R$ 6,23

Economia Sábado, 24 de Janeiro de 2026, 08:00 - A | A

facebook instagram twitter youtube whatsapp

Sábado, 24 de Janeiro de 2026, 08h:00 - A | A

Escudo ou gatilho? Papel da IA na próxima crise financeira ainda é incerto

CONTEÚDO ESTADÃO
da Redação

O relógio marca 10h32 em uma segunda-feira qualquer. Um algoritmo de inteligência artificial interpreta de maneira pessimista um relatório de um grande banco. Em 0,3 segundo, vende bilhões de dólares em ações. Outros 200 algoritmos detectam o movimento e fazem o mesmo. A porta de saída fica estreita e, às 10h33, o mercado global está em queda livre. Às 10h35, quando os humanos entendem o que aconteceu, já é tarde: trilhões de dólares evaporaram.

Seria esse cenário factível? Especialistas ouvidos pelo Broadcast (sistema de notícias em tempo real do Grupo Estado) divergem. Enquanto alguns veem a IA como potencial aceleradora de movimentos de manada, outros defendem que a velocidade do sistema pode atuar como arma de defesa, com algoritmos capazes de detectar riscos mais rapidamente do que qualquer humano. Por essa lógica, uma crise como a descrita acima não aconteceria.

Saber se a IA será escudo ou gatilho de uma nova crise financeira global dependerá do cuidado e da supervisão humana. Disso ninguém discorda. Mas ainda há pontos cegos nesse processo.

Para o professor André Filipe Batista, especialista em ciência de dados e coordenador do Centro de Ciência de Dados do Insper, a próxima crise financeira, na era da IA, tende a ter três características centrais: velocidade, opacidade e interconexão algorítmica.

"O mercado financeiro já é rápido por natureza. Com a IA tomando decisões automatizadas, a transição de uma preocupação para um estado de pânico pode acontecer em segundos", afirma, sobre a questão da velocidade, que se mostra crucial no mercado financeiro, no confronto com outros segmentos.

A segunda característica é a opacidade dos modelos, o chamado problema da caixa-preta. "Alguns chamam de 'caixa cinza', porque ainda se entendem os mecanismos matemáticos, mas a explicabilidade é complexa. Em uma crise, essa falta de transparência pode ser fatal", explica.

O terceiro ponto é a homogeneização das estratégias. Fundos diferentes podem usar modelos semelhantes, treinados com bases de dados parecidas. Diante de um mesmo sinal, todos correm para a mesma porta, provocando um efeito de manada que afeta a liquidez do mercado. "Assim, a crise disparada pela IA seria uma crise informacional", afirma Batista.

Deepfakes e notícias sintéticas

O cenário se agrava com a proliferação de deepfakes e notícias sintéticas. Vídeos falsos de CEOs, autoridades ou líderes políticos podem circular em minutos, influenciando investidores humanos e sistemas automatizados. Quando se descobre que era falso, o estrago já foi feito.

A executiva Ticiana Amorim, CEO da Aarin, hub especializado em Pix e embedded finance do grupo Bradesco, acrescenta outro elemento: a possibilidade de a própria IA estar no centro de uma nova bolha financeira.

"Existe hoje uma hipervalorização de empresas de IA semelhante ao que vimos na bolha das pontocom. Investe-se bilhões em data centers e infraestrutura sem que ainda se conheça claramente a margem de lucro real dessas operações", afirma.

Para ela, a próxima crise tende a ser menos óbvia no início e muito mais rápida na propagação, devido às automações e à circulação acelerada de informações. Há ainda o risco de tratar a IA como fonte de verdade, quando ela é apenas uma ferramenta de interpretação de dados.

"As pessoas perguntam coisas à IA e tomam a resposta como verdade absoluta. No mercado financeiro, isso é especialmente perigoso", diz, lembrando que as crises são sempre inéditas e que os modelos, por definição, se baseiam no passado.

Nesse sentido, o evento realmente disruptivo costuma ser aquele que não está nos dados, como descreve a teoria do Cisne Negro, de Nassim Taleb. Foi o caso da crise deflagrada pela covid-19, em 2020.

Segundo Batista, se os modelos forem treinados em períodos de estabilidade, podem subestimar eventos extremos, criando uma falsa sensação de segurança e levando a decisões de superalavancagem, em um cenário que lembra, de forma ampliada e acelerada, a crise de 2008.

"Se há poucas crises no histórico, a IA pode aprender que eventos extremos são quase impossíveis e tomar decisões baseadas nessa falsa segurança", afirma.

Você, leitor, achou pessimista? Não é assim que os profissionais encaram a descrição dos riscos. O que talvez não esteja sendo observado é que a IA não reduz o trabalho humano.

"Ela ajuda a entender nuances e complexidades, mas exige mais supervisão. Teremos IA tomando decisões melhores em alguns pontos, mas a crise nasce quando deixamos isso muito solto. Se trabalharmos velocidade, opacidade e interconexão algorítmica, minimizamos as chances de novas crises", diz Batista.

IA como ferramenta de prevenção

O diretor de Inovação, Produtos, Serviços e Segurança da Febraban, Ivo Mósca, adota uma visão mais otimista. Para ele, a IA amplia a capacidade de prever riscos e pode ajudar a evitar desde fraudes cotidianas até crises financeiras globais.

"Antes, um pesquisador levava meses para testar uma hipótese. Hoje, é possível simular milhares de cenários em minutos", afirma. Segundo ele, essa modelagem permite identificar sinais de alerta antes que o efeito manada se instale.

Em meio à velocidade dos pagamentos instantâneos e dos fluxos globais de capital aumenta a volatilidade, Mósca sustenta que a própria IA pode funcionar como freio, desde que bem orientada e supervisionada. "O risco não está na tecnologia em si, mas na forma como ela é usada", diz.

Apesar das diferenças, há consenso de que a IA não elimina a necessidade de supervisão humana. Assim, uma eventual crise não seria causada pelas máquinas, mas por humanos que delegaram a elas mais do que deveriam ou abriram mão da governança.

"Não tenho dúvidas de que a IA pode tomar decisões melhores do que as humanas em muitos aspectos. O problema começa quando a gente deixa isso muito solto", conclui André Batista, que defende a construção de uma "arquitetura de confiança em inteligência artificial".

(Com Agência Estado)

Clique aqui e faça parte no nosso grupo para receber as últimas do HiperNoticias.

Clique aqui e faça parte do nosso grupo no Telegram.

Siga-nos no TWITTER ; INSTAGRAM  e FACEBOOK e acompanhe as notícias em primeira mão. 

 

Comente esta notícia

Algo errado nesta matéria ?

Use este espaço apenas para a comunicação de erros