Aconteceu recentemente com uma pessoa amiga. Ao se apresentar para um exame de imagem previamente agendado, e devidamente solicitado por seu médico, teve a autorização negada pelo plano de saúde, embora suas mensalidades estivessem rigorosamente em dia. Quem negou não foi um outro médico, munido de critérios clínicos divergentes. Foi um algoritmo. Sem interação humana ou motivação fundamentada, o paciente foi compelido a horas de diálogo estéril com robôs de atendimento, exigindo-se até vídeos do médico assistente para justificar o pedido. Em uma emergência, o desfecho poderia ter sido fatal.
Este não é um caso isolado, mas um sintoma de uma "caixa-preta" digital. Há situações ainda mais graves: processos de recrutamento que descartam candidatos pelo CEP de residência — penalizando quem vive em áreas vulneráveis — ou algoritmos etaristas que eliminam currículos acima de 55 anos, ignorando a senioridade.
A obra Automating Inequality, de Virginia Eubanks, é um alerta incômodo sobre o rumo das políticas públicas quando decisões sensíveis são delegadas a sistemas opacos. Eubanks demonstra que a tecnologia não é neutra; ela carrega vieses que, historicamente, punem os mais vulneráveis. No Brasil, essa preocupação é corroborada por Allan Carvalho, que defende a necessidade de supervisão humana e auditorias independentes para mitigar o racismo e o sexismo algorítmico, e por Ana Lídia Lira Ribeiro, que destaca como a eficácia da Lei Geral de Proteção de Dados (LGPD) depende de uma fiscalização ativa contra a opacidade decisória.
Nesse sentido, Rafaela Vilela Gonçalves ressalta que sistemas baseados em big data exigem governança ética e avaliação de impacto para não reproduzir injustiças. Diante desse cenário, torna‑se evidente que a busca pela justiça algorítmica não pode ser delegada à autorregulação das empresas de tecnologia. É indispensável que instituições públicas dotadas de independência e capacidade técnica — como os Tribunais de Contas e o Ministério Público — assumam protagonismo na fiscalização desses sistemas, especialmente quando utilizados na prestação de serviços essenciais.
Cabe aos Tribunais de Contas auditar os algoritmos empregados em políticas públicas e contratos administrativos, verificando a aderência aos princípios da transparência, proporcionalidade e não discriminação. Ao Ministério Público, compete zelar pelos direitos fundamentais, acionando o Judiciário sempre que a automação violar a dignidade humana. Somente com a atuação coordenada dessas instituições garantiremos que a tecnologia sirva ao interesse público, e não à reprodução silenciosa das desigualdades que ela deveria ajudar a superar.
(*) LUIZ HENRIQUE LIMA é professor e conselheiro independente certificado, CCA-IBGC.
Os artigos assinados são de responsabilidade dos autores e não refletem necessariamente a opinião do site de notícias www.hnt.com.br
Clique aqui e faça parte no nosso grupo para receber as últimas do HiperNoticias.
Clique aqui e faça parte do nosso grupo no Telegram.
Siga-nos no TWITTER ; INSTAGRAM e FACEBOOK e acompanhe as notícias em primeira mão.








