Sexta, 23 de Janeiro de 2026
25°C 27°C
Salvador, BA
Publicidade

Algoritmos decidem, mas quem se responsabiliza? Os riscos da adoção desregulada de tecnologias digitais na Justiça criminal brasileira

A incorporação de reconhecimento facial, câmeras corporais e inteligência artificial no sistema de Justiça avança mais rápido do que as salvaguardas necessárias para proteger direitos fundamentais. por Pablo Nunes e Thallita Lima

Carlos Nascimento
Por: Carlos Nascimento Fonte: fontesegura.forumseguranca.org.br/EDIÇÃO N.306
27/12/2025 às 09h27 Atualizada em 27/12/2025 às 09h36
Algoritmos decidem, mas quem se responsabiliza? Os riscos da adoção desregulada de tecnologias digitais na Justiça criminal brasileira

O Brasil concentra a terceira maior população carcerária do mundo, composta majoritariamente por pessoas negras e pobres. Nesse contexto, a adoção acelerada de tecnologias como reconhecimento facial e inteligência artificial no sistema de Justiça criminal deveria ser tratada com extrema cautela. Quem presta atenção ao noticiário, porém, vê que é o oposto que está acontecendo.

Um mapeamento nacional realizado pelo CESeC[1] identificou que 30 órgãos de segurança e justiça já utilizam tecnologias de reconhecimento facial para fins investigativos no país. Entre eles, 14 Polícias Civis, 13 Secretarias de Segurança Pública e três Ministérios Públicos estaduais. A empresa mais presente é a Clearview AI, conhecida internacionalmente por construir bancos de dados com bilhões de imagens coletadas sem consentimento, prática já considerada ilegal em diversos países.

O valor total contratado apenas com a representante da Clearview no Brasil ultrapassa R$ 14 milhões. Todos os contratos identificados foram firmados por inexigibilidade de licitação, sob o argumento de singularidade técnica. Esse mecanismo, quando aplicado a tecnologias de alto risco, reforça monopólios tecnológicos e reduz a capacidade de auditoria estatal.

O problema central é, afora os vieses já identificados nos algoritmos de reconhecimento facial na identificação de perfis populacionais específicos – notadamente pessoas negras– , a ausência de governança sobre seu uso. Das 81 solicitações de informação enviadas a órgãos estaduais, em mais da metade dos casos não obtivemos resposta. Quando houve retorno, as informações eram frequentemente genéricas ou incompletas. Essa opacidade institucional não é acidental; ela permite que práticas experimentais se consolidem sem o devido escrutínio público.

A mesma lógica que fundamenta a expansão do reconhecimento facial na segurança pública brasileira agora justifica a aquisição desses algoritmos para investigações criminais. Não há, contudo, qualquer avaliação demonstrando que a tecnologia produz melhorias efetivas no policiamento ou na elucidação de crimes. Dinheiro público tem sido gasto sem justificativa razoável, sem transparência e sem garantias de proteção aos direitos dos cidadãos.

É preciso inserir na equação os graves problemas que o país enfrenta com o reconhecimento de pessoas no sistema de justiça. O Conselho Nacional de Justiça (CNJ), sob coordenação do Ministro Rogério Schietti, debruçou-se[2] sobre esse aspecto da produção de provas em processos criminais e revelou a falta de parâmetros claros para identificações feitas por imagens ou pessoalmente, o que tem causado há anos o aprisionamento de pessoas inocentes. Quanto tempo decorrerá até começarmos a contar os casos de prisões injustas provocadas por algoritmos de reconhecimento facial?

Além do reconhecimento facial, outras inteligências artificiais têm sido utilizadas no Judiciário. O CNJ mapeou 140 projetos de IA nos tribunais brasileiros[3], dos quais 63 estão ativos. A maioria é utilizada para apoio à atividade jurisdicional, auxiliando na elaboração de decisões e sentenças. Uma pesquisa revelou que 76% dos magistrados e servidores utilizam plataformas privadas como ChatGPT e Copilot, transferindo dados processuais sensíveis para empresas cujos modelos de governança são incompatíveis com a administração pública. Mais alarmante: 85% dos assessores não informam aos magistrados quando utilizam essas ferramentas.

As câmeras corporais usadas por policiais ilustram outro paradoxo. Apresentadas como solução para reduzir a letalidade policial e aumentar a transparência, sua eficácia depende integralmente do ecossistema político e jurídico em que operam. Quando há protocolos claros de acionamento automático, preservação da cadeia de custódia e acesso isonômico às imagens, essas tecnologias podem fortalecer o controle externo. Quando não há, tornam-se frágeis instrumentos de prestação de contas

Em Santa Catarina, pioneira no uso em larga escala, o programa foi descontinuado em 2024 após constatação de que em 55% das ocorrências os policiais simplesmente não ligaram as câmeras. No Rio de Janeiro, a Defensoria Pública relatou que a Polícia Militar respondeu a apenas 51 dos 90 ofícios solicitando imagens. Em São Paulo, que adotava um programa considerado modelo, mudanças recentes na governança enfraqueceram sua efetividade no controle da letalidade, levando a um aumento expressivo de mortes por policiais nos últimos anos. O padrão se repete: dificuldade de acesso, envio de gravações incorretas, silêncio judicial diante da omissão policial. 

O marco regulatório permanece fragmentado e contraditório. A Lei Geral de Proteção de Dados exclui parcialmente as atividades de segurança pública e persecução penal de seu escopo. A minuta atual do Projeto de Lei 2.338/2023, conhecido como Marco Legal da IA, classifica o reconhecimento facial como “risco excessivo”, mas autoriza seu uso em segurança pública sem prever mecanismos efetivos de auditoria e governança. A Portaria do Ministério da Justiça 961 de 2025[4] estabeleceu diretrizes importantes sobre uso de inteligência artificial em investigações, mas não criou instrumentos concretos de fiscalização no que se refere ao reconhecimento facial.

O desafio que se impõe é transformar princípios genéricos em mecanismos concretos de controle e supervisão. Isso exige transparência sobre quais tecnologias estão sendo utilizadas, por quem e com quais salvaguardas. Exige supervisão humana significativa nas decisões automatizadas. Exige acesso equitativo às evidências digitais para garantir paridade de armas entre acusação e defesa. Exige, sobretudo, reconhecer que uma alegada eficiência – nunca provada – não pode ser o único critério orientador quando direitos fundamentais estão em jogo.

A tecnologia não é neutra. Seus usos e regulações emergem de decisões políticas que precisam ganhar visibilidade e ser submetidas ao controle democrático. Enquanto isso não acontecer, continuaremos delegando a algoritmos opacos decisões que afetam a liberdade de pessoas, sem que ninguém seja responsabilizado quando o sistema falha.

Referências

[1] Algoritmos e Direitos: Tecnologias Digitais na Justiça Criminal. Fonte:

[2] CNJ. Grupo de Trabalho Reconhecimento de Pessoas. Fonte:

[3] IA generativa é utilizada em mais de 45% dos tribunais brasileiros. Fonte:

[4] Portaria do MJSP regulamenta uso de tecnologia em investigações criminais e inteligência de segurança pública. Fonte:

(*) Pablo Nunes - Coordenador do projeto O Panóptico e diretor do Centro de Estudos de Segurança e Cidadania (CESeC).

(*) Thallita Lima - Coordenadora de pesquisa do projeto O Panóptico.

fontesegura.forumseguranca.org.br/EDIÇÃO N.306

Clique na IMAGEM e acesse a Coluna Fonte Segura/PÁGINA DE POLÍCIA, espaço destinado para publicações de artigos dos articulistas do Fonte Segura/Fórum Brasileiro de Segurança Pública.

*COMENTE A MATÉRIA E COMPARTILHE, assim você estará apoiando o jornalismo independente.!*

*INSCREVA-SE* no Canal do YouTube do PÁGINA DE POLÍCIA - @tvpaginadepolicia  

Clique no *"GOSTEI"* e COMPARTILHE...:

* O conteúdo de cada comentário é de responsabilidade de quem realizá-lo. Nos reservamos ao direito de reprovar ou eliminar comentários em desacordo com o propósito do site ou que contenham palavras ofensivas.
500 caracteres restantes.
Comentar
Mostrar mais comentários
FONTE SEGURA
FONTE SEGURA
Espaço dos articulistas do FONTE SEGURA/Fórum Brasileiro de Segurança Pública, dedicado a análises baseadas em dados e transparência para qualificar o debate sobre segurança pública. O projeto conecta fatos e estruturas, promove cooperação federativa e alcança leitores em diversos países.
Ver notícias
Salvador, BA
26°
Tempo nublado
Mín. 25° Máx. 27°
27° Sensação
5.74 km/h Vento
72% Umidade
3% (0mm) Chance chuva
05h23 Nascer do sol
18h07 Pôr do sol
Sábado
27° 25°
Domingo
27° 25°
Segunda
26° 25°
Terça
26° 25°
Quarta
27° 25°
Publicidade
Publicidade


 


 

Publicidade
Economia
Dólar
R$ 5,29 +0,07%
Euro
R$ 6,23 +0,35%
Peso Argentino
R$ 0,00 +0,00%
Bitcoin
R$ 502,131,89 +0,02%
Ibovespa
178,858,55 pts 1.86%
Publicidade
Publicidade
Enquete
Nenhuma enquete cadastrada
Publicidade
Anúncio