Terça, 10 de Março de 2026
26°C 27°C
Salvador, BA
Publicidade

Algoritmos decidem, mas quem se responsabiliza? Os riscos da adoção desregulada de tecnologias digitais na Justiça criminal brasileira

A incorporação de reconhecimento facial, câmeras corporais e inteligência artificial no sistema de Justiça avança mais rápido do que as salvaguardas necessárias para proteger direitos fundamentais. por Pablo Nunes e Thallita Lima

Carlos Nascimento
Por: Carlos Nascimento Fonte: fontesegura.forumseguranca.org.br/EDIÇÃO N.306
27/12/2025 às 09h27 Atualizada em 27/12/2025 às 09h36
Algoritmos decidem, mas quem se responsabiliza? Os riscos da adoção desregulada de tecnologias digitais na Justiça criminal brasileira

O Brasil concentra a terceira maior população carcerária do mundo, composta majoritariamente por pessoas negras e pobres. Nesse contexto, a adoção acelerada de tecnologias como reconhecimento facial e inteligência artificial no sistema de Justiça criminal deveria ser tratada com extrema cautela. Quem presta atenção ao noticiário, porém, vê que é o oposto que está acontecendo.

Um mapeamento nacional realizado pelo CESeC[1] identificou que 30 órgãos de segurança e justiça já utilizam tecnologias de reconhecimento facial para fins investigativos no país. Entre eles, 14 Polícias Civis, 13 Secretarias de Segurança Pública e três Ministérios Públicos estaduais. A empresa mais presente é a Clearview AI, conhecida internacionalmente por construir bancos de dados com bilhões de imagens coletadas sem consentimento, prática já considerada ilegal em diversos países.

O valor total contratado apenas com a representante da Clearview no Brasil ultrapassa R$ 14 milhões. Todos os contratos identificados foram firmados por inexigibilidade de licitação, sob o argumento de singularidade técnica. Esse mecanismo, quando aplicado a tecnologias de alto risco, reforça monopólios tecnológicos e reduz a capacidade de auditoria estatal.

O problema central é, afora os vieses já identificados nos algoritmos de reconhecimento facial na identificação de perfis populacionais específicos – notadamente pessoas negras– , a ausência de governança sobre seu uso. Das 81 solicitações de informação enviadas a órgãos estaduais, em mais da metade dos casos não obtivemos resposta. Quando houve retorno, as informações eram frequentemente genéricas ou incompletas. Essa opacidade institucional não é acidental; ela permite que práticas experimentais se consolidem sem o devido escrutínio público.

A mesma lógica que fundamenta a expansão do reconhecimento facial na segurança pública brasileira agora justifica a aquisição desses algoritmos para investigações criminais. Não há, contudo, qualquer avaliação demonstrando que a tecnologia produz melhorias efetivas no policiamento ou na elucidação de crimes. Dinheiro público tem sido gasto sem justificativa razoável, sem transparência e sem garantias de proteção aos direitos dos cidadãos.

É preciso inserir na equação os graves problemas que o país enfrenta com o reconhecimento de pessoas no sistema de justiça. O Conselho Nacional de Justiça (CNJ), sob coordenação do Ministro Rogério Schietti, debruçou-se[2] sobre esse aspecto da produção de provas em processos criminais e revelou a falta de parâmetros claros para identificações feitas por imagens ou pessoalmente, o que tem causado há anos o aprisionamento de pessoas inocentes. Quanto tempo decorrerá até começarmos a contar os casos de prisões injustas provocadas por algoritmos de reconhecimento facial?

Além do reconhecimento facial, outras inteligências artificiais têm sido utilizadas no Judiciário. O CNJ mapeou 140 projetos de IA nos tribunais brasileiros[3], dos quais 63 estão ativos. A maioria é utilizada para apoio à atividade jurisdicional, auxiliando na elaboração de decisões e sentenças. Uma pesquisa revelou que 76% dos magistrados e servidores utilizam plataformas privadas como ChatGPT e Copilot, transferindo dados processuais sensíveis para empresas cujos modelos de governança são incompatíveis com a administração pública. Mais alarmante: 85% dos assessores não informam aos magistrados quando utilizam essas ferramentas.

As câmeras corporais usadas por policiais ilustram outro paradoxo. Apresentadas como solução para reduzir a letalidade policial e aumentar a transparência, sua eficácia depende integralmente do ecossistema político e jurídico em que operam. Quando há protocolos claros de acionamento automático, preservação da cadeia de custódia e acesso isonômico às imagens, essas tecnologias podem fortalecer o controle externo. Quando não há, tornam-se frágeis instrumentos de prestação de contas

Em Santa Catarina, pioneira no uso em larga escala, o programa foi descontinuado em 2024 após constatação de que em 55% das ocorrências os policiais simplesmente não ligaram as câmeras. No Rio de Janeiro, a Defensoria Pública relatou que a Polícia Militar respondeu a apenas 51 dos 90 ofícios solicitando imagens. Em São Paulo, que adotava um programa considerado modelo, mudanças recentes na governança enfraqueceram sua efetividade no controle da letalidade, levando a um aumento expressivo de mortes por policiais nos últimos anos. O padrão se repete: dificuldade de acesso, envio de gravações incorretas, silêncio judicial diante da omissão policial. 

O marco regulatório permanece fragmentado e contraditório. A Lei Geral de Proteção de Dados exclui parcialmente as atividades de segurança pública e persecução penal de seu escopo. A minuta atual do Projeto de Lei 2.338/2023, conhecido como Marco Legal da IA, classifica o reconhecimento facial como “risco excessivo”, mas autoriza seu uso em segurança pública sem prever mecanismos efetivos de auditoria e governança. A Portaria do Ministério da Justiça 961 de 2025[4] estabeleceu diretrizes importantes sobre uso de inteligência artificial em investigações, mas não criou instrumentos concretos de fiscalização no que se refere ao reconhecimento facial.

O desafio que se impõe é transformar princípios genéricos em mecanismos concretos de controle e supervisão. Isso exige transparência sobre quais tecnologias estão sendo utilizadas, por quem e com quais salvaguardas. Exige supervisão humana significativa nas decisões automatizadas. Exige acesso equitativo às evidências digitais para garantir paridade de armas entre acusação e defesa. Exige, sobretudo, reconhecer que uma alegada eficiência – nunca provada – não pode ser o único critério orientador quando direitos fundamentais estão em jogo.

A tecnologia não é neutra. Seus usos e regulações emergem de decisões políticas que precisam ganhar visibilidade e ser submetidas ao controle democrático. Enquanto isso não acontecer, continuaremos delegando a algoritmos opacos decisões que afetam a liberdade de pessoas, sem que ninguém seja responsabilizado quando o sistema falha.

Referências

[1] Algoritmos e Direitos: Tecnologias Digitais na Justiça Criminal. Fonte:

[2] CNJ. Grupo de Trabalho Reconhecimento de Pessoas. Fonte:

[3] IA generativa é utilizada em mais de 45% dos tribunais brasileiros. Fonte:

[4] Portaria do MJSP regulamenta uso de tecnologia em investigações criminais e inteligência de segurança pública. Fonte:

(*) Pablo Nunes - Coordenador do projeto O Panóptico e diretor do Centro de Estudos de Segurança e Cidadania (CESeC).

(*) Thallita Lima - Coordenadora de pesquisa do projeto O Panóptico.

fontesegura.forumseguranca.org.br/EDIÇÃO N.306

Clique na IMAGEM e acesse a Coluna Fonte Segura/PÁGINA DE POLÍCIA, espaço destinado para publicações de artigos dos articulistas do Fonte Segura/Fórum Brasileiro de Segurança Pública.

*COMENTE A MATÉRIA E COMPARTILHE, assim você estará apoiando o jornalismo independente.!*

*INSCREVA-SE* no Canal do YouTube do PÁGINA DE POLÍCIA - @tvpaginadepolicia  

Clique no *"GOSTEI"* e COMPARTILHE...:

* O conteúdo de cada comentário é de responsabilidade de quem realizá-lo. Nos reservamos ao direito de reprovar ou eliminar comentários em desacordo com o propósito do site ou que contenham palavras ofensivas.
500 caracteres restantes.
Comentar
Mostrar mais comentários
MÚLTIPLAS VOZES  Há 1 semana

ESPERTEZA E OPORTUNISMO: A hipervisibilidade do Smart Sampa enquanto uma estratégia estética de segurança na cidade de São Paulo

A adoção do Smart Sampa, como de outros aparatos de vigilância massiva, é sustentada por uma retórica punitivista que ganha expressão a partir de 2018 - quando Bolsonaro chega ao poder. Por Alcides Eduardo dos Reis Peron

MÚLTIPLAS VOZES  Há 1 semana

POLICIAMENTO EM METAVERSOS: por que a formação policial precisa mudar agora

Metacrimes exigem policiais capazes de atuar em fenômenos que transcendem as fronteiras entre mundos físico e digital. Por Carla Fernanda da Cruz e Francis Albert Cotta

PERÍCIA EM EVIDÊNCIA Há 1 semana

UMA PERÍCIA PARA CHAMAR DE SUA: O Caso Master e as controvérsias envolvendo a perícia. 

O que se observa é que neste caso a perícia serviu como uma ferramenta sujeita ao interesse dependente de quem atuou como autoridade requisitante. Por Cássio Thyone Almeida de Rosa

A COR DA QUESTÃO Há 1 semana

Togas no país das maravilhas.

Criança não namora, não se casa, não constitui união estável. Meninas não são esposas. Nisso não pode haver dúvida. Não há aqui qualquer sutileza ou entrelinha a ser considerada. Por Juliana Brandão

MÚLTIPLAS VOZES Há 1 semana

Indicador nacional é passo fundamental para o avanço da investigação criminal no Brasil

Em um país que convive há décadas com a dor de famílias sem respostas e com a sensação de que o crime compensa, ter um indicador nacional de elucidação é mais do que uma conquista técnica. Por Carolina Ricardo

FONTE SEGURA
FONTE SEGURA
Espaço dos articulistas do FONTE SEGURA/Fórum Brasileiro de Segurança Pública, dedicado a análises baseadas em dados e transparência para qualificar o debate sobre segurança pública. O projeto conecta fatos e estruturas, promove cooperação federativa e alcança leitores em diversos países.
Ver notícias
Salvador, BA
28°
Tempo limpo
Mín. 26° Máx. 27°
31° Sensação
5.34 km/h Vento
72% Umidade
38% (0.34mm) Chance chuva
05h37 Nascer do sol
17h51 Pôr do sol
Quarta
27° 26°
Quinta
27° 26°
Sexta
28° 25°
Sábado
28° 26°
Domingo
28° 25°
Publicidade
Anúncio
Publicidade
Anúncio
Publicidade
Anúncio
Economia
Dólar
R$ 5,15 -0,11%
Euro
R$ 5,99 -0,16%
Peso Argentino
R$ 0,00 +0,00%
Bitcoin
R$ 383,728,64 +2,03%
Ibovespa
184,614,56 pts 2.04%
Publicidade
Anúncio
Publicidade
Enquete
Nenhuma enquete cadastrada
Publicidade
Anúncio