STJ derruba IA como prova e reacende debate sobre riscos nas investigações
Foto: Divulgação - Daniel Romero frisa que o risco está na forma como a tecnologia é aplicada
Decisão anula relatório em caso de injúria racial e expõe limites legais do uso de inteligência artificial
Por Da Reportagem Local | 09 de abril, 2026

O uso de inteligência artificial nas investigações criminais voltou ao centro do debate após decisão do Superior Tribunal de Justiça (STJ). A Corte anulou, de forma unânime, relatório produzido com auxílio de IA e determinou a retirada do material de um processo de injúria racial em Rio Preto. O caso envolve o vice-prefeito Fábio Marcondes.

Para o STJ, o documento não pode ser tratado como prova pericial. A decisão reforça um ponto que vem ganhando força no meio jurídico: o uso de tecnologia, sem critérios técnicos e validação adequada, pode comprometer o próprio processo.

O avanço da IA nas investigações é real. Sistemas de reconhecimento facial, análise de dados e triagem automatizada já fazem parte da rotina das forças de segurança. O problema é o uso sem controle.

Para o advogado Daniel Vicente Romero, o risco não está na tecnologia, mas na forma como ela é aplicada. “A inteligência artificial pode ser uma ferramenta útil, mas não pode substituir critérios técnicos e jurídicos. Quando não há transparência, metodologia clara e possibilidade de revisão, o risco de erro aumenta e pode afetar diretamente direitos fundamentais”, afirma.

A decisão do STJ expõe uma fragilidade central. Sistemas de IA muitas vezes operam como caixas-pretas, sem explicar como chegaram a determinada conclusão. Isso dificulta o contraditório e pode levar à aceitação de provas sem validação adequada.

“Se o sistema não permite auditoria ou explicação do resultado, ele não pode ser tratado como prova técnica. O processo penal exige rastreabilidade e controle, o que nem sempre está presente nesses modelos”, diz Romero.

Outro ponto crítico é o risco de vieses. Algoritmos treinados com bases de dados distorcidas podem reproduzir desigualdades e gerar interpretações equivocadas. Em investigações, isso pode significar direcionamento indevido de apurações ou até acusações contra pessoas inocentes.

A coleta e o uso de dados também entram na discussão. O uso de reconhecimento facial em espaços públicos, por exemplo, levanta questionamentos sobre privacidade e limites legais.

“A tecnologia precisa estar subordinada ao direito. Não é possível admitir decisões automatizadas que impactem a liberdade das pessoas sem garantias mínimas de transparência e revisão humana”, afirma o advogado.

A decisão do STJ não proíbe o uso de inteligência artificial, mas estabelece um limite claro. Sem validação técnica, metodologia verificável e possibilidade de auditoria, o material não pode ser considerado prova. O cenário aponta para a necessidade de regulamentação objetiva. A tendência é de crescimento do uso da IA, mas com exigência de critérios técnicos e jurídicos.

Autor

Da Reportagem Local
Redação de O Regional

Por Guilherme Gandini | 09 de abril de 2026
Banda Morada abre Canta e Encanta esta noite no Recinto de Exposições
Por Da Reportagem Local | 09 de abril de 2026
Jovem Aprendiz dos Correios forma cadastro reserva na região
Por Da Reportagem Local | 09 de abril de 2026
Coleta de lixo domiciliar soma 150 toneladas por dia em Catanduva