O uso de inteligência artificial nas investigações criminais voltou ao centro do debate após decisão do Superior Tribunal de Justiça (STJ). A Corte anulou, de forma unânime, relatório produzido com auxílio de IA e determinou a retirada do material de um processo de injúria racial em Rio Preto. O caso envolve o vice-prefeito Fábio Marcondes.
Para o STJ, o documento não pode ser tratado como prova pericial. A decisão reforça um ponto que vem ganhando força no meio jurídico: o uso de tecnologia, sem critérios técnicos e validação adequada, pode comprometer o próprio processo.
O avanço da IA nas investigações é real. Sistemas de reconhecimento facial, análise de dados e triagem automatizada já fazem parte da rotina das forças de segurança. O problema é o uso sem controle.
Para o advogado Daniel Vicente Romero, o risco não está na tecnologia, mas na forma como ela é aplicada. “A inteligência artificial pode ser uma ferramenta útil, mas não pode substituir critérios técnicos e jurídicos. Quando não há transparência, metodologia clara e possibilidade de revisão, o risco de erro aumenta e pode afetar diretamente direitos fundamentais”, afirma.
A decisão do STJ expõe uma fragilidade central. Sistemas de IA muitas vezes operam como caixas-pretas, sem explicar como chegaram a determinada conclusão. Isso dificulta o contraditório e pode levar à aceitação de provas sem validação adequada.
“Se o sistema não permite auditoria ou explicação do resultado, ele não pode ser tratado como prova técnica. O processo penal exige rastreabilidade e controle, o que nem sempre está presente nesses modelos”, diz Romero.
Outro ponto crítico é o risco de vieses. Algoritmos treinados com bases de dados distorcidas podem reproduzir desigualdades e gerar interpretações equivocadas. Em investigações, isso pode significar direcionamento indevido de apurações ou até acusações contra pessoas inocentes.
A coleta e o uso de dados também entram na discussão. O uso de reconhecimento facial em espaços públicos, por exemplo, levanta questionamentos sobre privacidade e limites legais.
“A tecnologia precisa estar subordinada ao direito. Não é possível admitir decisões automatizadas que impactem a liberdade das pessoas sem garantias mínimas de transparência e revisão humana”, afirma o advogado.
A decisão do STJ não proíbe o uso de inteligência artificial, mas estabelece um limite claro. Sem validação técnica, metodologia verificável e possibilidade de auditoria, o material não pode ser considerado prova. O cenário aponta para a necessidade de regulamentação objetiva. A tendência é de crescimento do uso da IA, mas com exigência de critérios técnicos e jurídicos.
Autor