Artigo
Pedro das Neves
Serviços prisionais ao redor do mundo continuam enfrentando desafios persistentes como instalações superlotadas, altas taxas de reincidência e programas de reabilitação com recursos insuficientes. Embora muitas dessas questões precisem ser enfrentadas a montante na cadeia de justiça – por meio de medidas como penas alternativas, programas de desvio e esforços para reduzir o encarceramento desnecessário – há também uma necessidade urgente de fortalecer a aplicação de práticas de reabilitação baseadas em evidências nos contextos de privação de liberdade e na comunidade.
Abordagens fundamentadas nos princípios de risco-necessidade-responsividade (RNR), no gerenciamento individualizado de casos e na terapia cognitivo-comportamental têm se mostrado eficazes na promoção da desistência do crime e no apoio à reintegração. Com base nessas fundações, cresce a expectativa de que a Inteligência Artificial (IA) possa servir como uma ferramenta poderosa para ampliar, personalizar e potencializar essas intervenções. À medida que as administrações penitenciárias buscam soluções mais humanas, eficazes e equitativas, a IA surge como um valioso complemento à expertise profissional – apoiando a tomada de decisões, otimizando recursos e melhorando os resultados para indivíduos e comunidades.
Desde avaliações dinâmicas de risco até o apoio contínuo à saúde mental, a IA promete melhorar a forma como reabilitamos pessoas sob custódia e durante sua transição de volta à sociedade.
No entanto, a inovação na justiça deve vir acompanhada de responsabilidade. Para que a IA contribua de maneira significativa com a segurança pública e a reabilitação, sua implementação deve ser guiada por políticas sólidas, marcos éticos bem definidos e um compromisso com a integridade e a inclusão dos dados. No sistema prisional, talvez mais do que em qualquer outro setor, as apostas são profundamente humanas.
O dilema dos dados: uma base frágil
A IA depende de dados – mas, no sistema prisional, os dados muitas vezes são fragmentados, de baixa qualidade ou carregados de viés. Em muitas jurisdições, informações básicas sobre o histórico dos presos, seus comportamentos ou participação em programas ainda são armazenadas em papel, em arquivos físicos ou bancos de dados não padronizados. Sem digitalização e integração, a IA não pode produzir análises confiáveis. E quando os dados refletem desigualdades sistêmicas – como a supervigilância de determinadas comunidades -, esses mesmos padrões de injustiça correm o risco de serem ampliados pelos algoritmos.
Investimentos em Sistemas de Gestão Penitenciária e de Reclusos (Offender Management Systems – OMS) modernos, seguros e interoperáveis, aliados a normas claras de governança de dados, devem ser prioridade política. Só assim a IA poderá apoiar decisões que sejam ao mesmo tempo inteligentes e justas.
Análise preditiva: decisões mais inteligentes, intervenções mais precoces
As análises preditivas baseadas em IA podem ajudar os sistemas prisionais a sair de uma lógica reativa para adotar estratégias preventivas. Em vez de depender apenas de fatores de risco estáticos, modelos de aprendizado de máquina podem se basear em um conjunto mais amplo de variáveis para prever a probabilidade de reincidência de um indivíduo e recomendar intervenções sob medida. Quando usada com ética, essa abordagem permite priorizar recursos (como vagas em terapias ou educação) para quem mais precisa. No âmbito da execução penal na comunidade, análises em tempo real podem detectar sinais precoces de recaída ou crise — como faltas a compromissos ou mudanças de comportamento — e alertar os agentes de supervisão antes que o dano ocorra. Ainda assim, são essenciais salvaguardas. Estudos demonstram que dados de treinamento enviesados podem levar a algoritmos que superestimam o risco de reincidência para mulheres ou pessoas negras. Transparência, auditorias independentes e o direito de contestar avaliações algorítmicas devem ser garantidos sempre que a IA influenciar decisões relacionadas à liberdade ou à reabilitação.
IA como mentora, terapeuta e educadora
O potencial da IA vai além da avaliação de risco. Em muitos sistemas onde há escassez de pessoal ou recursos, a IA pode funcionar como uma ferramenta de apoio disponível 24 horas por dia para ajudar pessoas privadas de liberdade a aprender, enfrentar desafios e evoluir.
Nos Estados Unidos, o chatbot de IA “Echo” foi implementado em prisões para oferecer apoio emocional com base na terapia cognitivo-comportamental, por meio de conversas informadas sobre traumas ¹.
Pessoas em privação de liberdade o utilizam para lidar com raiva, ansiedade e estresse – reduzindo infrações disciplinares e aumentando o engajamento em programas de reabilitação. Tutores de IA também podem auxiliar no desenvolvimento da alfabetização, qualificação profissional ou acesso ao ensino superior. Na Finlândia, pessoas presas contribuíram para projetos de IA rotulando dados – desenvolvendo habilidades digitais e fortalecendo sua autoconfiança para o mercado de trabalho após a libertação. Essas inovações mostram que, quando projetada com empatia e propósito, a IA pode ser uma força de empoderamento. No entanto, essas ferramentas devem complementar – e não substituir – as relações humanas. A IA não pode replicar todas as nuances do cuidado terapêutico, nem deve ser a única fonte de apoio para quem enfrenta traumas ou tenta se reintegrar à sociedade.
Modelos de linguagem e agentes de IA: tecnologias para profissionais e reclusos
O avanço dos Modelos de Linguagem de Grande Escala (Large Language Models – LLMs), como o ChatGPT, e agentes de IA traz novas possibilidades. Assistentes virtuais podem ajudar agentes de reintegração a resumir históricos de casos, redigir relatórios ou receber alertas sobre clientes em situação de risco elevado. Pessoas em situação de prisão ou egressos podem utilizar mentores de IA para compreender seus direitos, acessar recursos de reintegração ou receber orientação passo a passo sobre como buscar emprego ou cumprir condições de liberdade. A capacitação de profissionais também pode se beneficiar: cenários simulados com IA podem ser usados para treinar práticas de mediação, escuta ativa ou justiça restaurativa. Ainda assim, esses modelos poderosos devem ser aplicados com cautela. “Alucinações” da IA ou erros em contextos jurídicos podem ter consequências graves. É fundamental estabelecer limites claros e garantir supervisão humana.
Evitando um fosso digital no sistema prisional
A adoção de IA também traz uma preocupação crítica com a equidade: o risco de aprofundar o fosso digital dentro e entre os sistemas prisionais. Já existe um abismo crescente entre sistemas e instituições com infraestrutura física e tecnológica e recursos adequados e aquelas que ainda operam com registros em papel ou sistemas de informação obsoletos.
Algumas pessoas presas desenvolvem competências digitais e têm acesso a tutores de IA; outras saem do sistema sem saber sequer como usar um smartphone.
Se não for enfrentado, esse desequilíbrio pode resultar em desigualdade nos resultados da reabilitação – e, em última instância, em oportunidades desiguais de reinserção.
Esforços nacionais e internacionais devem garantir que a inovação não fique restrita a algumas prisões-modelo ou jurisdições privilegiadas. A equidade no acesso às tecnologias digitais deve ser parte integrante de qualquer estratégia de reabilitação no século XXI.
Inovação responsável: o imperativo político
Para orientar essa transformação, os governos precisam adotar políticas claras e orientadas para o futuro. É essencial estabelecer padrões robustos de qualidade de dados, transparência e justiça, garantindo que os sistemas de IA operem com base em informações precisas e não enviesadas. Também é fundamental assegurar que essas ferramentas sejam explicáveis e estejam sujeitas à supervisão humana, especialmente quando afetam decisões relacionadas à liberdade ou ao acesso à reabilitação ².
As autoridades devem proteger a privacidade individual e assegurar o consentimento informado, particularmente em contextos que envolvem vigilância ou tratamento de dados sensíveis. Ao mesmo tempo, devem garantir o acesso digital e oferecer capacitação para profissionais e pessoas presas, enfrentando o risco de exclusão digital e promovendo uma interação efetiva com as tecnologias de IA.
É igualmente importante financiar pesquisas contínuas, projetos-piloto e avaliações de impacto, assegurando que as ferramentas de IA sejam testadas, ajustadas e validadas em diferentes contextos correcionais.
Por fim, é imperativo que a pesquisa e a avaliação contínuas se tornem prática padrão. À medida que a IA se integra aos sistemas de justiça criminal e supervisão na comunidade, os formuladores de políticas devem avaliar seus impactos reais sobre os resultados da reabilitação, a equidade, a eficiência institucional e a segurança pública.
A implementação deve ser guiada por evidências — não por entusiasmo —, e os marcos regulatórios devem ser suficientemente ágeis para responder a riscos emergentes, desafios e aprendizados.
Por uma justiça mais humana e inteligente
O momento de agir é agora. Como formulador de políticas, já não é possível ignorar o papel crescente da IA nos sistemas de justiça. Embora não exista uma solução única — e embora a cautela seja necessária e responsável -, o ritmo acelerado da inovação exige um engajamento informado e deliberado. Quem se dedicar a compreender e adotar tecnologias de IA de forma responsável – com base na ética, na inclusão e em evidências – estará melhor preparado para moldar um sistema de justiça mais humano e eficaz.
A hesitação implica o risco de ficar para trás – mas o caminho à frente exige responsabilidade e prudência. A adoção da IA no sistema prisional deve ser acompanhada de salvaguardas claras e estratégias inclusivas que não deixem ninguém para trás. Quando bem implementada, a IA pode finalmente nos ajudar a concretizar a promessa da reabilitação: oferecer a cada indivíduo não apenas uma pena, mas uma segunda oportunidade.
¹ Um estudo abrangente de oito meses, conduzido pelo Center for Justice and Tech em colaboração com a ClearPath Corrections, revelou que pessoas privadas de liberdade que utilizaram o Echo regularmente (4 ou mais vezes por semana) apresentaram uma redução de 28% nas infrações disciplinares, incluindo episódios de violência e tentativas de automutilação. Pesquisas de autoavaliação indicaram um aumento de 40% na consciência emocional e na capacidade de desescalar situações de estresse. A participação voluntária em programas de reabilitação — como recuperação de dependência química, preparação para o ensino médio (GED) e capacitação profissional — aumentou em 32% entre os usuários do Echo. A equipe relatou uma diminuição perceptível nas chamadas de emergência noturnas, o que liberou recursos e melhorou a segurança tanto para os internos quanto para os profissionais.
² O Ato Europeu de IA (AI Act), adotado em 2024, serve como uma referência valiosa. Sua estrutura baseada em risco e os requisitos rigorosos para aplicações de alto risco — especialmente nos campos da aplicação da lei e da justiça — reforçam a importância da supervisão humana, da transparência e da responsabilidade. Diferentes jurisdições podem se inspirar nesse modelo ao desenvolver ou atualizar seus próprios marcos regulatórios e institucionais.
Fontes disponíveis mediante solicitação.
Contato com o autor: [email protected]
Pedro das Neves é CEO da IPS_Innovative Prison Systems e Diretor da ICJS Innovative Criminal Justice Solutions. Com mais de 20 anos de experiência, ele liderou iniciativas de reforma da justiça em toda a Europa, América do Norte, América Latina, Oriente Médio e Ásia Central. Pedro trabalhou extensivamente com governos, UNODC, Comissão Europeia e Banco Interamericano de Desenvolvimento (BID), com foco em gestão de custodiados, avaliação de risco, PCVE (Prevenção da Violência Extremista), e modernização dos sistemas penitenciários.
Ele é especialista em projetar e implementar ferramentas e soluções digitais movidas por IA, como o HORUS 360 iOMS, voltadas para aprimorar a segurança, a reabilitação e reduzir a reincidência. Pedro é fundador e editor-chefe da revista JUSTICE TRENDS e atua como membro do conselho da International Corrections and Prisons Association (ICPA).
Suas contribuições lhe renderam prêmios prestigiosos, incluindo o ICPA Correctional Excellence Award. Pedro possui qualificações avançadas em instituições renomadas, como o College of Europe, University of Virginia (Transformação Digital), MIT (Transformação Digital) e University of Chicago (Inteligência Artificial), consolidando sua posição como líder em inovação e transformação digital no setor de justiça.
Publicidade