Artículo
Pedro das Neves
Los servicios penitenciarios en todo el mundo siguen enfrentando desafíos persistentes: instalaciones hacinadas, altas tasas de reincidencia y programas de rehabilitación con recursos insuficientes. Si bien muchas de estas problemáticas deben abordarse en etapas anteriores del sistema de justicia – mediante medidas como sentencias alternativas, programas de derivación y esfuerzos para reducir el encarcelamiento innecesario – también es urgente fortalecer la aplicación de prácticas de rehabilitación basadas en evidencia, tanto en contextos de privación de libertad como en el ámbito comunitario.
Enfoques fundamentados en los principios de riesgo-necesidad-responsividad (RNR), el manejo individualizado de casos y la terapia cognitivo-conductual han demostrado ser eficaces para promover el desistimiento del delito y facilitar la reintegración social. Sobre estas bases, cada vez hay mayor expectativa de que la inteligencia artificial (IA) pueda convertirse en una herramienta poderosa para mejorar, escalar y personalizar este tipo de intervenciones. A medida que las instituciones buscan soluciones más humanas, eficaces y equitativas, la IA está emergiendo como un complemento valioso a la experiencia profesional, apoyando la toma de decisiones, optimizando recursos y mejorando los resultados tanto para las personas como para las comunidades.
Desde evaluaciones dinámicas de riesgo hasta apoyo continuo en salud mental, la IA promete transformar la forma en que rehabilitamos a las personas privadas de libertad y acompañamos su transición de regreso a la sociedad.
Sin embargo, la innovación en el ámbito de la justicia debe ir acompañada de responsabilidad. Para que la IA contribuya de manera significativa a la seguridad pública y a la rehabilitación, su implementación debe estar guiada por políticas sólidas, marcos éticos claros y un compromiso con la integridad y la inclusión de los datos. En los sistemas penitenciarios, quizá más que en ningún otro ámbito, las implicaciones son profundamente humanas.
El dilema de los datos: una base frágil
La IA depende de los datos, pero en el contexto penitenciario estos suelen estar fragmentados, ser de baja calidad o estar sesgados. En muchas jurisdicciones, la información básica sobre el historial de las personas privadas de libertad, sus conductas o su participación en programas aún se almacena en papel, archivos físicos o bases de datos no estandarizadas. Sin digitalización ni integración, la IA no puede generar análisis confiables. Y cuando los datos subyacentes reflejan desigualdades sistémicas, como la vigilancia excesiva sobre ciertas comunidades, esos mismos sesgos pueden ser amplificados por los algoritmos.
Es fundamental invertir en Sistemas de Gestión Penitenciaria (Offender Management Systems – OMS) modernos, seguros e interoperables, acompañados de estándares claros de gobernanza de datos. Solo así la IA podrá respaldar decisiones que sean tanto inteligentes como justas.
Análisis predictivos: decisiones más inteligentes e intervenciones más tempranas
Los análisis predictivos impulsados por IA pueden ayudar a las instituciones penitenciarias a pasar de una lógica reactiva a estrategias preventivas. En lugar de basarse únicamente en factores de riesgo estáticos, los modelos de aprendizaje automático pueden analizar un conjunto más amplio de variables para prever la probabilidad de reincidencia de una persona y recomendar intervenciones personalizadas. Utilizados de manera ética, estos modelos permiten priorizar los recursos (como espacios en programas terapéuticos o educación) para quienes más los necesitan. En la supervisión comunitaria, los análisis en tiempo real podrían detectar signos tempranos de recaída o crisis, como inasistencias o cambios de comportamiento, y alertar a los funcionarios antes de que ocurra un daño. No obstante, es esencial implementar salvaguardas. Algunos estudios han demostrado que los datos de entrenamiento sesgados pueden generar algoritmos que sobreestiman el riesgo de reincidencia en mujeres o personas afrodescendientes. La transparencia, las auditorías independientes y el derecho a impugnar evaluaciones algorítmicas deben ser requisitos en todos los contextos en los que la IA influya en decisiones sobre la libertad o la rehabilitación.
IA como mentora, terapeuta y docente
El potencial de la IA va más allá de la evaluación de riesgos. En muchos sistemas donde el personal está sobrecargado o escasean los recursos, la IA puede funcionar como una herramienta de apoyo disponible las 24 horas para ayudar a las personas privadas de libertad a aprender, afrontar dificultades y desarrollarse.
En Estados Unidos, el chatbot “Echo” ha sido implementado en prisiones para brindar apoyo emocional conversacional basado en terapia cognitivo-conductual y con enfoque en trauma ¹.
Las personas lo utilizan para gestionar la ira, la ansiedad y el estrés, lo cual ha contribuido a reducir infracciones disciplinarias y aumentar la participación en programas de rehabilitación. Los tutores impulsados por IA también pueden apoyar el desarrollo de habilidades de alfabetización, formación técnica o incluso educación superior. En Finlandia, personas privadas de libertad participaron en proyectos de IA etiquetando datos, lo que les permitió adquirir habilidades digitales y confianza para su reinserción laboral. Estas innovaciones demuestran que, si se diseña con empatía y propósito, la IA puede ser una herramienta de empoderamiento. No obstante, estas herramientas deben complementar, y no sustituir, las relaciones humanas. La IA no puede replicar las sutilezas del cuidado terapéutico, ni debería ser la única fuente de apoyo para quienes atraviesan procesos de trauma o reintegración.
Modelos de lenguaje e agentes de IA: tecnologías para el personal y las personas privadas de libertad
El auge de los Modelos de Lenguaje de Gran Escala (LLMs), como ChatGPT, y de los agentes de IA abre nuevas posibilidades. Los asistentes virtuales pueden ayudar a los funcionarios de supervisión en la comunidad a resumir antecedentes, redactar informes o recibir alertas sobre personas bajo supervisión con riesgos elevados. Las personas privadas de libertad pueden usar mentores de IA para comprender sus derechos, acceder a recursos de reinserción o recibir orientación paso a paso para buscar empleo o cumplir condiciones de libertad. Incluso la capacitación del personal puede beneficiarse: escenarios simulados con IA pueden ayudar a practicar la desescalada de conflictos, la entrevista motivacional o el diálogo restaurativo. Sin embargo, estos modelos poderosos deben aplicarse con cuidado. Las “alucinaciones” de la IA o errores en contextos legales pueden tener consecuencias graves. Es indispensable establecer límites claros y garantizar supervisión humana.
Evitar brechas digitales en sistemas penitenciarios
La adopción de IA también plantea una preocupación clave en materia de equidad: el riesgo de profundizar la brecha digital dentro y entre los sistemas penitenciarios. Ya existe una diferencia creciente entre sistemas bien financiados con infraestructura física y tecnológica moderna y aquellos con pocos recursos que aún operan en papel.
Algunas personas desarrollan habilidades digitales y acceden a tutores de IA; otras salen del encierro sin saber utilizar un teléfono inteligente.
Si no se aborda, esta brecha puede generar desigualdades en los resultados de rehabilitación y, en última instancia, en las oportunidades de desistimiento y reintegración.
Es indispensable que los esfuerzos nacionales e internacionales garanticen que la innovación no se limite a unas pocas cárceles modelo o jurisdicciones privilegiadas. La equidad en el acceso a herramientas digitales debe formar parte de cualquier estrategia de rehabilitación en el siglo XXI.
Innovación responsable: el imperativo político
Para guiar esta transformación, los gobiernos deben adoptar políticas claras y con visión de futuro. Es fundamental establecer estándares sólidos de calidad de datos, transparencia y equidad, garantizando que los sistemas de IA operen sobre información precisa y libre de sesgos. También es crucial asegurar que estas herramientas sean comprensibles y estén sujetas a supervisión humana, especialmente cuando afectan decisiones relacionadas con la libertad o el acceso a oportunidades de rehabilitación ².
Las autoridades deben proteger la privacidad individual y garantizar el consentimiento informado, especialmente en contextos que impliquen vigilancia o manejo de datos sensibles. Al mismo tiempo, deben garantizar el acceso digital y ofrecer capacitación tanto al personal como a las personas privadas de libertad, combatiendo el riesgo de exclusión digital y promoviendo una interacción efectiva con estas tecnologías.
Igualmente importante es financiar investigaciones continuas, programas piloto y evaluaciones de impacto para asegurar que las herramientas de IA sean probadas, ajustadas y validadas en diversos entornos penitenciarios.
Finalmente, es imperativo que la investigación y evaluación constante se conviertan en una práctica estándar. A medida que la IA se integra cada vez más en los sistemas penitenciarios y de supervisión comunitaria, los responsables de políticas públicas deben evaluar su impacto real sobre los resultados de rehabilitación, la equidad, el funcionamiento institucional y la seguridad ciudadana.
La implementación debe estar guiada por la evidencia, no por el entusiasmo, y los marcos normativos deben mantenerse lo suficientemente flexibles como para responder a riesgos, desafíos y aprendizajes emergentes.
Hacia una justicia más humana e inteligente
El momento de actuar es ahora. Como tomadores de decisiones, ya no es posible ignorar el papel creciente de la IA en los sistemas de justicia. Aunque no existe una solución única, y la cautela es tan necesaria como responsable, el ritmo acelerado de la innovación exige un compromiso informado y deliberado. Quienes se tomen el tiempo para comprender y adoptar estas tecnologías de manera ética, inclusiva y basada en evidencia estarán mejor posicionados para construir un sistema de justicia más humano y eficaz.
La indecisión conlleva el riesgo de quedar rezagados, pero el camino hacia adelante exige precaución y responsabilidad. La implementación de IA en contextos penitenciarios debe estar acompañada de salvaguardias claras y estrategias inclusivas que no dejen a nadie atrás. Si se aplica correctamente, la IA puede ayudarnos a cumplir f inalmente la promesa de la rehabilitación: ofrecer a cada persona no solo una condena, sino una verdadera segunda oportunidad.
¹ Un estudio exhaustivo de ocho meses, realizado por el Center for Justice and Tech en colaboración con ClearPath Corrections, reveló que las personas privadas de libertad que utilizaron Echo de forma regular (4 o más veces por semana) experimentaron una disminución del 28% en infracciones disciplinarias, incluyendo episodios de violencia y autolesiones. Las encuestas de autoevaluación mostraron un aumento del 40% en la conciencia emocional y en la capacidad para desescalar situaciones estresantes. La participación voluntaria en programas de rehabilitación —como recuperación de adicciones, preparación para el GED y formación laboral— aumentó un 32% entre los usuarios de Echo. El personal reportó una disminución notable en las llamadas de emergencia nocturnas, lo que permitió liberar recursos y mejorar la seguridad tanto para los internos como para el personal.
² La Ley de IA de Europa (AI Act), adoptada en 2024, sirve como una referencia valiosa. Su enfoque basado en el nivel de riesgo y sus estrictos requisitos para aplicaciones de alto riesgo —especialmente en los ámbitos de la justicia y el orden público— subrayan la importancia de la supervisión humana, la transparencia y la rendición de cuentas. Diversas jurisdicciones pueden tomar este modelo como base al diseñar o actualizar sus propios marcos regulatorios e institucionales.
Fuentes disponibles a solicitud.
Contacto del autor: [email protected]
Pedro das Neves es CEO de IPS_Innovative Prison Systems y Director de ICJS Innovative Criminal Justice Solutions. Con más de 20 años de experiencia, ha liderado iniciativas de reforma de justicia en Europa, América del Norte, América Latina, Oriente Medio y Asia Central. Pedro ha trabajado extensamente con gobiernos, la UNODC, la Comisión Europea y el Banco Interamericano de Desarrollo (BID), enfocado en la gestión de ofensores, evaluación de riesgos, PCVE y la modernización de sistemas penitenciarios.
Es experto en el diseño e implementación de herramientas digitales y soluciones basadas en inteligencia artificial, como el HORUS 360 iOMS, destinadas a mejorar la seguridad, la rehabilitación y reducir la reincidencia. Pedro es fundador y editor en jefe de la revista JUSTICE TRENDS y forma parte del consejo directivo de la International Corrections and Prisons Association (ICPA).
Sus contribuciones le han valido reconocimientos prestigiosos, incluyendo el Premio a la Excelencia Penitenciaria de la ICPA. Pedro posee formación avanzada en instituciones de renombre, como el College of Europe, la Universidad de Virginia (Transformación Digital), el MIT (Transformación Digital) y la Universidad de Chicago (Inteligencia Artificial), consolidando su posición como líder en innovación y transformación digital en el sector de la justicia.
Publicidad


