Artículo Premio ICAM
Artículo Premio ICAM
Artículo Premio ICAM
RESUMEN
§. El presente trabajo analiza los presupuestos técnicos y jurídicos que serían necesarios
para aceptar la introducción del software predictivo de la reincidencia en el proceso penal
español.
1
1. Introducción
§. De entre esos nuevos planteamientos, uno de los que ha tenido mayor eco es la
introducción de mecanismos automatizados que permitan al juez obtener una información
1
MIRÓ MIRALLES, “Inteligencia Artificial y Justicia Penal: más allá de los resultados lesivos causados por
robots”, UNED, Revista de Derecho Penal y Criminología, nº 20, 2018, p. 90.
2
Cf. STARR, "Evidence-Based Sentencing and the Scientific Rationalization of Discrimination." Stanford
Law Review, 66, no. 4, 2014, pp. 803-72.
3
Se trata de la herramienta VDG o VIOGÉN, de seguimiento integral en los casos de violencia de género,
que encuentra su (discutible) base normativa en el art. 282 LECrim y en el Protocolo para la valoración
policial del nivel de riesgo de violencia de género (LO 1/2004) y gestión de seguridad de las víctimas,
aprobado mediante la Instrucción 7/2016, de la Secretaría de Estado de Seguridad. Se trata de un software
que se alimenta de datos procedentes de registros oficiales, declaraciones en sede judicial, dispositivos
GPS, etc., y que, mediante la aplicación de algoritmos, establece una valoración concreta del riesgo de
reincidencia que clasifica en cinco niveles y que se comunica al Juzgado de Violencia sobre la Mujer y a la
Fiscalía. Para una primera aproximación, SÁNCHEZ LÓPEZ, “La diligencia policial de valoración del riesgo
de violencia de género en el sistema Viogén”, Foro, vol. 22, 2019, pp. 119-130.
4
KLINGELE, “The Promises and Perils of Evidence-Based Corrections”, nº 91, Notre Dame Law
Review, 2016, pp. 544-547.
2
actuarial objetiva sobre el riesgo de reincidencia de un acusado (a la hora de acordar o no
la prisión provisional) o de un condenado (para fijar la extensión de la pena o de una
medida de seguridad). En algunos Estados se establece la obligatoriedad de que el juez
consulte este tipo de aplicaciones informáticas antes de adoptar una decisión de esa
naturaleza. En otros, se acoge como una posibilidad5.
§. La discusión no parece ser tanto si tales modelos predictivos deben o no ser empleados
por los jueces españoles, sino cuándo y cómo lo serán. A este respecto, también debe
reseñarse que la precisión de este tipo de aplicaciones informáticas sigue mejorando de
forma muy rápida, por lo que más pronto que tarde no tendrá mucho sentido volver la
5
Vid., “Using Offender Risk and Needs Assessment Information at Sentencing: Guidance for Courts from
a National Working Group”, 2011, documento accessible en:
https://ncsc.contentdm.oclc.org/digital/collection/criminal/id/19
6
RUIZ MORALES, “La evolución de la población reclusa española en los últimos treinta años. Una
explicación integral”, Anuario de derecho penal y ciencias penales, Tomo 71, 2018, pp. 403-490.
7
Según detalló recientemente la Secretaría General de Instituciones Penitenciarias, el coste por preso
asciende en España a 64,82 euros/día, siendo también relevante tomar en consideración que, a finales de
2019, el número de presos en las cárceles que dependen de la Administración General del Estado era de
50.129. Esta cifra supone un coste por cada interno cercano a los 2.000 euros al mes y más de 23.500 euros
al año. En el documento se detalla que la cantidad diaria por recluso ha crecido de modo continuado desde
los 52,53 euros de 2010 hasta la cifra actual, casi un 25% más. Diario El País, 20 de febrero de 2020.
3
espalda por completo a las aportaciones que pueden venir de la mano de la aplicación de
la IA en la toma de decisiones judiciales. Porque, bien mirado, buena parte de la labor
que realiza este tipo de software viene siendo ejecutada hasta el momento, informalmente,
por los jueces -pero sin contar una métrica precisa a su disposición- con el consiguiente
riesgo de dejarse influenciar por estereotipos de género, de raza, de clase social, etc.
8
Se trata del art. 485, bajo la rúbrica de “Instrumentos de valoración del riesgo de violencia o reincidencia”:
“1. Los instrumentos de valoración del riesgo de violencia o reincidencia deberán incluir todos los
parámetros estadísticos que permitan evaluar tanto su fiabilidad como su capacidad predictiva.
2. Dichos instrumentos especificarán el tamaño de la población con la que se han construido, las variables
utilizadas como factores de riesgo, los criterios de medición empleados para ponderar dichos factores
asignando puntuaciones, y el tiempo de validez de la predicción. También habrán de identificar los estudios
de validación realizados".
9
Un buen punto de partida es la “Carta Europea para el uso ético de la Inteligencia Artificial en los sistemas
judiciales y su entorno”, elaborado por el CEPEJ en 2018, en el se proclaman varios principios básicos: de
respeto a los derechos humanos, de no discriminación, de calidad y seguridad o de transparencia,
imparcialidad y equidad.
10
Yendo un paso más allá, puede distinguirse, en algunas aplicaciones, entre la “legal black box” y la
“technical black box”. La primera contiene el código fuente, mientras que la segunda se refiere a los
supuestos de aprendizaje automático del propio software (machine learning o deep learning), en los que
4
código fuente de estas aplicaciones impide a las partes (y, en particular, al
investigado/condenado) cuestionar la corrección de los parámetros tenidos en cuenta, del
peso otorgado a cada uno de ellos, etc. Esta cuestión, no por casualidad, fue la discusión
central en el caso State v. Loomis11, resuelto por el Tribunal Supremo de Wisconsin
mediante su sentencia de 13 de julio de 201612. A falta de un pronunciamiento del
Tribunal Supremo federal de EE. UU., esa resolución se considera en la actualidad como
el precedente judicial más autorizado en la materia.
las reglas decisionales se generan de forma automática, no siendo posible, ni para sus programadores,
explicar por qué y cómo surgen.
11
881 N.W.2d 749 (Wis. 2016).
12
La opacidad en el uso de los metadatos ha sido igualmente señalada por la Comisión Europea como uno
de los grandes problemas que plantean las decisiones automatizadas. Libro blanco sobre la inteligencia
artificial. Un enfoque europeo para la excelencia y la confianza, COM (2020) 65 final, Bruselas, 2020.
5
Departamento de Justicia estatal en la fijación de los tiempos de reclusión más apropiados
(con lo que sería razonable sospechar que su diseño podría estar sesgado en contra de la
probabilidad de rehabilitación del reo y favor de una postura en exceso punitiva).
§. La sentencia Loomis -aun cuando muchos de sus planteamientos sean discutibles- tiene
la virtud de poner sobre la mesa una parte de la extraordinaria constelación de problemas
prácticos, éticos y jurídicos que plantea el uso de este tipo de herramientas en el ejercicio
de la función jurisdiccional. Si algo llama la atención en una primera lectura es que, a
pesar de los importantísimos caveats que la recorren, el Tribunal acabe concluyendo que
su utilización por parte de los jueces de Wisconsin -de forma no vinculante y siempre
acompañada de otras consideraciones adicionales- es admisible desde la perspectiva del
due process of law. Porque lo cierto es que parece muy ingenuo pensar que los jueces
serán capaces de descontar mentalmente -y en su justa medida, además- las limitaciones
inherentes al programa COMPAS. En primer lugar, porque en ningún pasaje de Loomis se
indica a los jueces cómo deberían hacerlo. En segundo lugar, porque las limitaciones son
de tal entidad -recordemos que el código fuente del software y sus parámetros no son
públicos, ni siquiera para los jueces- que cualquier prevención se tornaría fútil.
§. Dicho con otras palabras, los jueces no podrían ejercer de efectivos gatekeepers y
comprobar si el software presenta o no sesgos raciales, de género, proacusación, etc., si
no tienen acceso a sus datos de programación más elementales13.
§. También desde una perspectiva en exceso naíf, el TS de Wisconsin parece sostener que,
dado que la última palabra la tendrá siempre un ser humano (el juez) y este estará obligado
en todo caso a motivar las razones de su decisión (tomando en consideración de forma
obligada otro tipo de factores adicionales) se garantizaría así una suerte de “inmunidad
decisoria” del juez frente a una eventual influencia excesiva del resultado predictivo sobre
la reincidencia. Sin embargo, una serie robusta de estudios empíricos evidencian que, por
el efecto psicológico del denominado sesgo cognitivo de “anclaje14”, existe un riesgo muy
elevado de que esta información probabilística influya de forma desmedida -e
13
En el voto particular concurrente formulado por la magistrada Abrahamson que acompaña a la sentencia
del caso Loomis se alerta sobre este problema, al señalarse que «la falta de comprensión por parte de este
tribunal de [el programa] Compas plantea un problema significativo. En la vista, el tribunal preguntó
repetidamente tanto a los abogados de la defensa como a los del Estado cómo funciona Compas. Y obtuvo
pocas respuestas».
14
MUÑOZ ARANGUREN, “La influencia de los sesgos cognitivos en las decisiones jurisdiccionales: el factor
humano. Una aproximación”, InDret, Vol. 2, 2011, pp. 5-8.
6
imperceptible, por cierto, para el propio juez- en su decisión final. Esta disfunción
cognitiva (anchoring) surge tras la realización de una estimación, por parte del sujeto, a
partir de un valor inicial que progresivamente ajusta a medida que obtiene información
adicional. Múltiples experimentos realizados en los últimos años acreditan cómo las
personas sucumben a esta distorsión cognitiva de forma recurrente. Esto es, al
magnetismo que, cuando hacemos estimaciones, ejercen sobre nosotros las cifras que nos
rondan por la mente. Lo más llamativo es que esa atracción numérica se produce aunque
tales cifras no guarden relación conceptual alguna con el valor que se tiene que estimar15.
15
FARIÑA, ARCE y NOVO, “Heurístico de anclaje en las decisiones judiciales”, Psicothema, Vol. 14, núm.
1, 2002, pp. 39-46.
16
Vid., FENNELL y HALL, “Due Process at Sentencing: An Empirical and Legal Analysis of the Disclosure
of Presentence Reports in Federal Courts”, Harvard Law Review, 1613, 1980, pp. 1628–30.
17
FREEMAN y SANDLER, “Female and Male Sex Offenders: A Comparison of Recidivism Patterns and Risk
Factors”, Journal of Interpersonal Violence, 23(10), 2008, pp. 1394-1413.
7
(o que, en determinadas comunidades multirraciales, por razones fundamentalmente
socioeconómicas, los miembros de determinada etnia puedan ser, en media, más
propensos a delinquir de nuevo18), la toma en consideración de estas variables (tanto a la
hora de acordar una medida cautelar personal, fijar la extensión de una condena o imponer
una medida de seguridad) supondría penalizar (o beneficiar) al reo como consecuencia de
su sexo, raza o estatus socioeconómico. Bien mirado, sería una suerte de aplicación
tecnocrática del justamente denostado «derecho penal de autor19»: se castigaría al
condenado -al menos, en parte- en función de quién es, no estrictamente por lo que ha
hecho.
§. Ahora bien, conviene no olvidar que los algoritmos aplican los datos brutos
introducidos por seres humanos, de forma que si esa información incorpora a su vez
sesgos -entendidos, en este caso, en sentido estadístico y no psicológico: un error
18
WEHRMAN, “Race, concentrated disadvantage, and recidivism: A test of interaction effects”, Journal of
Criminal Justice, 38(4), 2020, pp. 538–544. Aunque esa diferencia en la tasa de reincidencia no es
completamente homogénea, ya que presenta variaciones en función del tipo delictivo de que se trate.
19
Para MUÑOZ CONDE, el derecho penal de autor se basa en determinadas cualidades de la persona de las
que esta, en la mayoría de las ocasiones, no es responsable en absoluto y que, en todo caso, no pueden
precisarse o formularse con toda nitidez en los tipos penales. “El nuevo Derecho Penal autoritario”, Nuevo
Foro Penal, 2003, pp. 13-41. Dicho en otros términos, esta doctrina vincula la pena a la personalidad del
autor, “siendo su asocialidad y el grado de la misma lo que decide la sanción, Lo que hace culpable aquí al
autor no es ya que haya cometido un hecho, sino que solo el que el autor sea «tal» se convierte en objeto
de la censura legal”, ROXIN, Derecho Penal. Parte General, tomo I, 2ª ed., Civitas, Madrid, 1997, p. 177.
20
La STC 59/2008, de 14 de mayo, FJ 11 B), en cambio, vincula esta idea al principio de culpabilidad:
«Cierto es que «la Constitución española consagra sin duda el principio de culpabilidad como principio
estructural básico del Derecho penal» […] como derivación de la dignidad de la persona […], y que ello
comporta que la responsabilidad es personal, por los hechos y subjetiva: que sólo cabe imponer una pena
al autor del delito por la comisión del mismo en el uso de su autonomía personal. La pena sólo puede
«imponerse al sujeto responsable del ilícito penal».
8
sistemático en el que se puede incurrir cuando al hacer muestreos o ensayos se
seleccionan o favorecen unas respuestas frente a otras- el algoritmo reproducirá y
exacerbará estas disfunciones21.
§. De otro lado, el diseño del algoritmo -y no solo los datos que se introducen en él- es
una creación humana, por lo que tampoco cabe descartar la existencia de sesgos
sistémicos indebidos en su programación (raciales, de género, de clase social,
proacusación o proacusado, etc.) que conduzcan a resultados inasumibles desde la
perspectiva del derecho a la igualdad en la aplicación de la ley. Es preciso,
consecuentemente, estar en guardia ante una potencial discriminación algorítmica
derivada de la utilización de la IA para la perfilación de individuos.
c) La fiabilidad científica
21
En el mismo sentido, vid. MARTÍNEZ GARAY, “Peligrosidad, algoritmos y due process: el caso State v
Loomis”, UNED, Revista de Derecho Penal y Criminología, 3ª época, nº 20, 2018, p. 486.
22
509 U.S. 579, 113 S.Ct. 2786, 125 L.Ed.2d 469 (1993).
23
Para calibrar su influencia, haremos notar que el prelegislador español ha hecho suyas las reglas Daubert
en el art. 483 del Anteproyecto de Ley de Enjuiciamiento Criminal de 2020.
24
Con arreglo al art. 456 LECrim, “el juez acordará el informe pericial cuando, para conocer o apreciar
algún hecho o circunstancia importante en el sumario fuesen necesarios o convenientes conocimientos
científicos o artísticos”.
25
MARTÍNEZ GARAY y MONTES SUAY, “El uso de valoraciones de riesgo de violencia en Derecho Penal:
algunas cautelas necesarias”, InDret, Vol.2, 2018, passim.
9
§. Los criterios que, en su conjunto, conforman el denominado estándar o test Daubert,
son los siguientes: a) controlabilidad y falsabilidad de la teoría científica sobre la que se
funda la prueba; b) determinación del porcentaje o margen de error inherente a la técnica
empleada; c) control por otros expertos en la materia a través de la denominada peer
review (revisión por pares); d) existencia de consenso en la comunidad científica de
referencia sobre su fiabilidad; e) finalmente, es exigible que la prueba científica sea
directamente relevante respecto a los hechos que son enjuiciados.
§. Se trata de unas reglas que vienen siendo aceptadas de forma casi universal como
parámetro para aceptar medios probatorios novedosos, ya que tienen la virtud de ser
fácilmente exportables a otras culturas procesales distintas de la norteamericana26. Si
proyectamos estos criterios sobre los programas actualmente en el mercado que se utilizan
en los Estados Unidos de Norteamérica para la toma semiautomatizada de decisiones
judiciales (los denominados instrumentos de valoración del riesgo de tercera
generación27), cabe extraer las siguientes conclusiones:
26
VÁZQUEZ ROJAS, De la prueba científica a la prueba pericial, Madrid, Marcial Pons, 2015, pp. 103-127.
Los tribunales españoles acuden cada vez con mayor frecuencia a las reglas Daubert para aceptar o no
medios probatorios novedosos. Así, en el Auto núm. 87/2017, de 19 enero
(ECLI: ECLI:ES:APSE:2017:130ª), de la Audiencia Provincial de Sevilla (Sección 4ª) se lee lo que
sigue: “… a fecha actual los análisis de credibilidad del testimonio, que resultan imprescindibles en casos
de víctimas de corta edad, por razones de dificultad de comunicación con los operadores jurídicos y de
posible contaminación o manipulación por adultos, y aun así son discutidos en ese ámbito, carecen
absolutamente de aceptación en la comunidad científico cuando tratan de discriminar la veracidad del
testimonio adulto, de modo que la diligencia pericial que se propone no supera, por esta y por otras razones,
el llamado canon o regla Daubert , establecido por el Tribunal Supremo de EE.UU. (Daubert v. Merrell
Dow Pharmaceuticals Inc, 509 U.S. 579 [1993])”.
27
Junto al ya citado COMPAS, el otro programa de tercera generación -que incorpora datos criminógenos
muy precisos- más utilizado en EE. UU. es el LSI-R (Level of Service Inventory-Revised), cuyo uso ha sido
validado -entre otras resoluciones- por la sentencia de 9 de junio de 2010 del Tribunal Supremo del Estado
de Indiana, Malenchik v. State, 928 N.E.2d 564 (Ind. 2010).
10
§. 2. El empleo de métodos actuariales en el cálculo de la probabilidad de reincidencia de
una persona también permite la determinación del margen de error asociado a este tipo
de programas. Porcentaje de error que, a buen seguro, se irá reduciendo con el paso del
tiempo de una manera exponencial, pero que en la actualidad sigue siendo notable28.
§. Una cuestión distinta es que el margen de error actual de estos programas informáticos
sea aceptable. Conviene no olvidar que el estándar denominado de la “prueba prevalente”
(una probabilidad de acierto mayor del 50%), admisible para resolver contiendas civiles,
no podría serlo para entender enervado el principio de presunción de inocencia29. En este
último caso, se viene exigiendo por la doctrina un grado de probabilidad mucho más
cualificado, de forma que la culpabilidad del acusado quede acreditada, con arreglo al
adagio anglosajón, “más allá de cualquier duda razonable30”. Aunque es altamente
previsible que el desarrollo de la inteligencia IA y del big data [metadatos] perfeccionará
en el futuro su tasa de acierto, en la actualidad su utilización presenta un margen de error
(en el rango del 50%, aproximadamente) por encima de lo tolerable en el proceso penal.
En efecto, si bien algunos estudios empíricos apuntan a que estos programas informáticos
tendrían ya un grado de acierto bastante elevado, otros trabajos -de forma mayoritaria-
sostienen exactamente lo contrario31.
28
Vid., FÉREZ-MANGAS y ANDRÉS-PUEYO, “Eficacia predictiva en la valoración del riesgo del
quebrantamiento de permisos penitenciarios”, La Ley penal, nº 134, 2018.
29
El Auto de la Sala Especial del art. 61 LOPJ del Tribunal Supremo, «caso Sortu», de 1 de abril de 2011
-si bien como obiter dictum- afirma que «doctrinalmente el porcentaje de probabilidad necesario para una
condena penal o civil se sitúa, en el primer caso, en torno al 90%, mientras que, para la segunda, con arreglo
a diversas corrientes doctrinales, se daría entre el 51% y el 80%29». De lo que se sigue que datos con una
fiabilidad inferior al 90% no serían aceptables para fijar una pena o una medida de seguridad. Más dudoso
sería el estándar teóricamente aplicable a una decisión sobre medidas cautelares personales, como la prisión
provisional. Sobra esta cuestión, vid. VALENZUELA SALDÍAS, “Hacia un estándar de prueba cautelar en
materia penal: algunos apuntes para el caso de la prisión preventiva”, Política criminal, vol.13 nº 26, 2018,
pp. 836-857.
30
Cfr. GASCÓN ABELLÁN, “Sobre la posibilidad de formular estándares de prueba objetivos”, DOXA,
Cuadernos de Filosofía del Derecho, nº 28, 2005, pp. 127-139. También, FERNÁNDEZ LÓPEZ, “La
valoración de las pruebas personales y el estándar de duda razonable, Cuadernos electrónicos de Filosofía
del Derecho, nº 15, 2007.
31
STARR, ob. cit., p. 853. En palabras de MARTÍNEZ GARAY y MONTES SUAY: “los instrumentos de
valoración del riesgo de violencia evidencian valores positivos mucho más bajos, casi nunca superiores al
50%”, ob. cit., p. 25.
11
validación de las conclusiones científicas por expertos en esa misma disciplina, no su
simple revisión acrítica.
§. Porque con independencia de que la utilización de este tipo de software se emplee, bien
para acordar una medida de privación provisional de la libertad o bien para la fijación de
la duración de una condena, su admisibilidad como instrumento procesal ha de reunir las
mismas garantías de fiabilidad que si se tratara de un medio de prueba introducido en el
32
Y de las comunidades estadística y psicológica. Cf. MASSIE, “Orange is the New Equal Protection
Violation: How Evidence-Based Sentencing Harms Male Offenders”, 24 Wm. & Mary Bill Rts. J. 521,
2015, pp. 521-550; y REDDING, “Evidence-Based Sentencing: The Science of Sentencing Policy and
Practice”, Chapman Journal of Criminal Justice, Vol. 1, nº. 1, 2009, pp. 1-19.
33
Cfr. KLINGELE, ob. cit., p. 577 y la bibliografía allí citada. En cuanto a la comunidad jurídica española,
vid. el exhaustivo trabajo de MARTÍNEZ GARAY y MONTES SUAY, ob. cit, passim.
12
plenario. Tanto desde un plano axiológico, como epistémico, debe existir un umbral
mínimo de la calidad de los datos que se introducen en el proceso (es lo que conduce
rechazar las aportaciones de la llamada junk science34), cualquiera que sea su finalidad.
§. Podría discutirse si ese estándar mínimo debe ser superior o no al 90%, pero en ningún
caso son aceptables magnitudes cercanas, en el mejor de los casos, al 50%35. A resultas
de lo cual, en el estado actual de la ciencia, no parece admisible la toma en consideración,
aunque fuera con carácter complementario u orientativo, de este tipo de programas
informáticos para la adopción de decisiones judiciales. Es indudable que más pronto que
tarde el grado de precisión, acierto y fiabilidad de este tipo de programas mejorará de
forma sustancial, de suerte que se genere un cierto consenso en la comunidad científica
sobre su validez. Pero en tanto en cuanto no sea así, no puede aceptarse su introducción
en el proceso penal. Si bien pudiera pensarse, a primera vista, que se trata de una
información adicional inocua de la que dispondría el juez -que podría hacer uso o no con
libertad de ella-, es preciso alertar de que el suministro de esos datos, con el aura de
objetividad y acierto inherente a este tipo de aplicaciones informáticas, es susceptible de
provocar una influencia indebida en la toma de decisiones judiciales36. Como ya se ha
apuntado, sería muy difícil para un juez desprenderse mentalmente (aunque quisiera) de
esta información a la hora de tomar una decisión37. Pretender que el juez pueda aislarse
34
La llamada junk science o, literalmente, “ciencia basura”, comprende todo análisis seudocientífico cuyos
resultados no se hayan testado y validado empíricamente. Sería el caso, por ejemplo, de la denominada
“prueba del polígrafo”.
35
Sobre el estándar aplicable, cfr. el excelente estudio de ALCÁCER GUIRAO, “Algunas dudas sobre la duda
razonable. Prueba de descargo, estándares de prueba e in dubio pro reo”, RECPC, nº 23-09, 2021, pp. 1-
47.
36
En ese mismo sentido, GASCÓN INCHAUSTI, “Desafíos para el proceso penal en la era digital:
externalización, sumisión pericial e inteligencia artificial”, en La justicia digital en España y en la Unión
Europea: situación actual y perspectivas de futuro, VVAA, Atelier, Barcelona, 2019, pp. 202-205.
37
Y ello, aunque el juez haga un esfuerzo mental ad hoc. Según numerosos experimentos llevados a cabo
por científicos cognitivos, en virtud del denominado “proceso irónico” los esfuerzos por controlar nuestra
mente e intentar obviar la influencia indebida de un dato suelen ser contraproducentes, especialmente en
situaciones de tensión o carga mental (mental load). Como señala WEGNER (“Ironic processes of mental
control”, Psychological Review, 1994, pp. 34-52), la explicación está en que nuestro intento de controlar la
mente desencadena un doble proceso: uno consciente, que intenta evitar deliberadamente, con
distracciones, el resultado no querido; y otro inconsciente, que verifica si surge o no el pensamiento
prohibido (ironic monitor); cuando el primer proceso queda debilitado por un factor externo, aflora el
segundo y surge el efecto paradójico.
13
mentalmente de esta influencia y abstraerse de los sesgos cognitivos que podrían
distorsionar su juicio es un desiderátum que se ha demostrado empíricamente incierto38.
§. Finalmente, debe subrayarse que para que esa información predictiva se incorporara
legítimamente al proceso penal sería necesario que se garantizara su previa valoración
crítica por parte del juez, estableciéndose los mecanismos que fueren precisos para
conjurar el riesgo de una previsible tendencia a un cierto automatismo humano en la
asimilación de esos datos. Es fácil prever, de igual forma, que cuanto mayor sea su carga
de trabajo, los jueces tenderán en mayor medida a confiar en este tipo de software,
relajando correlativamente su evaluación personalizada.
3. ¿Es razonable distinguir entre las decisiones cautelares y las de imposición de una
pena o de una medida de seguridad?
38
Una prevención similar puede encontrarse en el comentario de sentencia «Criminal Law–Sentencing
Guidelines– State v. Loomis. Wisconsin Supreme Court Requires Warning Before Use of Algorithmic Risk
Assessments in Sentencing», Harvard Law Review, nº 130, 2017, pp.1531-1534.
39
También merecerían una reflexión diferenciada las decisiones sobre la suspensión de la ejecución de la
pena (art. 80.1 CP) o sobre el tratamiento penitenciario (art. 67 LOPG).
40
Quizá las medidas de seguridad, en atención a su particular naturaleza, requerirían una respuesta todavía
más matizada. Tradicionalmente se las ha definido como “aquellos medios penales que suponen una
14
§. La razón fundamental es que en este último caso corresponde al legislador aquilatar el
alcance de las penas guiado, al menos idealmente, por el principio de proporcionalidad.
La circunstancia agravante de reincidencia, actualmente contemplada en el artículo 22. 8ª
del Código Penal, ya cumple la función de exasperar la pena en caso de que un delincuente
reitere su comportamiento delictivo. Sería contrario a los principios de culpabilidad y
personalidad de la pena que a través de este software se incentivara el alargamiento del
tiempo de privación de libertad. Y ello -nótese- como consecuencia del comportamiento
pasado o presente del grupo o grupos al que pertenezca el condenado (por razón de su
sexo, de su etnia, de su clase social, etc.). La evidencia empírica demuestra que los jueces,
una vez facilitada la predicción de reincidencia, se separan de manera muy infrecuente de
sus resultados a la hora de tomar una decisión41.
restricción o privación de bienes jurídicos por la realización previa de una conducta jurídicamente
desaprobada considerada materialmente como delito”, RODRIGUEZ HORJADO, “Las medidas de seguridad”
en Manual de Introducción al Derecho Penal (coord. LASCURAÍN SÁNCHEZ), Madrid, BOE, 2019, p. 268.
Precisamente, a diferencia de las penas, “se fundamentan en la peligrosidad criminal del sujeto al que se
impongan, exteriorizada en la comisión de un hecho previsto como delito” (art. 6.1 CP).
41
CHRISTIN et al., “Courts and predictive algorithms”, accesible en la siguiente
dirección: http://www.datacivilrights.org/pubs/20151027/Courts_and_Predictive_Algorithms.pdf [https://
perma.cc/5MBA-QPMQ].
42
LASCURAÍN SÁNCHEZ, “El principio de culpabilidad: seis retos”, Almacén de Derecho,
https://almacendederecho.org/el-principio-de-culpabilidad-seis-retos/
43
No debe olvidarse que, en la actualidad, la utilización de programas informáticos de predicción de
reincidencia delictiva para la toma de decisiones judiciales relacionadas con la adopción de medidas de
15
4. Conclusiones
§. En los últimos años de su vida, Max WEBER advirtió agudamente que el progresivo
proceso de racionalización de los ordenamientos jurídicos occidentales constituiría una
destacada nota distintiva de la modernidad45. Es fácil perder la perspectiva histórica y no
darse cuenta de que ese proceso de racionalización jurídica no ha concluido.
protección a la víctima de delitos de violencia de género (que incluyen la prisión preventiva) es una realidad
en España. Vid., GASCÓN INCHAUSTI, ob. cit., p. 204.
44
Algo, por lo demás, vedado en la actualidad por el art. 22 del Reglamento (UE) 2016/679 del Parlamento
Europeo y del Consejo de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que
respecta al tratamiento de datos personales y a la libre circulación de estos datos: “1. Todo interesado tendrá
derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la
elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar”.
Cfr. también el art. 11. 2 de Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y
garantía de los derechos digitales.
45
Economía y Sociedad, Madrid, Fondo de Cultura Económica, 1993, pp. 603-621.
16
Precisamente, en esa evolución racionalista debe enmarcarse la creciente interacción
entre el Derecho y las aportaciones de la inteligencia artificial.
17