Justicia Artificial. El algoritmo que condena


Escribe Xavier Queralt Pons.

El empuje de las nuevas tecnologías comienza a sacudir algunos cimientos fundamentales sobre los que hemos establecido el funcionamiento de nuestras sociedades organizadas. Es esta una percepción inequívoca que en determinados ámbitos debería generar un debate todavía inexistente. Sin embargo, el cambio de paradigmas avanza a ritmo acelerado en un tiempo que podríamos calificar como de experimentación social permanente. Sucede así que un día nos despertamos y nos enteramos que los jueces de Wisconsin (EEUU) disponen de un software llamado Compas, cuyo algoritmo emite informes sugiriendo la condena que debería recibir un ciudadano acusado por algún delito determinado. 

La utilización del programa Compas salió a la luz a través de la protesta formal del abogado defensor de Eric L. Loomis, condenado a seis años de prisión por un juez que basó su sentencia en los informes recibidos de este sistema suministrado por la empresa privada Northpointe Inc. al sistema judicial estatal de Wisconsin. Durante el juicio citado, un fiscal dijo al juez de la causa que el informe Compas mostraba “un alto riesgo de violencia y un alto riesgo de reincidencia en el acusado”. El juez asintió y dirigiéndose a Loomis afirmó que: “usted está identificado a través de la evaluación Compas como un individuo de alto riesgo para la comunidad”. La defensa apeló la sentencia, ya que Loomis solo estaba acusado de fugarse de la policía en su coche, pese a que tuviera antecedentes.

El Tribunal Supremo de Wisconsin ratificó la sentencia no sin cierta incomodidad. La jueza Ann Walsh Bradley, miembro del Tribunal, quiso dejar en claro su disconformidad por escrito citando una evaluación del sistema Compas realizada por la Fundación ProPublica. El informe señala que los acusados negros en el condado de Broward (Florida) “eran mucho más propensos a ser juzgados de forma incorrecta que los acusados blancos, en relación a su tasa de reincidencia”. Es decir, que para Compas el color de la piel debería ser un parámetro a tener en cuenta en una condena. 

La jueza Bradley aclaró que la empresa Northpointe negaba esta acusación pero afirmó que “este estudio y otros plantean preocupaciones con respecto a cómo los factores de riesgo de una evaluación Compas se correlacionan con la raza”. La jueza finalmente no interfirió en la controvertida decisión de sus colegas pero advirtió que “Compas solo debería ser tomado en cuenta como una fuente de información en juicios debidamente individualizados”

La defensa de Loomis quiso conocer los parámetros del algoritmo Compas, pero el sistema judicial lo remitió a la empresa suministradora del mismo. Por supuesto, Northpointe rechazó abrir el código de Compas luego de considerarlo el secreto de su negocio. Es decir, que el sistema judicial norteamericano se vale de un programa secreto para condenar ciudadanos con algoritmos que nadie conoce más que la empresa proveedora (sic).

Comentarios

Entradas Populares

SINSENTIDO. La crisis catalana que debió haberse evitado

CONVIVENCIA. Ese sagrado tesoro

INDUSTRIA MILITAR. El negocio de matar