La inteligencia artificial no corrige los prejuicios judiciales

Científicos y activistas alertan de los sesgos en los sistemas de aprendizaje automático para evaluar el riesgo delictivo de los acusados

Gracias a la inteligencia artificial y al 5G, las conexiones del futuro estarán dominadas por los sentidos. Foto: Salvatore P/CC0 (dominio público)

Recibe nuestra newsletter diaria

O síguenos en nuestro  canal de Whatsapp

Igual que los humanos, la inteligencia artificial en función del sistema judicial puede procesar a inocentes. Los algoritmos de aprendizaje automático fueron primero celebrados como aliados de la justicia en EEUU, pero –en otro previsible episodio de «es peor el remedio que la enfermedad«– incrementan la preocupación sobre los estereotipos que han imperado en el sistema durante décadas.

La asociación de científicos y activistas Data for Black Lives realizó recientemente una conferencia en la que explicó los argumentos por los que recomienda evitar el uso de los sistemas de inteligencia artificial en la justicia hasta que esta no se despoje de los estereotipos que los humanos han heredado por medio de bases de datos que perpetúan la injusticia hacia las minorías, informó MIT.

La inteligencia artificial ya está presente en varias etapas del proceso judicial en EEUU. Por ejemplo, un programa de aprendizaje automático ayuda a las autoridades a definir qué acusados deben entrar en prisión preventiva y cuántos pueden aguardar al juicio desde casa. Los sistemas de reconocimiento facial ayudan a identificar a sospechosos. Y hay algoritmos para decidir a qué zonas enviar cuerpos policiales.

Los algoritmos pueden determinar el destino de una persona, pero no por las razones correctas, avisan los activistas y científicos. Si bien todos los usos antes mencionados tienen pros y contras (y defensores y detractores), hay un sistema que preocupa a los expertos más que cualquier otro: la evaluación del riesgo delictivo vía algoritmo.

Inteligencia artificial para determinar el riesgo delictivo

Parte de los esfuerzos en años recientes de las autoridades judiciales y políticas de EEUU se han revuelto alrededor de, no solo intentar reducir la cantidad de personas en el sistema penitenciario (se estima que uno de cada 38 adultos está bajo algún tipo de supervisión), sino hacerlo de forma que el crimen no incremente. Para ello suelen medir la evaluación del riesgo delicitivo y de reincidencia.

Estas herramientas de inteligencia artificial analizan todos los detalles disponibles sobre un acusado y estiman sus posibilidades de volver a cometer un crimen. El resultado que arrojan es determinante para el futuro de la persona, que puede regresar tranquilamente a casa o entrar en prisión, en muchos casos dependiendo de los prejuicios que el algoritmo tome como ciertos.

La idea es loable y plausible: si un juez tiene datos no sesgados sobre las posibilidades de reincidencia de una persona, no tiene que acudir a sus propios prejuicios para tomar una decisión. Pero el problema es que estos algoritmos están entrenados con datos históricos de delitos, que ya engloban sesgos ineludibles para la máquina.

«Esos patrones son correlaciones estadísticas y no son lo mismo que las causas», explica MIT. «Las herramientas de evaluación de riesgo convierten las percepciones correlativas en mecanismos de calificación de las causas», agrega. Por ejemplo, si el sistema entiende que quienes tienen su domicilio en un barrio específico son más propensos a robar, pensaría que vivir allí aumenta la probabilidad de reincidencia.

Un centenar de organizaciones comunitarias y de derechos civiles firmaron una petición para que se deje de utilizar la evaluación de riesgo delictivo.

Recibe nuestra newsletter diaria

O síguenos en nuestro  canal de Whatsapp