Informa The Verge, a partir del 1 de julio de este año, está previsto introducir mecanismos de IA (inteligencia artificial) en el sistema judicial de la ciudad de San Francisco (EE. UU.), Con esta medida el gobierno local dice que ya se puede descartar la posibilidad de prejuicios raciales cuando se acusa a un sospechoso.

IA: Inteligencia artificial llega al sistema judicial

Inteligencia artificial en el sistema judicial.

Según informó la oficina del Fiscal del Distrito de San Francisco, la tarea del sistema no solo será analizar los informes de la policía y eliminar automáticamente los datos que se pueden usar para determinar la raza del sospechoso (ojos, cabello, color de piel) su entorno (familiares, amigos, vecinos, etc.), o cualquier cosa que pueda indicar indirectamente que el sospechoso pertenece a una raza en particular. Además, la IA eliminará los nombres y datos de testigos y oficiales de policía de los informes para excluir los factores que puedan afectar la imparcialidad de los fiscales.

Habiendo visto el mismo nombre del sospechoso, por ejemplo, Hernández, los investigadores pueden concluir inmediatamente que la persona es de origen latinoamericano, y esto a su vez puede afectar el resultado y las conclusiones de la investigación.

IA: Inteligencia artificial para disminuir la brecha racial

En 2017, a solicitud del fiscal de distrito, en San Francisco se investigaron las estadísticas en casos penales. Resultó que durante el período de 2008 a 2014, el 41% de los arrestos se realizaron sobre afroamericanos. Sin embargo, eso representó el 6% de la población afroamericana total. Luego, los analistas concluyeron que las decisiones de los tribunales poseen «diferencias raciales y étnicas significativas».

Gascón explicó que primero los fiscales tendrán que examinar los informes policiales procesados ​​por el sistema y, basándose en ellos, tomar una decisión sobre la acusación. Luego, podrán ver el informe completo con todos los nombres y datos para determinar si hay circunstancias atenuantes.

Actualmente, el sistema judicial de San Francisco utiliza un procedimiento de filtrado manual mucho más limitado para evitar que los fiscales vean esta información. Pero, como regla general, solo las primeras páginas se eliminan del informe, que contiene información general sobre el sospechoso. En el informe real, la información sobre una persona permanece, por lo tanto, no hay un sentido práctico de tal muestra.

«Necesitábamos conectar tecnologías de aprendizaje automático a este trabajo», comentó Gascon.

Según él, es la primera vez que se utilizará IA en el sistema judicial de Estados Unidos. Gascón también destacó que no conocía ni una sola agencia de la ley que haya usado anteriormente IA para los mismos propósitos. También agregó que la tecnología se probará primero en su oficina. Luego, si muestra un buen resultado, se proporcionará de forma gratuita a todos los fiscales del país.

El sistema fue desarrollado por analistas e ingenieros de software del laboratorio de políticas de computación de la Universidad de Stanford. Según uno de los autores, Alex Choklas-Wood, es una pequeña aplicación web que utiliza varios algoritmos de aprendizaje automático que editan automáticamente informes policiales, marcan ciertas palabras y las reemplazan por otras neutrales: «lugar», «oficial 1», «sospechoso» «Y así sucesivamente.