¿Podría un ordenador predecir la violencia? En Chicago, Illinois, un algoritmo valora a todas las personas arrestadas por la policía con una puntuación de amenaza numérica del 1 al 500. El proceso se realiza desde hace unos cuatro años, y casi 400.000 ciudadanos de Chicago tienen ahora una puntuación oficial de riesgo por parte de la policía.
Este algoritmo, cuestionado por el profesor de derecho de la Universidad de Columbia Andrew Guthrie Ferguson –el método todavía no se ha hecho público–, forma la estrategia de la policía y puede cambiar las sospechas en las calles. También puede ser el futuro de la policía del big data en América, dependiendo de cómo sea percibido: como un enfoque innovador para la reducción de la violencia o como un ejemplo de control social basado en datos.
En efecto, la puntuación de amenaza personalizada se muestra automáticamente en los cuadros de mandos del ordenador de la policía a fin de que el oficial sepa el riesgo relativo al parar a un sospechoso. La puntuación predictiva también define quién se destina a una intervención policial proactiva. Estas intervenciones pueden ir desde una visita a domicilio por parte de agentes de la policía hasta una vigilancia policial adicional o una reunión comunitaria, que transmitirá el mismo mensaje claro: la policía le está observando.
Y aunque Chicago está a la vanguardia de la vigilancia predictiva, no es la única. Otras ciudades como Nueva York y Los Ángeles están considerando la manera de utilizar la policía del big data para orientar las intervenciones con los individuos con riesgo.
El control predictivo basado en personas se inició en el 2009 como un intento de aplicar un enfoque de salud pública sobre la violencia. La clave es identificar los factores de riesgo predictivos e intentar solucionar las causas ambientales subyacentes. Los investigadores de Chicago desarrollaron un algoritmo para que la policía diera prioridad a aquellos individuos con más riesgo analizando detenciones pasadas por delitos violentos, delitos de armamento o narcóticos, edad en la detención más reciente (menor de edad, más puntuación), incidentes en los que el individuo fue víctima de un asalto y la línea de tendencia de la actividad delictiva (tanto si la tasa es creciente o disminuye). Entonces un ordenador clasifica las variables y escribe una puntuación de amenaza relativa para determinar la probabilidad de uso de arma de fuego.
La policía afirma que el mecanismo de orientación actúa señalando el elevado porcentaje de víctimas de disparos que se podrían predecir con precisión. Los críticos han señalado que el objetivo es excesivo e ineficaz, incluyendo decenas de miles de personas con puntuaciones altas, pero sin antecedentes de detención previa por delitos violentos.
Se considera preocupante que las puntuaciones de amenaza incidan en la equidad de la interacción de la policía con las personas en las calles. Las puntuaciones de alto riesgo guían las estrategias de interrupción de la violencia, que influyen en los contactos de la policía y que son objeto de más vigilancia por parte de esta. Pero las puntuaciones de amenaza también distorsionan las decisiones cotidianas de la policía sobre el uso de la fuerza y la sospecha razonable. Al fin y al cabo, una vez que la policía tenga información de que una persona tiene una puntuación de amenaza elevada, este conocimiento aumentará la sospecha criminal e incrementará el peligro percibido, lo cual provocará interacciones más frecuentes y agresivas con las personas que el algoritmo considera “de alto riesgo”.
El sesgo también se puede arrastrar al sistema. Tal como se describe en la investigación de la División de Derechos Civiles del Departamento de Justicia de 2017 del Departamento de Policía de Chicago, los patrones de discriminación racial siguen siendo un problema real. Si bien se podría esperar que la justicia algorítmica evitara el sesgo humano, la realidad es que estas inserciones (especialmente las detenciones) se ven afectadas por las decisiones discrecionales de todos los agentes de policía mientras patrullan o investigan al sospechoso de un delito. Así, si bien las matemáticas de big data pueden ser “objetivas”, las entradas no están exentas de sesgos humanos, que distorsionan así los resultados finales.
Enlaces relacionados
_____
Aquest apunt en català / This post in English / Post en français