La policia de Chicago utilitza algoritmes informàtics per valorar el risc d’amenaça

Un ordinador podria predir la violència? A Chicago, Illinois, un algoritme valora totes les persones arrestades per la policia amb una puntuació d’amenaça numèrica de l’1 al 500. El procés es realitza des de fa uns quatre anys, i gairebé 400.000 ciutadans de Chicago tenen ara una puntuació oficial de risc per part de la policia.

Aquest algoritme, qüestionat pel professor de dret de la Universitat de Columbia Andrew Guthrie Ferguson  –el mètode encara no s’ha fet públic–, forma l’estratègia de la policia i pot canviar les sospites als carrers. També pot ser el futur de la policia del big data a Amèrica, depenent de com sigui percebut: com un enfocament innovador per a la reducció de la violència o com un exemple de control social basat en dades.

En efecte, la puntuació d’amenaça personalitzada es mostra automàticament als quadres de comandament de l’ordinador de la policia per tal que l’oficial sàpiga el risc relatiu en aturar un sospitós. La puntuació predictiva també defineix qui es destina a una intervenció policial proactiva. Aquestes intervencions poden anar des d’una visita a domicili per part d’agents de la policia fins a una vigilància policial addicional o una reunió comunitària, que transmetrà el mateix missatge clar: la policia us està observant.

I tot i que Chicago està a l’avantguarda de la vigilància predictiva, no és l’única. Altres ciutats com Nova York i Los Angeles estan considerant la manera d’utilitzar la policia del big data per orientar les intervencions amb els individus amb risc.

El control predictiu basat en persones es va iniciar el 2009 com un intent d’aplicar un enfocament de salut pública sobre la violència. La clau és identificar els factors de risc predictius i intentar solucionar les causes ambientals subjacents. Els investigadors de Chicago van desenvolupar un algoritme perquè la policia donés prioritat a aquells individus amb més risc analitzant detencions passades per delictes violents, delictes d’armament o narcòtics, edat a la detenció més recent (menor d’edat, més puntuació), incidents en què l’individu va ser víctima d’un assalt i la línia de tendència de l’activitat delictiva (tant si la taxa és creixent o disminueix). Llavors un ordinador classifica les variables i escriu una puntuació d’amenaça relativa per determinar la probabilitat d’ús d’arma de foc.

La policia afirma que el mecanisme d’orientació actua assenyalant l’elevat percentatge de víctimes de trets que es podrien predir amb precisió. Els crítics han assenyalat que l’objectiu és excessiu i ineficaç, incloent-hi desenes de milers de persones amb puntuacions altes, però sense antecedents de detenció prèvia per delictes violents.

Es considera preocupant que les puntuacions d’amenaça incideixin en l’equitat de la interacció de la policia amb les persones als carrers. Les puntuacions d’alt risc guien les estratègies d’interrupció de la violència, que influeixen en els contactes de la policia i que són objecte de més vigilància per part d’aquesta. Però les puntuacions d’amenaça també distorsionen les decisions quotidianes de la policia sobre l’ús de la força i la sospita raonable. Al cap i a la fi, una vegada que la policia tingui informació que una persona té una puntuació d’amenaça elevada, aquest coneixement augmentarà la sospita criminal i incrementarà el perill percebut, la qual cosa provocarà interaccions més freqüents i agressives amb les persones que l’algoritme considera “d’alt risc”.

El biaix també es pot arrossegar al sistema. Tal com es descriu a la investigació de la Divisió de Drets Civils del Departament de Justícia de 2017 del Departament de Policia de Chicago, els patrons de discriminació racial segueixen sent un problema real. Si bé es podria esperar que la justícia algorítmica evités el biaix humà, la realitat és que aquestes insercions (especialment les detencions) es veuen afectades per les decisions discrecionals de tots els agents de policia mentre patrullen o investiguen el sospitós d’un delicte. Així, si bé les matemàtiques de big data poden ser “objectives”, les entrades no estan exemptes de biaixos humans, que distorsionen així els resultats finals.

 Enllaços relacionats

https://notesdeseguretat.blog.gencat.cat/2018/02/19/lavaluacio-de-la-policia-predictiva-el-cas-de-baden-wurttemberg-alemanya/

_____

Esta entrada en español / This post in English / Post en français

Leave a Reply