Un ordinateur serait-il capable de prédire la violence ? À Chicago, Illinois, un algorithme évalue tous les individus interpelés par la police suivant un barème de notation du degré de menace numérique allant de 1 à 500. Le processus est opérationnel depuis environ quatre ans et pas loin de 400 000 habitants de Chicago ont désormais une note officielle de risque aux yeux de la police.
Cet algorithme remis en question – la méthode n’a pas encore été rendue publique – par le professeur de droit de l’Université de Columbia, Andrew Guthrie Ferguson, influe sur la stratégie de la police et peut faire varier le niveau de suspicion dans les rues. Par ailleurs, il peut constituer le futur de la police du Big Data en Amérique, en fonction de la manière dont il est perçu, que ce soit comme une approche innovatrice pour la réduction de la violence ou comme un modèle de contrôle social basé sur les données.
En effet, la notation de la menace individualisée apparaît automatiquement dans les tableaux de commande de l’ordinateur de la police pour que l’agent connaisse le risque relatif qu’il y a à interpeler un suspect. La notation prédictive détermine aussi qui sera soumis à une intervention de police proactive. Ces interventions peuvent aller d’une simple visite à domicile par des agents à une surveillance policière supplémentaire ou une réunion communautaire qui transmettra le même message clair : la police vous observe.
Si la ville de Chicago est à l’avant-garde en termes de surveillance prédictive, ce n’est pas la seule car New York et Los Angeles envisagent aussi d’utiliser la police du Big Data pour orienter les interventions sur les individus à risque.
Le contrôle prédictif basé sur les individus a commencé en 2009 par une tentative d’appliquer une approche de santé publique à la violence. Le but est d’identifier les facteurs à risque prédictifs et tenter de pallier les causes environnementales sous-jacentes. Les enquêteurs de Chicago ont développé un algorithme pour que la police se focalise sur les individus à haut risque en analysant : l’historique des interpellations pour crimes violents, les crimes liés à l’armement ou aux stupéfiants, l’âge lors de l’interpellation la plus récente (mineur, note élevée), les incidents où l’individu a été victime d’une agression et la ligne de tendance de l’activité criminelle (que le taux soit croissant ou décroissant). Un ordinateur classe alors les variables et donne une note de menace relative pour établir la probabilité d’utilisation d’une arme à feu.
La police affirme que le mécanisme d’orientation agit en indiquant le haut pourcentage de victimes de coups de feu pouvant être prédit avec précision. Les détracteurs ont souligné que l’objectif est excessif et inefficace, car des dizaines de milliers d’individus sont inclus sous des notes élevées alors qu’ils n’ont aucun antécédent d’interpellation préalable pour crimes violents.
On craint que la notation des niveaux de menace n’affecte l’équité de l’interaction de la police à l’égard des gens dans les rues. Les notes à haut risque guident les stratégies d’interruption de la violence qui influent sur les contacts de la police et se trouvent sous sa haute vigilance. Par ailleurs, la notation du degré de menace altère les décisions quotidiennes de la police quant à l’usage de la force et la suspicion raisonnable. En fin de compte, lorsque la police est informée qu’une personne présente une note de menace élevée, cette information fait augmenter le niveau de suspicion criminelle et de danger perçu, en provoquant des interactions plus fréquentes et agressives à l’égard des individus que l’algorithme considère « à haut risque ».
Le biais peut aussi entraîner le système. Comme le décrit l’enquête de la Division des droits civils du département de la Justice de 2017 du Chicago Police Department, les modèles de discrimination raciale restent un problème réel. Alors que l’on pourrait espérer que la justice algorithmique permette d’éviter le biais humain, la réalité est que ces données (et notamment les interpellations) se voient affectées par les décisions arbitraires de tous les agents de police lorsqu’ils patrouillent ou enquêtent sur un suspect. Ainsi, même si les mathématiques du Big Data peuvent être « objectives », les données enregistrées ne sont pas à l’abri de biais humains qui faussent les résultats finaux.
Liens en rapport
_____
Aquest apunt en català / Esta entrada en español / This post in English