La perspective d’une utilisation accrue de l’intelligence artificielle (IA) par la police, qui mènerait notamment à une police prédictive, soulève des questions liées à une partialité potentielle, ainsi qu’aux besoins de transparence et d’explicabilité.

Un article du docteur Nick Evans de l’Université de Tasmanie, en Australie, a été publié sur le site Policing Insight. Le professeur y explique que si des mesures de sécurité adaptées sont mises en place, l’IA pourrait apporter une objectivité intégrée à la prise de décisions de la police. Cela pourrait aboutir à une plus grande confiance dans les processus de prise de décisions.
Les applications de police prédictive posent des questions éthiques et juridiques complexes, et doivent donc être sérieusement étudiées. Cependant, l’IA pourrait avoir d’autres applications pour la police.
Le rapport de Teagan Westendorf intitulé « Artificial intelligence and policing in Australia », publié sur le site de l’Institut australien de stratégie politique, en est un exemple récent. L’auteure du rapport affirme que les politiques et les cadres réglementaires du gouvernement australien ne tiennent pas suffisamment compte des limites actuelles des technologies de l’IA. D’après Teagan Westendorf, ces limites peuvent mettre à mal les principes éthiques pour une utilisation sûre et explicable de l’IA dans le contexte du maintien de l’ordre.
En accélérant la transcription des conversations et l’analyse des images de vidéosurveillance, l’IA peut faciliter les enquêtes. Les algorithmes de reconnaissance d’images peuvent également aider à détecter et à traiter les contenus comportant des abus d’enfants afin de limiter l’exposition humaine.
Les officiers de police peuvent avoir des préjugés conscients et inconscients, comme tous les êtres humains. Mais ces préjugés peuvent influencer les décisions et les résultats de la police. Ces résultats sont capturés dans les jeux de données qui doivent souvent être utilisés pour entraîner les algorithmes de police prédictive.
L’un des points forts de l’IA est sa capacité à analyser de vastes jeux de données et à détecter des liens trop subtils pour que l’esprit humain ne les remarque. Il est possible que le fait de simplifier les modèles afin de les rendre plus compréhensibles implique une certaine perte de sensibilité et, par conséquent, de précision.
Par ailleurs, la recherche montre que les individus semblent plus enclins à se fier à une décision de justice s’ils ont confiance dans le processus de prise de décisions, même si la décision prise leur est défavorable.
Comme le souligne Teagan Westendorf, des mesures peuvent être prises pour réduire la partialité, comme le codage préventif contre les préjugés prévisibles et l’implication d’analystes humains dans les processus de création et d’exploitation des systèmes d’IA.
Des recherches récentes révèlent que le degré de confiance des citoyens dans la police, qui est relativement élevé en Australie, est lié à leur degré d’acceptation des changements concernant les outils et les technologies qu’elle utilise.
Avec certaines mesures de protection en place, comme des examens et des évaluations du déploiement, l’utilisation de l’IA peut fournir une objectivité intégrée à la prise de décisions par la police, et ainsi réduire le recours à l’heuristique et à d’autres pratiques subjectives de prise de décisions. L’utilisation de l’IA peut contribuer à améliorer les performances de la police au fil du temps.
Cependant, le besoin d’explicabilité n’est qu’une considération parmi d’autres pour améliorer la responsabilité et la confiance du public dans l’utilisation des systèmes d’IA par la police, surtout en ce qui concerne la police prédictive.
Dans une autre étude, les participants étaient plus susceptibles de soutenir une utilisation accrue des technologies de l’IA par la police s’ils avaient été exposés à des exemples d’utilisation couronnée de succès que s’ils avaient été exposés à des exemples d’utilisation infructueuse ou n’avaient été exposés à aucun exemple d’utilisation.
Cela suggère que, indépendamment du degré de transparence et d’explicabilité des algorithmes, les citoyens ne se fieront pas à l’utilisation de l’IA par la police si leur confiance en la police n’est pas renforcée. L’objectif de parvenir à une utilisation transparente et explicable de l’IA ne pourra pas être atteint sans prendre en compte le contexte dans son ensemble.
_____
Aquest apunt en català / Esta entrada en español / This post in English