La recherche audio médico-légale sur l’utilisation des armes à feu gagne du terrain

En août dernier, le National Institute of Justice (NIJ) des États-Unis a publié les résultats d’une enquête menée pendant huit ans par le Dr Robert C. Maher sur l’utilisation de nouvelles techniques audio médico-légales pour documenter et interpréter les enregistrements de tirs d’armes à feu.

Ses recherches ont été publiées par l’Office of Justice Programs’ National Criminal Justice Reference Service. L’auteur se souvient du début de ses recherches, à l’occasion d’un appel téléphonique au cours duquel on lui a demandé si une arme prétendument utilisée pour commettre un crime pouvait être comparée à un enregistrement audio d’un coup de feu tiré sur une scène de crime.

Les premiers travaux du Dr. Maher dans ce domaine ont commencé par la compréhension des caractéristiques acoustiques des coups de feu en obtenant des enregistrements répétés et de haute qualité dans des conditions contrôlées. Cette démarche s’inscrit dans le cadre d’un objectif stratégique de l’Office of Investigative and Forensic Sciences du NIJ, qui consiste à soutenir la recherche fondamentale dans le domaine des sciences médico-légales.

Pour ce faire, il a créé un dispositif et une méthodologie permettant de recueillir des enregistrements de coups de feu. Des données sur diverses armes à feu telles cinq pistolets, un revolver, un fusil de chasse et deux carabines, ont pu être recueillies permettant ainsi de mesurer la cohérence, la fiabilité et la variabilité d’un tir à l’autre.

Maher a constaté que, bien qu’il y ait des similitudes lorsqu’on tire 10 fois avec la même arme, il y a aussi des différences appréciables d’un coup à l’autre. La durée de l’explosion varie d’une arme à feu à l’autre, mais une arme à feu donnée varie également d’un tir à l’autre. Bien que l’explication de la variabilité de la durée ne soit pas encore connue, le médecin suggère que cette variation aura un impact sur l’analyse médico-légale des enregistrements qui comprennent des coups de feu d’origine inconnue.

Après avoir établi une méthode reproductible d’enregistrement précis de l’acoustique des tirs dans des conditions idéales, le Dr Maher était prêt à explorer les limites de l’interprétation médico-légale des dispositifs d’enregistrement standard. Le matériel à exploiter pourrait comprendre des téléphones mobiles, des radios mobiles terrestres, des enregistreurs audio personnels, des données audio collectées par les centres d’appels d’urgence et les systèmes d’enregistrement des centres de dispatching.

Maher a comparé les signaux émis à 11 endroits différents par des microphones et des dispositifs d’enregistrement personnel, ainsi que par une caméra corporelle portée par le tireur et un système d’enregistrement interne dans un véhicule de police. Cela lui a permis de vérifier les prévisions géométriques de l’heure d’arrivée et du niveau à chaque site d’enregistrement. À des fins de vérification, il a également comparé les temps avec l’enregistrement venant d’un appel de téléphone portable vers le système de messagerie vocale corporative.

Il a ensuite examiné simultanément plusieurs enregistrements de coups de feu pour voir s’il était possible d’obtenir des informations médico-légales pertinentes, malgré les reflets, les distorsions, les artefacts de codage et d’autres caractéristiques non idéales. À partir de ces analyses, le médecin a créé une méthode de traitement permettant de localiser la source des déclenchements et de réduire les bruits de fond incohérents, ainsi qu’une méthode permettant d’identifier le point de synchronisation le plus probable pour plusieurs enregistrements audio.

En ce qui concerne l’analyse criminalistique, il est de plus en plus probable que plusieurs enregistrements générés par les utilisateurs puissent être présentés comme preuves dans le cadre d’une enquête criminelle. Les preuves audio peuvent provenir de smartphones portables, de systèmes de surveillance privés, de caméras corporelles et d’autres dispositifs d’enregistrement non synchronisés. Lorsque plusieurs enregistrements générés par les utilisateurs sont disponibles, l’analyse audio des enregistrements pourrait fournir des informations spatiales et temporelles sur l’emplacement et l’orientation des sources sonores, y compris, mais sans s’y limiter, les coups de feu.

L’analyse audio des coups de feu réalisée par le Dr Maher a été utilisée dans le procès de Michael Brelo par le bureau de police de Cleveland, où le Dr Maher a conclu que 15 des 18 coups de feu avaient été tirés par l’arme de Brelo. Les enquêtes indépendantes du FBI ont également corroboré ses conclusions.

_____

Aquest apunt en català / Esta entrada en español / This post in English

Robots-taxis : conséquences de leur expansion sur la sécurité

Les robots-taxis ne sont pas des véhicules d’essai expérimentaux et il ne s’agit plus d’un exercice de simulation. Un grand nombre de voitures fantômes sans conducteur dans les rues de San Francisco sont des robots-taxis à fin commerciale, qui concurrencent directement les taxis, Uber et Lyft, ainsi que les transports publics. Ils constituent une partie réelle, bien que marginale, du système de transport de la ville. Les entreprises qui les exploitent, Cruise et Waymo, semblent prêtes à étendre davantage leurs services à San Francisco, Austin, Phoenix et peut-être même Los Angeles dans les mois à venir.

Comme l’a rapporté le chercheur Benjamin Schneider sur le site Technology Review en juillet dernier, il y a un manque d’urgence dans le discours public sur les robots-taxis. Il pense que la plupart des gens, y compris de nombreux décideurs publics, ne sont pas conscients de la rapidité avec laquelle ce secteur évolue ni de la gravité des impacts à court terme sur la main-d’œuvre, le transport et la sécurité.

Des agences désignées, telles que la California Public Utilities Commission, prennent des décisions très importantes concernant les robots-taxis dans un contexte relativement obscur. Les cadres juridiques restent profondément inadéquats : les villes n’ont aucune autorité réglementaire sur les robots-taxis qui sillonnent leurs rues, et la police ne peut pas légalement les dénoncer pour des infractions liées à leur mouvement.

Malheureusement, il n’existe pas de cadre normalisé approuvé par le gouvernement pour évaluer la sécurité des véhicules autonomes. Les véhicules sans conducteur de Cruise, en particulier, ont montré une tendance alarmante à s’arrêter inexplicablement au milieu de la route, bloquant le trafic pendant de longues périodes. La police de San Francisco a recensé au moins 92 incidents de ce type en l’espace de six mois, dont trois ont perturbé les services d’urgence.

Ces histoires critiques, bien qu’importantes, éclipsent la tendance générale qui s’est progressivement développée en faveur de l’industrie du robot-taxi. Au cours des dernières années, Cruise et Waymo ont franchi plusieurs obstacles réglementaires majeurs, se sont étendus à de nouveaux marchés et ont accumulé plus d’un million de kilomètres dans le cadre d’une conduite véritablement sans conducteur, sans provoquer de grosses frayeurs, dans toutes les grandes villes d’Amérique du Nord.

Sur le plan opérationnel, les robots-taxis sont très différents des véhicules autonomes appartenant à des particuliers et sont bien mieux placés pour un déploiement commercial. Ils peuvent être déployés dans une zone strictement limitée, leur utilisation peut être étroitement surveillée par l’entreprise qui les a conçus et ils peuvent être immédiatement retirés de la circulation en cas de conditions météorologiques défavorables ou d’un autre problème grave.

Le simple fait que ces véhicules soient programmés pour respecter automatiquement le code de la route et la limitation de vitesse donnent l’impression que la conduite est plus sûre que celle d’un grand pourcentage d’humains qui se trouvent sur la route.

Il reste à voir si ces robots-taxis sont prêts à être déployés à grande échelle, ou même quels seraient les paramètres permettant de déterminer leur état de préparation. Mais, à moins d’un changement significatif de dynamique, tel qu’un choc économique ou une horrible tragédie, les robots-taxis sont en mesure de poursuivre leur expansion. Cela suffit à justifier une discussion plus large sur la manière dont les villes et la société vont changer dans un avenir proche.

Cruise et Waymo sont sur le point d’être autorisés à proposer un service commercial de robots-taxis toute la journée dans la quasi-totalité de San Francisco. Cela pourrait avoir immédiatement des répercussions économiques considérables sur les chauffeurs de taxi et les conducteurs au sein de la ville. Il en va de même pour toutes les autres villes où Cruise et Waymo s’installent. La perspective d’automatiser les chauffeurs professionnels n’est plus une théorie. Il s’agit d’une possibilité très réelle dans un avenir proche.

L’accélération de la technologie doit s’accompagner d’une accélération des politiques publiques. Mais pour suivre le rythme, les citoyens doivent avoir une vision claire de la rapidité avec laquelle l’avenir pourrait se dessiner.

_____

Aquest apunt en català / Esta entrada en español / This post in English

Exploiter l’intelligence artificielle pour renforcer la cybersécurité

En juin dernier, le responsable de la sécurité de l’information de Crypto.com, Jason Lau, a publié sur le site web expert en sécurité ooda.com quelques informations sur la manière d’utiliser le potentiel de l’intelligence artificielle (IA) au profit de la cybersécurité.

L’auteur estime que dans le domaine de la cybersécurité, il est nécessaire d’établir un avantage stratégique sur les criminels en identifiant et en neutralisant les menaces de manière proactive avant qu’elles ne causent des dommages. À cet égard, il estime également que l’apprentissage continu à partir des incidents passés peut améliorer les réponses futures, en utilisant des outils pilotés par l’IA pour identifier, comprendre et neutraliser les menaces. À cet effet, il propose les mesures suivantes :

• Utiliser une plateforme automatisée de renseignement sur les menaces pilotée par l’IA qui reconnaît les signatures, les tactiques, les techniques et les procédures externes en temps réel. Cette plateforme vise à être particulièrement rapide en ce qui concerne l’identification et la neutralisation du phishing, des logiciels malveillants et d’autres menaces de terminaux, en évoluant et en tirant des enseignements des méthodes d’attaque.

• Mettre en œuvre un système d’alerte et de surveillance automatisé et continu des actifs sensibles, depuis l’inventaire utilisé dans toute l’entreprise jusqu’au balayage des informations personnelles identifiables afin de détecter des cas spécifiques d’exposition au texte en clair et d’alertes aux équipes.

• Réaliser des analyses continues du code basés sur l’IA, rechercher des exceptions de code, des erreurs de langage de script intersite, des injections de code, des débordements de mémoire tampon et bien plus encore, et les remplacer automatiquement par du code sécurisé tout en préservant l’intégrité fonctionnelle du code.

• Utiliser l’IA pour détecter l’IA malveillante elle-même : attaques indirectes par injection rapide, qui mettent en évidence les menaces émergentes où les adversaires tentent d’infiltrer de grands modèles de langage, jusqu’à l’utilisation de l’IA pour détecter les logiciels malveillants et bien d’autres.

Alors que nous entrons dans un futur de plus en plus interconnecté, l’IA apparaît sans aucun doute comme un allié puissant, une avant-garde de première ligne, qui aide à prédire, préparer et empêcher rapidement les cybermenaces imminentes.

Cependant, il devient également évident que disposer d’un outil aussi puissant n’est pas suffisant. Les responsables de la cybersécurité d’aujourd’hui sont appelés à faire plus que réagir et répondre. Ils doivent adopter une attitude proactive, planifier, prévoir et positionner en permanence leurs défenses, en prenant les mesures nécessaires pour garder une longueur d’avance sur la vague incessante des adversaires cybernétiques.

Cependant, en allant trop vite, sans une approche réfléchie, nous risquons de marcher sur le terrain fragile de l’éthique. La manière dont l’IA est utilisée dans la cybersécurité est aussi cruciale que la raison et l’endroit où nous choisissons de la déployer. En tant que leaders, il est impératif de lier des considérations éthiques à nos stratégies d’IA, en établissant un cadre moral solide pour nous guider à travers le labyrinthe des possibilités technologiques.

Dans ce domaine complexe qu’est la cybersécurité, les défis de demain sont déjà à notre porte. Disposer d’un plan de cybersécurité n’est plus une option, mais une exigence de survie. Mais, il est essentiel de se demander comment l’IA peut aider les équipes de sécurité à être plus agiles et plus efficaces et à s’adapter aux cybermenaces nouvelles et émergentes.

_____

Aquest apunt en català / Esta entrada en español / This post in English

Une pause dans le développement de l’IA, est-ce la solution ?

Les défis épineux posés par les chatbots et l’IA ne disparaîtront pas soudainement. C’est ce que rapporte le site Web de sécurité Oodaloop. Et bien que de nombreuses personnes bien informées et bien intentionnées aient signé une pétition appelant à une pause de six mois dans la recherche avancée sur l’IA, une telle mesure est peu réaliste et peu judicieuse. Les problèmes posés sont complexes, enchevêtrés et difficiles à résoudre parce qu’ils sont incroyablement alambiqués et polyédriques. L’IA implique tellement de parties prenantes, de domaines qui se croisent et d’intérêts concurrents qu’il est difficile de s’y attaquer. Une pause dans la recherche technologique ne contribuera pas à résoudre les problèmes humains.

Ce qui sera utile, ce sont des engagements publics systématiques, méthodiques et massifs qui informent les projets pilotes associés aux implications commerciales et civiques de l’intelligence artificielle aux niveaux national et local. Tout le monde est concerné par les promesses et les dangers potentiels du changement de mentalité technologique que représentent les progrès de l’IA. Chacun devrait donc pouvoir s’exprimer, et chacun devrait veiller à ce que les sociétés soient bien informées et préparées à prospérer dans un monde en mutation rapide qui sera bientôt très différent.

À première vue, l’arrêt de son développement peut sembler convaincant compte tenu des défis posés par les  modèles de langue de grande taille (LLM), mais cette approche est erronée pour plusieurs raisons. Premièrement, il est essentiel de tenir compte de la concurrence mondiale. Même si toutes les entreprises américaines acceptaient de faire une pause, d’autres pays poursuivraient leurs recherches sur l’IA, ce qui rendrait tout accord national ou international moins efficace.

Deuxièmement, la diffusion de l’IA est déjà en cours. L’expérience Alpaca de l’université de Stanford a montré qu’il était possible de la perfectionner pour atteindre les capacités de ChatGPT-3 pour moins de 600 dollars. Cette avancée accélère la diffusion de l’IA en la rendant plus accessible à divers acteurs, notamment ceux qui ont des intentions malveillantes.

Troisièmement, l’histoire nous enseigne qu’une pause dans l’IA pourrait conduire à un développement secret. L’arrêt public de la recherche en matière d’IA pourrait inciter les pays à mener des recherches avancées sur l’IA en secret, ce qui pourrait avoir des conséquences désastreuses pour les sociétés ouvertes. Ce scénario est similaire à celui de la convention de La Haye de 1899, où les grandes puissances ont publiquement interdit les obus empoisonnés, pour ensuite poursuivre leurs recherches en secret et finalement déployer des gaz nocifs pendant la Première Guerre mondiale.

À l’avenir, une approche proactive, axée sur les résultats et en coopération avec le public devrait être encouragée afin de relever efficacement les défis posés par l’IA. Les groupes de réflexion ou think tanks et les universités peuvent impliquer le public dans des conversations sur la manière de travailler, de vivre, de gouverner et de coexister avec les technologies modernes qui affectent l’ensemble de la société. Associer diverses voix au processus décisionnel permet de mieux aborder et résoudre les défis complexes de l’IA aux niveaux local et national.

En outre, les leaders industriels et politiques devraient être encouragés à s’engager dans la recherche de solutions non partisanes et multisectorielles pour maintenir la stabilité de la société civile. Travailler ensemble permettra de combler le fossé entre les avancées technologiques et ses implications sociales.

Enfin, il est essentiel de mettre ne place des programmes pilotes d’IA dans différents secteurs, tels que le travail, l’éducation, la santé, le droit et la société civile. Nous devrions apprendre à créer des environnements civils responsables où l’IA peut être développée et déployée de manière responsable. Ces initiatives peuvent nous aider à mieux comprendre et à intégrer l’intelligence artificielle dans nos vies et à veiller à ce que son potentiel soit exploité dans l’intérêt général tout en atténuant ses risques.

_____

Aquest apunt en català / Esta entrada en español / This post in English

Des services de police canadiens utilisent une application innovante pour évaluer les appels liés à la santé mentale

Les chefs de police de la Colombie-Britannique ont réussi à négocier avec le gouvernement provincial le financement du développement d’une application capable de détecter, de documenter et d’évaluer le type de ressources en matière de santé mentale qui conviendrait le mieux aux personnes à risque.

Cette application a pour but d’aider les agents qui doivent intervenir dans les conflits à déterminer le type d’assistance le mieux adapté à la personne en crise. La police de la Colombie-Britannique estime qu’entre 30 et 50 % des appels à un service de police peuvent être associés à des problèmes de santé mentale. Jusqu’à présent, la police posait souvent les mêmes questions que l’hôpital. Avec ce système, avant de quitter les lieux, les agents auront déjà partagé des informations avec l’hôpital et les professionnels de la santé.

En cas de situation urgente, violente ou à haut risque, peu d’informations sont envoyées au Surrey Memorial Hospital. Lorsqu’il s’agit d’un appel ne mettant pas la vie en danger, les agents de police remplissent une liste de contrôle (irritabilité, délires, hallucinations, etc.) et l’application génère un rapport qui est transmis à un médecin de l’hôpital, qui peut ainsi recommander une intervention pour cette personne en vertu de la loi sur la santé mentale ou suggérer des soins alternatifs.

Lorsqu’une personne a déjà été évaluée à l’aide de l’application HealthIM, les agents disposent d’un ensemble d’informations de base, y compris des conseils spécifiques sur la manière de modérer l’intervention et d’éviter tout élément déclencheur. De cette manière, les informations peuvent aider à désamorcer une situation plus tôt et de manière plus sûre, ce qui se traduit par une meilleure prise en charge de la personne concernée.

Comme le souligne Penny Daflos de CTV News Vancouver, l’application HealthIM, présentée comme une meilleure connexion entre la police et le système de santé, est le fruit d’un long projet exhaustif visant à relever l’un des défis les plus problématiques en matière de sécurité publique.

Selon le surintendant de la Gendarmerie royale du Canada, Todd Preston, et président de la British Columbia Association of Chiefs of Police, cette application peut aider à déterminer si les utilisateurs des services de police ont réellement besoin d’une assistance médicale. L’utilisation de cette application permettra aussi d’éviter que les agents passent des heures à attendre que les patients soient pris en charge par les professionnels de la santé, un processus qui peut également conduire à la stigmatisation de ces personnes.

Actuellement, le service de police de Delta est la seule agence à utiliser le nouveau système, qui a d’abord été mis en place au sein des forces de police municipales de l’Ontario et a été progressivement mis en œuvre dans toutes les provinces des Prairies.

En service depuis 2019, l’application a permis de diminuer le temps consacré aux démarches administratives, de standardiser les rapports, d’améliorer le partage d’informations avec les professionnels de la santé, et de réduire le nombre d’évaluations à 331 personnes seulement pour l’année 2021.

_____

Aquest apunt en català / Esta entrada en español / This post in English

Les États-Unis activent une nouvelle ligne d’assistance téléphonique dédiée aux crises de santé mentale

La ligne téléphonique américaine de prévention du suicide joue un rôle crucial depuis des années, mais il n’est pas forcément facile de se rappeler de son numéro à dix chiffres, encore moins en situation de crise. Ainsi, de nombreuses personnes composent le 911, c’est-à-dire le numéro d’appel d’urgence nord-américain, alors que leurs appels devraient être adressés à des spécialistes de la santé mentale.

Comme le rapporte un site Web du ministère américain de la Justice, le lancement du nouveau service d’assistance téléphonique peut représenter une bouffée d’air frais pour les personnes en situation de crise ou souffrant de maladies mentales.

En effet, il existe désormais un numéro à trois chiffres, facilement mémorisable, auquel passer des appels, envoyer des messages par chat ou des SMS afin d’être mis en contact de manière confidentielle avec des spécialistes de la santé mentale 24 heures sur 24 : le 988.

Cette ligne, appelée « 988 Suicide and Crisis Lifeline », est une ressource d’une importance considérable, non seulement pour les personnes à risque, mais aussi pour les services de police, débordés par un nombre croissant d’appels liés à des problèmes de santé mentale. On estime actuellement que, dans certains services, les appels au 911 impliquant des problèmes de santé mentale représentent plus de 30 % de toutes les plaintes aux services de police.

Ce service a été mis en place car de nombreuses personnes qui appelaient le 911 pour des urgences de santé mentale se retrouvaient en détention, en prison ou coincées dans les services d’urgence des hôpitaux à attendre des heures, voire des jours, pour recevoir des soins. Ces personnes finissaient souvent par retourner dans la rue, en prison ou à l’hôpital.

Parallèlement au fonctionnement du service du 988, l’administration des services relatifs à la toxicomanie et la santé mentale (SAMHSA) a publié un nouveau guide sur la 988 Suicide and Crisis Lifeline, qui contient plusieurs suggestions pour que la nouvelle ligne mise en place soit un succès :

  • Développer des partenariats intersystèmes qui mettent en relation les professionnels de la santé mentale et d’autres branches de la santé, les policiers et les pompiers avec l’organisme qui gère le centre d’appels et les services qui peuvent être déployés.
  • Impliquer les principales parties prenantes, y compris le gouvernement et les dirigeants communautaires.
  • S’assurer que la communauté dispose des ressources et des infrastructures nécessaires pour aider les patients. Le document de SAMHSA contenant des directives nationales pour les soins de crise de santé comportementale, National Guidelines for Behavioral Health Crisis Care, peut être utilisé pour identifier les services de crise existants au niveau local, régional ou national.
  • Examiner les politiques, les procédures et le matériel de formation pour s’assurer que le 988 est effectivement intégré dans les réponses apportées aux crises.
  • Prendre des mesures pour s’assurer que les appels peuvent être transférés avec fluidité entre le 988 et le 911 aux agents d’intervention, afin qu’ils puissent accélérer les services du 988 lorsqu’une personne en crise en a besoin.
  • Faire la promotion du nouveau numéro 988. Le public, ainsi que les forces de l’ordre locales, devront être informés du fonctionnement du 988 au fur et à mesure de son déploiement.
  • Se coordonner avec les parties prenantes fédérales pour s’assurer que le ministère et la communauté disposent des informations les plus récentes sur les services disponibles dans chaque État.

_____

Aquest apunt en català / Esta entrada en español / This post in English

Détecter les mensonges pour améliorer la sécurité

Un groupe de chercheurs de RAND Corporation a publié un rapport dans lequel il explique avoir découvert que les modèles d’apprentissage automatique, ou machine learning, peuvent détecter des signes de mensonge pendant les entretiens de vérification des antécédents pour la sécurité nationale. L’approche la plus précise pour détecter l’usage de tromperie est un modèle d’apprentissage automatique qui compte le nombre de fois où la personne interrogée utilise des mots courants.

L’expérience des chercheurs s’est déroulée comme suit :

  • les 103 participants ont lu une histoire sur Edward Snowden, qui a divulgué des informations classifiées de l’agence de sécurité nationale (NSA) en 2013 ;
  • les participants ont été répartis au hasard pour lire la même histoire, mais celle-ci était présentée soit comme un reportage, soit comme un mémo avec des marques indiquant qu’il contenait des informations confidentielles ;
  • chaque participant a été assigné à un groupe pour l’entretien : l’un des groupes devait mentir sur ce qu’il avait lu et l’autre devait dire la vérité ;
  • d’anciens agents des forces de l’ordre ont interrogé les participants par vidéoconférence et par chat textuel, selon un ordre aléatoire.

Les chercheurs de RAND ont utilisé les transcriptions des entretiens et le contenu des chats pour entraîner différents modèles d’apprentissage automatique afin de voir s’ils pouvaient distinguer les participants qui mentaient et ceux qui disaient la vérité.

Ces chercheurs sont arrivés à trois conclusions principales :

  • l’important n’est pas seulement ce qui est dit, mais aussi la manière de le dire : fréquence des mots, cadence du discours, choix des mots et autres signes linguistiques de mensonge potentiel ;
  • les modèles d’apprentissage automatique peuvent détecter des signes de tromperie dans la façon dont les personnes s’expriment, même dans des chats textuels sans la présence d’un interlocuteur humain ;
  • ces modèles sont des outils qui peuvent compléter les techniques d’entretien existantes, mais ils ne peuvent pas remplacer complètement ces techniques.

En termes d’implications dans le domaine de la sécurité, les chercheurs soulignent les points suivants :

  • au moins un quart des personnes qui passent des entretiens pour obtenir une habilitation dans le domaine de la sécurité sont des femmes, et les enquêtes sur leurs antécédents sont souvent menées par des hommes, il convient donc de comprendre en quoi le sexe de l’enquêteur peut affecter les résultats du modèle ;
  • une utilisation inappropriée des outils d’apprentissage automatique pourrait entraîner des inégalités dans les taux d’acceptation et de refus des demandeurs d’habilitation dans le domaine de la sécurité ;
  • en raison des préjugés potentiels dans les résultats des modèles d’apprentissage automatique et chez les humains, il est important de maintenir un système de contrôle et d’équilibre incluant à la fois les humains et les machines ;
  • les modèles ont révélé que les hommes et les femmes utilisaient des mots différents pour mentir, les hommes étant moins susceptibles d’utiliser le mot « je » lorsqu’ils mentaient et plus susceptibles de l’utiliser lorsqu’ils disaient la vérité.

_____

Aquest apunt en català / Esta entrada en español / This post in English

Des efforts pour réduire le nombre de décès en détention aux États-Unis

Le site Web de recherche sur la sécurité rand.org a publié l’étude d’un groupe de chercheurs menée dans l’objectif de réduire le nombre de décès lors de la détention par les forces de l’ordre aux États-Unis.

Les chercheurs américains Duren Banks, Michael G. Planty, Madison Fann, Lynn Langton, Dulani Woods, Michael J. D. Vermeer et Brian A. Jackson ont orienté cette recherche vers le but d’identifier les besoins hautement prioritaires dans le système de justice pénale américain, en commençant par quelques questions importantes :

  • Quelles sont les différentes définitions et les chiffres concernant les décès en détention par les forces de l’ordre ?
  • Quels sont les obstacles et les facilitateurs qui affectent la communication de ces informations à l’échelle de chaque État et à l’échelle fédérale ?
  • Quelles informations sur les décès en détention par les forces de l’ordre sont essentielles pour soutenir les politiques et les pratiques visant à réduire ces décès ?

De son côté, le Congrès américain a promulgué en 2013 la loi sur le signalement des décès en détention (Death in Custody Reporting Act, DCRA) pour remédier au manque d’informations fiables sur les décès liés au maintien de l’ordre dans les établissements correctionnels.

Le ministère de la Justice américain a entrepris un certain nombre d’actions destinées à répondre aux dispositions de la DCRA et de ses propres mandats fédéraux, pour une compréhension complète des chiffres et des caractéristiques des décès survenant en détention. Malgré ces efforts, aucun programme national de collecte de données ne décrit actuellement tous les décès survenus en détention. Ces données sont essentielles pour soutenir les stratégies visant à réduire le nombre de ces décès : promouvoir la sécurité publique par des réponses appropriées aux crimes signalés, aux appels de signalement et aux rencontres entre la police et la communauté, et instaurer la confiance avec les communautés.

Les chercheurs, qui visent à mieux comprendre les besoins en matière de développement et d’exploitation des données issues d’une collecte nationale des chiffres sur les décès liés au maintien de l’ordre, considèrent que limiter la portée de cette collecte aux incidents mortels serait insuffisant pour comprendre et réduire les décès en détention.

Les auteurs de l’étude recommandent les actions suivantes :

  • Spécifier des normes nationales pour une collecte plus inclusive de tous les incidents critiques (les incidents mortels et tous ceux pendant lesquels la police utilise la force létale), que l’incident entraîne ou non un décès.
  • Soutenir des rapports plus fiables et plus complets transmis aux systèmes existants qui reposent sur la participation des forces de l’ordre en allouant des ressources aux fournisseurs de données, en tirant parti des informations que ces agences collectent déjà et en incitant autrement à la participation.
  • Travailler avec la recherche, les forces de l’ordre et les autres parties prenantes pour élaborer des indicateurs et des boîtes à outils appropriés et diffuser des informations sur l’utilisation correcte et responsable de ces données.
  • Développer une classification des décès ou des incidents critiques qui surviennent en garde à vue afin de fournir le contexte nécessaire à la compréhension du rôle des forces de l’ordre.

_____

Aquest apunt en català / Esta entrada en español / This post in English

Des ordonnances de protection des lieux publics qui mettent les sans-abri en situation d’infraction

D’après les conclusions d’une étude menée par plusieurs criminologues dans dix villes d’Angleterre et du Pays de Galles, le recours aux ordonnances de protection des lieux publics ne fait que reporter le problème des sans-abri. Plusieurs journaux anglais en ont parlé, notamment The Guardian.

Lorsque les conseils municipaux utilisent les ordonnances de protection des lieux publics pour imposer des amendes de 100 £ afin de contrôler les prétendus « comportements antisociaux », les personnes sans domicile fixe finissent toujours par revenir au même endroit.

L’étude a révélé que si le fait de disperser les sans-abri des centres-villes ne met pas fin aux comportements antisociaux, il met injustement ces personnes en situation d’infraction.

L’étude de l’Université de Sheffield Hallam, avec des recommandations finales pour un traitement plus juste des personnes vivant dans la rue, a été approuvée par l’organisation caritative pour les sans-abri Crisis. Les conseils municipaux d’Angleterre et du Pays de Galles qui utilisent les ordonnances de protection des lieux publics pour imposer des amendes de 100 £ visant à contrôler ou interdire des comportements tels que consommer de l’alcool, monter une tente ou dormir dans les lieux publics constatent simplement que cela ne résout pas le problème chez les personnes vivant dans la rue.

Les ordonnances de protection des lieux publics sont également utilisées à mauvais escient pour faire face à des comportements qui ne peuvent pas être considérés comme antisociaux, comme le fait de mendier ou de dormir dans la rue, et lorsqu’un effet préjudiciable est peu probable. Dans certains cas, les sans-abri ont également rapporté des violences physiques et verbales de la part des policiers.

Ce type d’ordonnance est utilisé en Angleterre depuis 2014 pour dissuader les comportements jugés antisociaux, mais c’est en pleine vague d’augmentation du sans-abrisme, causée par une haute du nombre d’expulsions de locataires, que l’attention se porte sur l’impact que ces ordonnances ont sur les personnes vivant dans la rue. En effet, selon les chiffres annuels publiés par le ministère du Logement et des Communautés du Royaume-Uni, près de 20 000 logements en Angleterre et au Pays de Galles ont été évacués en raison d’expulsions au cours de la période 2021-2022, soit près de 9 000 de plus que pendant la période précédente.

Dans une ville côtière de l’est de l’Angleterre, par exemple, il est interdit de mendier, boire, consommer de la drogue, uriner, déféquer et planter des tentes dans les lieux publics. Cependant, on peut souvent y voir des habitants ou des touristes se promener en mangeant ou en buvant, car cette ordonnance ne semble pas s’appliquer à eux.

Un porte-parole du Conseil national des chefs de police du Royaume-Uni estime que le récent travail conjoint avec Crisis a contribué à faire comprendre aux officiers pourquoi certaines personnes finissent par dormir dans la rue, de quel soutien elles ont besoin et, surtout, ce qui peut être fait pour les aider à échapper au sans-abrisme.

Pour sa part, la conseillère municipale Nesil Caliskan, également présidente du conseil des communautés de l’association des gouvernements locaux, estime que les ordonnances de protection des lieux publics devraient être utilisées dans le cadre d’un ensemble plus large de mesures jointes à des services d’aide pour traiter les causes profondes du sans-abrisme.

Au lieu de cela, les pouvoirs de dispersion associés aux ordonnances de protection des lieux publics ont créé des cercles vicieux d’intimidation, de dispersion et de déplacement. Les problèmes liés au sans-abrisme sont seulement reportés à plus tard, et non pas réduits ni prévenus. C’est là l’une des principales conclusions de l’étude selon Peter Squires, professeur émérite de criminologie et de politique publique à l’Université de Brighton.

_____

Aquest apunt en català / Esta entrada en español / This post in English

L’utilisation de l’intelligence artificielle par la police : une question de confiance

La perspective d’une utilisation accrue de l’intelligence artificielle (IA) par la police, qui mènerait notamment à une police prédictive, soulève des questions liées à une partialité potentielle, ainsi qu’aux besoins de transparence et d’explicabilité.

Un article du docteur Nick Evans de l’Université de Tasmanie, en Australie, a été publié sur le site Policing Insight. Le professeur y explique que si des mesures de sécurité adaptées sont mises en place, l’IA pourrait apporter une objectivité intégrée à la prise de décisions de la police. Cela pourrait aboutir à une plus grande confiance dans les processus de prise de décisions.

Les applications de police prédictive posent des questions éthiques et juridiques complexes, et doivent donc être sérieusement étudiées. Cependant, l’IA pourrait avoir d’autres applications pour la police.

Le rapport de Teagan Westendorf intitulé « Artificial intelligence and policing in Australia », publié sur le site de l’Institut australien de stratégie politique, en est un exemple récent. L’auteure du rapport affirme que les politiques et les cadres réglementaires du gouvernement australien ne tiennent pas suffisamment compte des limites actuelles des technologies de l’IA. D’après Teagan Westendorf, ces limites peuvent mettre à mal les principes éthiques pour une utilisation sûre et explicable de l’IA dans le contexte du maintien de l’ordre.

En accélérant la transcription des conversations et l’analyse des images de vidéosurveillance, l’IA peut faciliter les enquêtes. Les algorithmes de reconnaissance d’images peuvent également aider à détecter et à traiter les contenus comportant des abus d’enfants afin de limiter l’exposition humaine.

Les officiers de police peuvent avoir des préjugés conscients et inconscients, comme tous les êtres humains. Mais ces préjugés peuvent influencer les décisions et les résultats de la police. Ces résultats sont capturés dans les jeux de données qui doivent souvent être utilisés pour entraîner les algorithmes de police prédictive.

L’un des points forts de l’IA est sa capacité à analyser de vastes jeux de données et à détecter des liens trop subtils pour que l’esprit humain ne les remarque. Il est possible que le fait de simplifier les modèles afin de les rendre plus compréhensibles implique une certaine perte de sensibilité et, par conséquent, de précision.

Par ailleurs, la recherche montre que les individus semblent plus enclins à se fier à une décision de justice s’ils ont confiance dans le processus de prise de décisions, même si la décision prise leur est défavorable.

Comme le souligne Teagan Westendorf, des mesures peuvent être prises pour réduire la partialité, comme le codage préventif contre les préjugés prévisibles et l’implication d’analystes humains dans les processus de création et d’exploitation des systèmes d’IA.

Des recherches récentes révèlent que le degré de confiance des citoyens dans la police, qui est relativement élevé en Australie, est lié à leur degré d’acceptation des changements concernant les outils et les technologies qu’elle utilise.

Avec certaines mesures de protection en place, comme des examens et des évaluations du déploiement, l’utilisation de l’IA peut fournir une objectivité intégrée à la prise de décisions par la police, et ainsi réduire le recours à l’heuristique et à d’autres pratiques subjectives de prise de décisions. L’utilisation de l’IA peut contribuer à améliorer les performances de la police au fil du temps.

Cependant, le besoin d’explicabilité n’est qu’une considération parmi d’autres pour améliorer la responsabilité et la confiance du public dans l’utilisation des systèmes d’IA par la police, surtout en ce qui concerne la police prédictive.

Dans une autre étude, les participants étaient plus susceptibles de soutenir une utilisation accrue des technologies de l’IA par la police s’ils avaient été exposés à des exemples d’utilisation couronnée de succès que s’ils avaient été exposés à des exemples d’utilisation infructueuse ou n’avaient été exposés à aucun exemple d’utilisation.

Cela suggère que, indépendamment du degré de transparence et d’explicabilité des algorithmes, les citoyens ne se fieront pas à l’utilisation de l’IA par la police si leur confiance en la police n’est pas renforcée. L’objectif de parvenir à une utilisation transparente et explicable de l’IA ne pourra pas être atteint sans prendre en compte le contexte dans son ensemble.

_____

Aquest apunt en català / Esta entrada en español / This post in English