Aujourd’hui c’est un jour férié en Catalogne. Nous ne publions pas la note. Rendez-vous lundi.

_____

Aquest apunt en català / Esta entrada en español / This post in English

Today is bank holiday in Catalonia. We don’t publish any post. See you on Monday.

_____

Aquest apunt en català / Esta entrada en español / Post en français

Hoy es dia festivo en Cataluña. No publicamos entrada. Nos vemos el lunes.

_____

Aquest apunt en català / This post in English / Post en français

L’utilisation de l’intelligence artificielle par la police : une question de confiance

La perspective d’une utilisation accrue de l’intelligence artificielle (IA) par la police, qui mènerait notamment à une police prédictive, soulève des questions liées à une partialité potentielle, ainsi qu’aux besoins de transparence et d’explicabilité.

Un article du docteur Nick Evans de l’Université de Tasmanie, en Australie, a été publié sur le site Policing Insight. Le professeur y explique que si des mesures de sécurité adaptées sont mises en place, l’IA pourrait apporter une objectivité intégrée à la prise de décisions de la police. Cela pourrait aboutir à une plus grande confiance dans les processus de prise de décisions.

Les applications de police prédictive posent des questions éthiques et juridiques complexes, et doivent donc être sérieusement étudiées. Cependant, l’IA pourrait avoir d’autres applications pour la police.

Le rapport de Teagan Westendorf intitulé « Artificial intelligence and policing in Australia », publié sur le site de l’Institut australien de stratégie politique, en est un exemple récent. L’auteure du rapport affirme que les politiques et les cadres réglementaires du gouvernement australien ne tiennent pas suffisamment compte des limites actuelles des technologies de l’IA. D’après Teagan Westendorf, ces limites peuvent mettre à mal les principes éthiques pour une utilisation sûre et explicable de l’IA dans le contexte du maintien de l’ordre.

En accélérant la transcription des conversations et l’analyse des images de vidéosurveillance, l’IA peut faciliter les enquêtes. Les algorithmes de reconnaissance d’images peuvent également aider à détecter et à traiter les contenus comportant des abus d’enfants afin de limiter l’exposition humaine.

Les officiers de police peuvent avoir des préjugés conscients et inconscients, comme tous les êtres humains. Mais ces préjugés peuvent influencer les décisions et les résultats de la police. Ces résultats sont capturés dans les jeux de données qui doivent souvent être utilisés pour entraîner les algorithmes de police prédictive.

L’un des points forts de l’IA est sa capacité à analyser de vastes jeux de données et à détecter des liens trop subtils pour que l’esprit humain ne les remarque. Il est possible que le fait de simplifier les modèles afin de les rendre plus compréhensibles implique une certaine perte de sensibilité et, par conséquent, de précision.

Par ailleurs, la recherche montre que les individus semblent plus enclins à se fier à une décision de justice s’ils ont confiance dans le processus de prise de décisions, même si la décision prise leur est défavorable.

Comme le souligne Teagan Westendorf, des mesures peuvent être prises pour réduire la partialité, comme le codage préventif contre les préjugés prévisibles et l’implication d’analystes humains dans les processus de création et d’exploitation des systèmes d’IA.

Des recherches récentes révèlent que le degré de confiance des citoyens dans la police, qui est relativement élevé en Australie, est lié à leur degré d’acceptation des changements concernant les outils et les technologies qu’elle utilise.

Avec certaines mesures de protection en place, comme des examens et des évaluations du déploiement, l’utilisation de l’IA peut fournir une objectivité intégrée à la prise de décisions par la police, et ainsi réduire le recours à l’heuristique et à d’autres pratiques subjectives de prise de décisions. L’utilisation de l’IA peut contribuer à améliorer les performances de la police au fil du temps.

Cependant, le besoin d’explicabilité n’est qu’une considération parmi d’autres pour améliorer la responsabilité et la confiance du public dans l’utilisation des systèmes d’IA par la police, surtout en ce qui concerne la police prédictive.

Dans une autre étude, les participants étaient plus susceptibles de soutenir une utilisation accrue des technologies de l’IA par la police s’ils avaient été exposés à des exemples d’utilisation couronnée de succès que s’ils avaient été exposés à des exemples d’utilisation infructueuse ou n’avaient été exposés à aucun exemple d’utilisation.

Cela suggère que, indépendamment du degré de transparence et d’explicabilité des algorithmes, les citoyens ne se fieront pas à l’utilisation de l’IA par la police si leur confiance en la police n’est pas renforcée. L’objectif de parvenir à une utilisation transparente et explicable de l’IA ne pourra pas être atteint sans prendre en compte le contexte dans son ensemble.

_____

Aquest apunt en català / Esta entrada en español / This post in English

Artificial intelligence and policing: a matter of trust

The prospect of increased police use of artificial intelligence (AI), especially around predictive policing, has raised concerns about potential bias and the need for transparency and explainability.

Dr. Nick Evans of the University of Tasmania (Australia) publishes an article in Policing Insight where he explains that, with the right safeguards, the use of AI could establish built-in objectivity for policing decisions and, potentially, greater confidence in making those decisions.

Although predictive policing applications raise the thorniest ethical and legal issues and thus deserve serious consideration, it is also important to highlight other applications of AI for policing.

Teagan Westendorf’s ASPI report, ‘Artificial Intelligence and Policing in Australia’, is a recent example. Westendorf claims that Australian government policies and regulatory frameworks do not sufficiently capture the current limitations of AI technology and that these limitations may compromise principles of safe and explainable AI and ethics in the context of policing.

AI can help investigations by speeding up the transcription of interviews and analysis of CCTV footage. Image-recognition algorithms can also help detect and process child exploitation material and thus help limit human exposure.

Like all humans, police officers may have conscious and unconscious biases that can influence decision making and outcomes of policing. Predictive policing algorithms often must be trained on data sets that capture these results.

All in all, a key advantage of AI lies in its ability to analyse large data sets and detect relationships too subtle for the human mind to identify. Making models more understandable by simplifying them may require trade-offs in sensitivity and therefore also in accuracy.

In fact, research suggests that when individuals trust the decision-making process, there is a higher likelihood that they will trust the outcomes in justice settings, even if these outcomes are unfavourable.

As Westendorf highlights, steps can be taken to mitigate bias, such as pre-emptively coding against predictable biases and involving human analysts in the processes of building and leveraging AI systems.

Recent research has found that there is a correlation between people’s level of trust in the police (which is relatively high in Australia) and their level of acceptance of changes in the tools and technology that the police use.

With these types of safeguards in place (as well as deployment reviews and evaluations), the use of AI may lead to establishing built-in objectivity for policing decisions and reducing reliance on heuristics and other subjective decision-making practices. Over time, the use of AI may help improve police outcomes.

However, the need for explainability is only one consideration for improving accountability and public trust in police use of AI systems, especially when it comes to predictive policing.

In another study, participants exposed to allegedly successful police applications of AI technology were more likely to support broader police use of these technologies than those exposed to unsuccessful uses or not exposed to examples of AI application.

This suggests that focusing on broader public trust in the police will be essential in order to maintain public trust and confidence in the use of AI in policing, regardless of the degree of algorithmic transparency and explainability. The goal of transparent and explainable AI should not ignore this broader context.

_____

Aquest apunt en català / Esta entrada en español / Post en français

Inteligencia artificial y policía: una cuestión de confianza

La perspectiva del aumento del uso policial de la inteligencia artificial (IA), especialmente en torno a la policía predictiva, ha generado preocupaciones sobre posibles sesgos y la necesidad de transparencia y capacidad de explicación.

El doctor Nick Evans, de la Universidad de Tasmania (Australia), publica un artículo en Policing Insight donde explica que, con las garantías adecuadas, el uso de la IA podría establecer una objetividad integrada para las decisiones policiales y, potencialmente, una mayor confianza en la toma de estas decisiones.

Aunque las aplicaciones de policía predictiva plantean las cuestiones éticas y legales más espinosas y, por lo tanto, merecen una seria consideración, también es importante destacar otras aplicaciones de la IA para la policía.

El informe ASPA de Teagan Westendorf, ‘Inteligencia artificial y policía en Australia’, es un ejemplo reciente. Westendorf argumenta que las políticas y los marcos reguladores del gobierno australiano no recogen lo suficiente las limitaciones actuales de la tecnología de IA y que estas limitaciones pueden comprometer principios de IA y de ética, segura y explicable en el contexto de la policía.

La IA puede ayudar en las investigaciones acelerando la transcripción de las entrevistas y el análisis de las imágenes de CCTV. Los algoritmos de reconocimiento de imágenes también pueden ayudar a detectar y procesar material de explotación infantil y ayudar así a limitar la exposición humana.

Como todos los humanos, los agentes de policía pueden tener sesgos conscientes e inconscientes que pueden influir en la toma de decisiones y en los resultados de la policía. Los algoritmos de policía predictiva a menudo se tienen que entrenar en conjuntos de datos que capturan estos resultados.

Después de todo, una ventaja clave de la IA radica en su capacidad para analizar grandes conjuntos de datos y detectar relaciones demasiado sutiles para que la mente humana las identifique. Hacer que los modelos sean más comprensibles simplificándolos puede requerir compensaciones en sensibilidad y, por lo tanto, también en precisión.

De hecho, la investigación sugiere que cuando los individuos confían en el proceso de toma de decisiones, es más probable que confíen en los resultados en entornos de justicia, incluso si estos resultados son desfavorables.

Tal como señala Westendorf, se pueden tomar medidas para mitigar el sesgo, como codificar preventivamente contra sesgos previsibles e implicar a analistas humanos en los procesos de construcción y aprovechamiento de sistemas de IA.

Investigaciones recientes han encontrado que el nivel de confianza de la gente en la policía (que es relativamente alto en Australia) se correlaciona con su nivel de aceptación de los cambios en las herramientas y la tecnología que utiliza.

Con este tipo de salvaguardias establecidas (así como las revisiones y evaluaciones del despliegue), el uso de la IA puede tener el resultado de establecer la objetividad integrada para las decisiones policiales reduciendo la confianza en las heurísticas y otras prácticas subjetivas de toma de decisiones. Con el tiempo, el uso de la IA puede ayudar a mejorar los resultados de la policía.

No obstante, la necesidad de explicabilidad es solo una consideración para mejorar la responsabilidad y la confianza pública en el uso de los sistemas de IA por parte de la policía, especialmente cuando se trata de la policía predictiva.

En otro estudio, los participantes expuestos a aplicaciones policiales supuestamente exitosas de la tecnología de IA eran más propensos a apoyar un uso policial más amplio de estas tecnologías que aquellos expuestos a usos infructuosos o no expuestos a ejemplos de aplicación de IA.

Eso sugiere que centrarse en una confianza más amplia del público en la policía será vital para mantener la confianza pública en el uso de la IA en la policía, independientemente del grado de transparencia y explicabilidad algorítmica. El objetivo de una IA transparente y explicable no debería dejar de lado este contexto más amplio.

_____

Aquest apunt en català / This post in English / Post en français

Intel·ligència artificial i policia: una qüestió de confiança

La perspectiva de l’augment de l’ús policial de la intel·ligència artificial (IA), especialment al voltant de la policia predictiva, ha generat preocupacions sobre possibles biaixos i la necessitat de transparència i capacitat d’explicació.

El doctor Nick Evans, de la Universitat de Tasmània (Austràlia), publica un article a Policing Insight on explica que, amb les garanties adequades, l’ús de la IA podria establir una objectivitat integrada per a les decisions policials i, potencialment, una confiança més gran en la presa d’aquestes decisions.

Tot i que les aplicacions de policia predictiva plantegen les qüestions ètiques i legals més espinoses i, per tant, mereixen una consideració seriosa, també és important destacar altres aplicacions de la IA per a la policia.

L’informe ASPI de Teagan Westendorf, ‘Intel·ligència artificial i policia a Austràlia’, n’és un exemple recent. Westendorf argumenta que les polítiques i els marcs reguladors del govern australià no recullen prou les limitacions actuals de la tecnologia d’IA i que aquestes limitacions poden comprometre principis d’IA i d’ètica, segura i explicable en el context de la policia.

La IA pot ajudar en les investigacions accelerant la transcripció de les entrevistes i l’anàlisi de les imatges de CCTV. Els algoritmes de reconeixement d’imatges també poden ajudar a detectar i processar material d’explotació infantil i ajudar així a limitar l’exposició humana.

Com tots els humans, els agents de policia poden tenir biaixos conscients i inconscients que poden influir en la presa de decisions i en els resultats de la policia. Els algoritmes de policia predictiva sovint s’han d’entrenar en conjunts de dades que capturen aquests resultats.

Després de tot, un avantatge clau de la IA rau en la seva capacitat per analitzar grans conjunts de dades i detectar relacions massa subtils perquè la ment humana les identifiqui. Fer que els models siguin més comprensibles simplificant-los pot requerir compensacions en sensibilitat i, per tant, també en precisió.

De fet, la investigació suggereix que quan els individus confien en el procés de presa de decisions, és més probable que confiïn en els resultats en entorns de justícia, fins i tot si aquests resultats són desfavorables.

Tal com assenyala Westendorf, es poden prendre mesures per mitigar el biaix, com ara codificar preventivament contra biaixos previsibles i implicar analistes humans en els processos de construcció i aprofitament de sistemes d’IA.

Investigacions recents han trobat que el nivell de confiança de la gent en la policia (que és relativament alt a Austràlia) es correlaciona amb el seu nivell d’acceptació dels canvis en les eines i la tecnologia que utilitza.

Amb aquest tipus de salvaguardes establertes (així com les revisions i avaluacions del desplegament), l’ús de la IA pot tenir el resultat d’establir l’objectivitat integrada per a les decisions policials i reduir la confiança en les heurístiques i altres pràctiques subjectives de presa de decisions. Amb el temps, l’ús de la IA pot ajudar a millorar els resultats de la policia.

No obstant això, la necessitat d’explicabilitat és només una consideració per millorar la responsabilitat i la confiança pública en l’ús dels sistemes d’IA per part de la policia, especialment quan es tracta de la policia predictiva.

En un altre estudi, els participants exposats a aplicacions policials suposadament exitoses de la tecnologia d’IA eren més propensos a donar suport a un ús policial més ampli d’aquestes tecnologies que aquells exposats a usos infructuosos o no exposats a exemples d’aplicació d’IA.

Això suggereix que centrar-se en una confiança més àmplia del públic en la policia serà vital per mantenir la confiança pública en l’ús de la IA en la policia, independentment del grau de transparència i explicabilitat algorítmica. L’objectiu d’una IA transparent i explicable no hauria de deixar de banda aquest context més ampli.

_____

Esta entrada en español / This post in English / Post en français

Les passeurs de migrants utilisent des avions privés pour mener leurs activités

Avec le soutien d’Eurojust et d’Europol, les autorités judiciaires et policières d’Autriche, de Belgique, d’Allemagne, de France, d’Italie et des États-Unis ont démantelé un réseau criminel impliqué dans des opérations de trafic de migrants, fraude aux documents et blanchiment d’argent.

Des avions privés décollaient de Turquie avec à leur bord des migrants, principalement des Irakiens et des Iraniens d’origine kurde, équipés d’un faux passeport diplomatique. Mais ces vols n’arrivaient jamais à leur destination officielle, généralement dans les Caraïbes. Lors d’escales dans divers aéroports européens, notamment en Autriche, en France et en Allemagne, les migrants étaient expulsés de l’avion et leur faux passeport était confisqué. Les migrants devaient alors présenter une demande d’asile. Les suspects faisaient payer jusqu’à 20 000 euros par personne transportée.

Selon les enquêtes policières, au moins cinq opérations de trafic ont eu lieu entre octobre et décembre 2020 dans cinq pays européens différents. De plus, d’autres opérations de trafic étaient prévues.

Outre le trafic de migrants et la falsification de documents d’identité, le groupe criminel est également soupçonné d’émission de faux chèques et d’escroquerie de compagnies aériennes dans le but d’assembler sa propre flotte. Les suspects auraient également escroqué des hôtels en omettant de payer plusieurs factures.

La journée d’intervention de la police du 13 septembre 2022 a donné lieu à :

  • 5 arrestations (2 en Belgique et 3 en Italie) ;
  • 7 fouilles de domiciles (1 en Belgique et 6 en Italie) ;
  • la saisie de 2 avions, de 80 000 euros, d’une voiture haut de gamme, de matériel électronique et de matériel de falsification de documents d’identité (comme des imprimantes à cartes, des tampons, des hologrammes et des cartes en plastique blanc) ;
  • le gel de 173 000 euros en Italie.

Eurojust a soutenu les autorités impliquées dans la mise en place et le financement d’une équipe commune d’enquête (ECE) en juin 2021. Eurojust a également organisé quatre réunions de coordination visant à faciliter la coopération judiciaire et à soutenir les efforts d’enquête coordonnés.

Europol, pour sa part, a priorisé l’affaire à un stade précoce et y a affecté un analyste et un spécialiste pour soutenir les enquêtes nationales afin d’identifier les membres du réseau criminel et de le démanteler.

Ainsi, Europol a facilité l’échange d’informations opérationnelles et fourni un soutien analytique et financier. Le jour de l’intervention, Europol a activé un poste de commandement virtuel pour faciliter l’échange d’informations en temps réel. L’organisation a également déployé trois analystes, un en Belgique et deux en Italie, pour recouper les informations opérationnelles avec ses bases de données afin de fournir de nouvelles pistes d’enquête aux autorités policières nationales impliquées.

_____

Aquest apunt en català / Esta entrada en español / This post in English

Migrant smugglers use private planes to do business

With the support of Eurojust and Europol, judicial and law enforcement authorities from Austria, Belgium, Germany, France, Italy and the United States dismantled a criminal network involved in migrant smuggling, document fraud and money laundering.

The migrants, who were mainly Iraqis and Iranians of Kurdish origin, boarded private planes in Turkey using fake diplomatic passports. However, they never reached their official travel destinations (usually the Caribbean). During stopovers at various European airports, including in Austria, France and Germany, migrants were removed from the plane, had their false passports removed and had to systematically apply for asylum. The suspects charged up to €20,000 per person for smuggling.

According to police investigations, at least five smuggling operations took place between October and December 2020 in five different European countries. In addition, several plans were prepared to carry out other smuggling operations.

As well as migrant smuggling and identity document forgery, the organized crime group is also suspected of issuing fake checks and scamming airlines in an attempt to build its own fleet. The suspects also allegedly defrauded hotels by failing to pay several invoices.

The action day on 13 September of this year resulted in:

  • 5 arrests (2 in Belgium and 3 in Italy)
  • 7 house searches (1 in Belgium and 6 in Italy)
  • Seizures of 2 planes, 80,000 euros, 1 high-end car, electronic equipment and equipment for forging identity documents (such as card printers, stamps, holograms, and white plastic cards)
  • 173,000 frozen in Italy

Eurojust supported the authorities involved in the creation and funding of a joint investigation team (JIT) in June 2021. Eurojust also hosted four coordination meetings to facilitate judicial cooperation and support coordinated investigative efforts.

Europol, for its part, prioritised the case at an early stage and assigned an analyst and a specialist, dedicated to supporting national investigations to identify the members of the criminal network and dismantle it.

Europol also facilitated the exchange of operational information and provided analytical and financial support. On the action day, Europol activated a virtual command post to enable real-time information exchange. It also deployed three analysts, one in Belgium and two in Italy, to cross-check operational information against Europol databases to provide further investigative leads to participating national law enforcement authorities.

_____

Aquest apunt en català / Esta entrada en español / Post en français