Le Royaume-Uni veut revitaliser la police de proximité

Le Gouvernement britannique a annoncé cette semaine un plan ambitieux visant à renforcer la présence de la police dans les quartiers et à garantir un modèle de police de proximité, appelé « Neighbourhood Policing Guarantee » (Garantie de police de proximité). Avec cette mesure, l’exécutif britannique rétablit l’une des traditions les plus profondément enracinées de son système policier, à savoir le « bobby », dans le but déclaré de rétablir le lien entre la police et les communautés et d’améliorer la confiance de l’opinion publique.

Le ministère de l’Intérieur a publié un cadre de suivi et d’évaluation, « Neighbourhood Policing Guarantee performance framework » (Cadre de performance de la garantie de la police de proximité), qui définit des indicateurs permettant de mesurer la qualité de la présence policière dans les quartiers.

Cette décision intervient dans un contexte de débat intense sur le rôle de la police au Royaume-Uni, après des années de coupes budgétaires, de scandales de corruption et d’une perte inquiétante de la confiance du public. En décembre dernier, le College of Policing – l’organisme professionnel qui fixe les normes de la police britannique – avait déjà publié son évaluation de la proposition du gouvernement, avertissant que « la présence visible seule ne suffit pas : nous devons investir dans les compétences, le leadership et la culture organisationnelle pour faire d’un véritable modèle de police de proximité une réalité ».

La Neighbourhood Policing Guarantee présentée par le Gouvernement britannique est un cadre d’évaluation ambitieux qui vise à traduire en pratique opérationnelle une idée aussi simple que puissante : que chacun ait accès à une force de police proche, connue et utile. Le document de référence définit six engagements fondamentaux, qui sont destinés à devenir des normes minimales pour toutes les forces de police du Royaume-Uni :

1. Chaque communauté doit disposer d’une équipe de police de proximité identifiable et accessible. Les forces de police devront publier les noms, les photos et les coordonnées de leurs agents de quartier et veiller à ce que les citoyens sachent qui ils sont et comment les contacter.

2. Les équipes doivent être facilement joignables et disponibles à intervalles réguliers. Les agents de quartier doivent maintenir une présence active et connue sur leur territoire, avec des patrouilles à pied et des points de rencontre habituels.

3. Les citoyens doivent pouvoir voir comment les priorités locales sont prises en compte. La police doit publier les actions spécifiques qu’elle entreprendra pour répondre aux principales préoccupations de la communauté (incivilités, circulation, vols, etc.) et les mettre à jour régulièrement.

4. Chaque force de police devra recueillir systématiquement les priorités locales en matière de sécurité. Elle a l’obligation de mettre en place des mécanismes structurés de consultation et de participation des citoyens, au-delà des enquêtes ponctuelles.

5. Une formation spécifique en matière de police de proximité doit être assurée pour tous les membres de ces équipes. La réforme britannique prévoit une formation obligatoire concernant les outils de résolution des conflits, l’écoute active, la médiation et la sensibilisation culturelle.

6. Les résultats et l’impact du travail des équipes de quartier doivent être mesurés et rendus publics. Des indicateurs de performance spécifiques sur la présence, l’accessibilité, la satisfaction des citoyens et l’impact sur la réduction de problèmes spécifiques devront être appliqués.

Conclusions préliminaires

Le plan britannique représente une tentative sérieuse de rétablir le lien entre la police et la société par une réelle proximité, avec des engagements mesurables et transparents. En ce sens, son approche peut inspirer des réformes ou des améliorations de modèles tels que le modèle catalan, qui, malgré une longue tradition de sécurité communautaire, a souvent été enfermé dans le domaine de la volonté plutôt que de l’obligation.

Contrairement à la proposition britannique, qui vise à garantir des normes communes dans tout le pays, le modèle des Mossos s’est développé de manière inégale, en s’appuyant fortement sur l’impulsion des commandements locaux ou sur la complicité des conseils municipaux. La proposition britannique impose de passer du discours à la structure : présence garantie, données ouvertes et performances mesurées publiquement.

D’un point de vue européen, cette réforme ouvre une fenêtre d’opportunité pour repenser la relation entre la police et la communauté, non seulement en termes de présence, mais aussi en termes de confiance, de transparence et d’engagement démocratique.

Malgré le consensus apparent sur la nécessité de rétablir la police de proximité, plusieurs acteurs sociaux et experts en sécurité ont prévenu que cette garantie ne pouvait pas se limiter à un simple retour nostalgique aux années bobby on the beat (police de quartier). Il reste à voir si le déploiement réel du plan – avec des ressources, une formation et une évaluation – est à la hauteur du discours politique.

Du point de vue de la Catalogne et d’autres contextes européens ayant leur propre expérience de la police de proximité, cette initiative britannique offre une bonne occasion de réfléchir aux modèles de sécurité publique, aux relations entre la police et la communauté et aux mécanismes visant à garantir la transparence et la responsabilité. Nous suivrons l’évolution de la situation dans les Notes de sécurité.

_____

Aquest apunt en català / Esta entrada en español / This post in English

Comment Meta démantèle les réseaux de fraude organisée

Les arnaques à l’abattage du cochon, qui combinent escroquerie sentimentale et fraude à l’investissement, ont considérablement augmenté au cours de ces dernières années, devenant petit à petit une menace mondiale. Les auteurs de ces arnaques établissent des relations de confiance avec leurs victimes, puis les persuadent d’investir dans des projets frauduleux impliquant souvent des cryptomonnaies. Les pertes subies par les victimes peuvent s’élever à des centaines de milliers de dollars.

Face à cette situation alarmante, Meta, la société mère de Facebook, Instagram et WhatsApp, a intensifié ses efforts pour lutter contre ces pratiques frauduleuses. Selon un rapport publié en novembre 2024, Meta a supprimé plus de deux millions de comptes associés à des réseaux d’arnaques basés au Myanmar, au Laos, au Cambodge, aux Émirats arabes unis et aux Philippines. Ces mesures s’inscrivent dans le cadre d’une stratégie plus large visant à démanteler les organisations criminelles à l’origine de ces arnaques. 

Que sont les arnaques à l’abattage du cochon ?

Le terme « arnaques à l’abattage du cochon », ou pig butchering en anglais, fait référence à une tactique utilisée par les fraudeurs pour établir des relations de confiance avec leurs victimes, souvent par le biais des réseaux sociaux, d’applications de rencontres ou de la messagerie instantanée, afin de les convaincre d’investir dans des plateformes frauduleuses. Ces investissements impliquent souvent des cryptomonnaies, et les victimes sont attirées par la promesse de rendements élevés. Une fois que les victimes ont investi des sommes importantes, les fraudeurs disparaissent avec leurs fonds.

En Catalogne comme dans le reste du monde, l’impact des arnaques à l’abattage du cochon n’est pas inconnu. Les Mossos d’Esquadra ont signalé une augmentation des plaintes liées à la fraude à l’investissement par le biais de contacts établis sur les réseaux sociaux ou sur des applications de messagerie instantanée. Les victimes, qui sont souvent des personnes vulnérables ou seules, sont séduites par des fraudeurs qui opèrent depuis l’étranger, mais qui utilisent des outils numériques et linguistiques pour se faire passer pour des locaux. La trace numérique de ces crimes rend souvent les enquêtes plus difficiles, d’où la nécessité de renforcer la coopération internationale et la formation en technologie des forces de l’ordre catalanes.

Qui se cache derrière ces arnaques ?

Une grande partie de ces opérations sont menées par des organisations criminelles transnationales qui opèrent à partir de réseaux de fraude basés en Asie du Sud-Est. Ces réseaux ont souvent recours au travail forcé, les victimes de traite des êtres humains étant contraintes de participer à des activités frauduleuses sous la menace. Ces opérations se sont multipliées dans des pays tels que le Myanmar, le Cambodge, le Laos et les Philippines, profitant de l’absence de contrôle gouvernemental et de la corruption locale. 

L’approche de Meta pour lutter contre ces arnaques

Meta a pris un certain nombre de mesures pour résoudre ce problème :

  • Politique en matière d’organismes et d’individus dangereux : dans le cadre de cette politique, Meta désigne ces organisations criminelles comme dangereuses, les bannit de ses plateformes et met en œuvre des outils visant à détecter et à supprimer les contenus qui y sont associés.
  • Collaboration avec les autorités : Meta travaille en étroite collaboration avec les forces de l’ordre du monde entier afin de partager des informations sur ces opérations criminelles, de faciliter les enquêtes et de contribuer aux poursuites judiciaires à l’encontre des responsables.
  • Coopération avec d’autres entreprises technologiques : Meta collabore avec d’autres entreprises du secteur afin de partager des informations sur les menaces et d’élaborer des stratégies communes pour lutter contre ces arnaques. Par exemple, Meta a collaboré avec OpenAI afin de détecter et de perturber les activités frauduleuses qui utilisent l’intelligence artificielle pour générer des contenus trompeurs. 

Comment se protéger contre ces arnaques

Dans ce contexte, il est essentiel que les institutions publiques et le secteur privé travaillent ensemble pour promouvoir la cybersécurité et la sensibilisation des citoyens de Catalogne. Les campagnes de sensibilisation numérique, la formation dans les écoles et les services d’aide aux victimes sont des outils essentiels pour faire face à une menace qui combine manipulation émotionnelle et ingénierie financière. Il est également nécessaire de dénoncer et de rendre visible la façon dont ces réseaux de fraude internationaux opèrent en toute impunité grâce à l’absence de réglementation dans l’environnement numérique mondial.

Le public doit être conscient des tactiques utilisées dans le cadre des arnaques à l’abattage du cochon et prendre des mesures pour s’en protéger :

  • Méfiez-vous des messages non sollicités : si vous recevez des messages de la part d’inconnus sur les réseaux sociaux, sur des applications de rencontre ou via la messagerie instantanée, faites preuve de prudence et évitez de partager des informations personnelles ou financières avec eux.
  • Vérifiez les opportunités d’investissement : avant d’investir de l’argent, il est conseillé de faire des recherches approfondies sur la plateforme ou l’opportunité d’investissement. Méfiez-vous des promesses de rendements élevés avec peu de risques.
  • Ne transférez pas d’argent à des personnes que vous ne connaissez pas personnellement : évitez d’envoyer de l’argent ou des informations financières à des personnes que vous avez uniquement rencontrées en ligne.
  • Utilisez des outils de sécurité en ligne : maintenez vos appareils à jour et utilisez un logiciel de sécurité pour vous protéger contre les menaces potentielles.

_____

Aquest apunt en català / Esta entrada en español / This post in English

Comment garantir que l’IA est utilisée de manière éthique dans la police

L’intelligence artificielle (IA) offrant de plus en plus de possibilités de gagner du temps et de réduire les coûts associés à certaines activités de police, l’élan en faveur d’une utilisation plus large de cette technologie est considérable.

Dans le dernier article d’une série consacrée à l’IA dans la police, Matt Palmer, responsable des produits de sécurité publique chez NEC Software Solutions, passe en revue les principales façons de garantir que cette technologie est utilisée de manière éthique et transparente.

L’intelligence artificielle (IA) fait déjà partie intégrante des outils de la police. En effet, les services de police utilisent de plus en plus les technologies basées sur l’IA pour gagner du temps, définir des priorités et gagner en efficacité.

En traitant d’importants volumes de données beaucoup plus rapidement qu’un être humain ne pourrait le faire, l’IA a commencé à faire une réelle différence pour la police. Elle remplit déjà certaines fonctions de police essentielles, telles que la classification des appels entrants en temps réel et l’automatisation des tâches d’assurance qualité pour les données.

Il y a également de plus en plus de situations dans lesquelles l’IA peut aider les agents de police à prendre des décisions en prédisant les résultats sur la base de modèles. À noter par exemple l’utilisation du machine learning sous supervision pour évaluer des facteurs tels que la probabilité qu’une personne commette un délit, récidive ou devienne une victime, ces exemples faisant partie des plus controversés aux yeux de la société.

Alors que le secteur de la police intensifie son utilisation de l’IA, le public est de plus en plus conscient des risques que cette technologie peut présenter lorsqu’elle est utilisée pour prendre des décisions personnelles importantes. Il est donc essentiel d’établir des approches dans lesquelles la police utilise l’IA selon des normes éthiques strictes.

L’une des principales inquiétudes vis-à-vis de l’utilisation de l’IA dans la police est sans doute le risque de partialité et de discrimination. Tous les systèmes d’IA apprennent de données d’entraînement initiales, et ces données sont intégrées aux modèles d’IA et influenceront la prise de décisions basées sur l’IA, même si elles sont biaisées.

Si les outils prédictifs sont entraînés à partir de données historiques d’arrestations, dans lesquelles il existe inévitablement des biais humains, les algorithmes reproduiront des schémas discriminatoires, tels que le profilage racial et le ciblage des communautés minoritaires.

Pour éviter que ces biais n’infectent les modèles d’IA, les développeurs doivent utiliser des ensembles de données diversifiés et représentatifs pour entraîner les systèmes d’IA, puis les tester en permanence afin de détecter les schémas discriminatoires.

L’IA jouera un rôle de plus en plus important dans le maintien de l’ordre. Mais pour que ce rôle soit exercé de manière éthique et responsable, le dernier mot dans toute décision doit revenir à l’intelligence humaine, et non pas à l’intelligence artificielle.

Le problème des systèmes d’IA est qu’ils ne sont pas infaillibles. Ils peuvent produire des faux positifs, par exemple en accusant à tort des innocents. De la même manière, ils peuvent produire des faux négatifs et ne pas identifier les véritables délinquants. Sans jugement humain, l’IA pourrait entraîner de graves erreurs judiciaires.

_____

Aquest apunt en català / Esta entrada en español / This post in English

Repenser la légitimité de la police avec un regard queer

Le chercheur Ben Scott, en collaboration avec la Dr Naomi Pfitzner et avec Kate Fitz-Gibbon, professeure à l’université Monash, en Australie, ont publié une étude qui invite à réfléchir sur la légitimité de la police pour les groupes traditionnellement marginalisés. L’article, intitulé Spatial, Temporal, and Visible: Queer People’s Perceptions of Police Legitimacy, propose une « queerisation » (queering) des théories traditionnelles sur la légitimité de la police : une remise en question critique de leur fondement et de leur applicabilité au-delà des contextes cishétéronormatifs.

L’étude part d’un constat clair : les personnes queer (gays, lesbiennes, bisexuels et bisexuelles, trans et autres identités non normatives) ont souvent été reléguées à la périphérie de la criminologie, mentionnées de manière anecdotique en raison d’un supposé « manque de données ». Pour lutter contre cette invisibilisation, l’équipe a interrogé près de 150 personnes queer dans l’État de Victoria, en Australie, dans l’optique d’analyser leur perception de la légitimité de la police.

Les résultats, qui combinent des données quantitatives et des réponses qualitatives, révèlent un certain nombre de tensions : la plupart des personnes interrogées reconnaissent l’autorité formelle de la police et l’obligation d’obéir aux lois, mais cette obéissance ne provient pas de l’approbation des normes ou des valeurs de la police : elle est liée à un sentiment d’obligation sociale, de peur ou d’inertie.

L’une des contributions les plus pertinentes de l’étude a été l’insistance sur la nature contextuelle de la légitimité de la police, qui dépend non seulement de l’espace et du temps, mais aussi du contexte historique et de la visibilité identitaire. Les personnes les plus informées sur l’histoire des conflits entre la police de Victoria et la communauté queer (tels que les descentes dans les boîtes de nuit et la délation dans les médias) se sont montrées beaucoup plus méfiantes à l’égard de l’institution policière.

Le rôle de la visibilité des personnes queer est un autre aspect important qui a été soulevé dans l’étude. En effet, les expériences des personnes interrogées diffèrent selon la manière dont elles sont perçues par les agents : les personnes qui « passent » pour cishétérosexuelles ont généralement signalé moins d’interactions négatives, tandis que celles dont l’expression de genre ou l’orientation sexuelle est plus visible ont fait état d’expériences discriminatoires ou hostiles.

La relation entre la police et les groupes LGBTIQ+ a toujours été complexe, tant en Catalogne que dans de nombreux autres endroits du monde. Cette relation renferme souvent un passé marqué par la discrimination, la violence institutionnelle et une méfiance réciproque.

Bien que cette étude ait été réalisée en Australie, ses conclusions peuvent parfaitement être appliquées à la Catalogne. Malgré les avancées réglementaires, telles que la loi 11/2014 visant à garantir les droits des personnes LGBTI et à éradiquer l’homophobie, la biphobie et la transphobie, il reste encore un long chemin à parcourir pour garantir une relation de confiance entre les forces de l’ordre et la diversité sexuelle et de genre.

Ces dernières années, des efforts ont été faits pour améliorer cette relation, dont la création d’unités spécialisées dans les crimes de haine et une formation sur la diversité au sein des Mossos d’Esquadra. Mais ces initiatives doivent être évaluées de manière critique et continue, en tenant compte des expériences des personnes concernées.

L’étude australienne évoque la nécessité de mettre en place des voies de recours et de soutien alternatives, en particulier pour les groupes qui ne font pas confiance au système policier traditionnel. Cette réflexion devrait nous inspirer à adapter nos services communautaires, nos centres d’aide spécialisés et nos outils de soutien psychologique et juridique aux réalités des personnes LGBTIQ+.

Repenser la légitimité de la police avec un regard queer n’est pas seulement un exercice théorique : c’est un outil visant à mettre en place un système de sécurité plus inclusif, équitable et juste. Pour cela, il est nécessaire d’écouter les voix qui ont souvent été réduites au silence, de reconnaître les blessures du passé et de miser sur une transformation profonde des institutions. Ce n’est qu’ainsi que nous pourrons évoluer vers une société dans laquelle chaque personne, quelle que soit son identité ou son expression de genre, pourra se sentir en sécurité et avoir confiance en la police.

Lien : Spatial, Temporal, and Visible: Queer People’s Perceptions of Police Legitimacy

_____

Aquest apunt en català / Esta entrada en español / This post in English

Les pirates informatiques utilisent des agents IA pour frauder

Les agents IA sont de plus en plus utilisés par les pirates informatiques pour exploiter les comptes bancaires en ligne. D’ici 2027, on estime qu’ils réduiront de 50 % le délai de reprise d’un compte.

Le journaliste Anton Mous en rend compte sur cybernews.com.

C’est aussi la dure réalité que le cabinet de recherche et de conseil américain Gartner décrit dans son dernier rapport, Predicts 2025: Navigating Inminente AI Turbulence for Cybersecurity.

Les agents IA sont en train de se convertir en outils utiles aux attaquants car ils permettent de contourner les protections des comptes en ligne. Par conséquent, les vendeurs devront mettre en place des outils de suivi pour analyser les interactions avec les agents IA. Cela signifie également que les entreprises de cybersécurité devraient accélérer le passage à l’authentification multifactorielle (MFA) sans mot de passe et résistante au phishing.

La prise de contrôle d’un compte reste un vecteur d’attaque persistant car les informations d’authentification faibles, comme les mots de passe, sont collectées par divers moyens, tels que les violations de données, l’hameçonnage, l’ingénierie sociale et les logiciels malveillants. Les attaquants exploitent des bots pour automatiser un barrage de tentatives de connexion à divers services dans l’espoir que les informations d’identification seront réutilisées d’une plateforme à l’autre.

L’ingénierie sociale basée sur la technologie constituera également une menace majeure pour la cybersécurité des entreprises dans un avenir proche, y compris le deepfake audio et vidéo. D’ici 2028, 40 % de toutes les attaques d’ingénierie sociale devraient cibler à la fois les cadres supérieurs et le personnel en général, prédit Gartner.

Gartner note que, bien que peu de cas aient été signalés jusqu’à présent, ceux qui se sont produits ont entraîné des dommages économiques importants pour les parties concernées. Ces incidents doivent donc être considérés comme un signal d’alarme et inciter les entreprises à redoubler d’efforts pour protéger leur environnement numérique.

Les organisations devront se tenir au courant de l’évolution du marché et adapter leurs procédures et leurs flux de travail pour tenter de mieux résister aux attaques qui exploitent les techniques de la réalité falsifiée.

Manuel Acosta, analyste chez Gartner, estime qu’il est essentiel de sensibiliser les employés à l’évolution du paysage des menaces par le biais d’une formation spécifique sur l’ingénierie sociale utilisant le deepfake.

_____

Aquest apunt en català / Esta entrada en español / This post in English

Les réseaux criminels pénètrent les entreprises légales pour renforcer leur contrôle sur l’économie

Europol a présenté il y a quelques semaines son dernier rapport intitulé « Leveraging legitimacy: How the EU’s most threatening criminal networks abuse legal business structures » (Tirer parti de la légitimité : comment les réseaux criminels les plus menaçants de l’UE abusent des structures commerciales légales), qui examine comment les réseaux criminels utilisent frauduleusement des structures commerciales légales afin de renforcer leur pouvoir et ainsi étendre leurs opérations criminelles. Ce document s’appuie sur l’étude d’Europol d’avril 2024, Decoding the EU’s Most Threatening Criminal Networks (Décoder les réseaux criminels les plus menaçants de l’UE), qui détermine que l’abus de structures commerciales légales est une caractéristique centrale de ces réseaux. À la demande du Conseil Justice et affaires intérieures de l’Union européenne, Europol a procédé à une évaluation détaillée afin de fournir davantage d’informations sur la manière dont ces abus sont commis, sur les raisons qui les motivent et sur les lieux où ils se produisent.

Les principales conclusions du rapport d’Europol portent sur les domaines suivants :

  • Types d’entreprises commerciales les plus susceptibles d’être victimes d’abus ;
  • Activités criminelles organisées rendues possibles par des entreprises légales ;
  • Méthodes utilisées par les criminels pour exploiter ces structures.

Le rapport définit l’abus d’entreprises légales comme un moteur essentiel de la criminalité organisée. Les structures commerciales légales font partie intégrante du blanchiment des produits du crime, de la distorsion de la concurrence économique, du transport des marchandises illicites et de l’extension de l’influence des réseaux criminels. Les entreprises à fortes liquidités sont exploitées pour protéger les activités de blanchiment d’argent, créant ainsi des avantages injustes qui nuisent aux entreprises légitimes.

Les résultats mettent également en évidence la manière dont les réseaux criminels utilisent la corruption pour renforcer leur contrôle sur les communautés locales, en favorisant les dépendances économiques qui mettent les activités illicites à l’abri de l’application de la loi.

Principales conclusions

• Un vecteur de menace commun : 86 % des réseaux criminels les plus menaçants de l’UE exploitent des structures commerciales légales. Les criminels utilisent cet encadrement pour déguiser leurs activités, faciliter le blanchiment d’argent et étendre leurs opérations tout en échappant à l’application de la loi.

• Propriété et infiltration criminelles : l’infiltration à haut niveau ou la propriété directe d’entreprises légales permet aux réseaux criminels de mélanger aisément les activités légitimes et illicites. Certaines entreprises sont créées exclusivement pour servir de façade à des opérations criminelles, tandis que d’autres sont acquises pour servir des objectifs criminels à long terme.

• Abus transfrontière : bien que l’abus de structures commerciales légales soit un phénomène mondial, la majorité des entreprises exploitées ou infiltrées utilisées par les réseaux criminels de l’UE (70 %) opèrent au sein de l’UE ou dans les pays voisins. Toutefois, une part importante des réseaux criminels de l’UE est impliquée dans des structures juridiques situées ailleurs dans le monde. Près de 80 pays à travers le monde comptent des structures commerciales légales infiltrées par des criminels.

• Menaces internes : les réseaux criminels exploitent de plus en plus les employés, les cadres ou les dirigeants en poste dans des lieux légitimes pour obtenir un accès, des connaissances et une influence sur les opérations.

• Facilitation de délits variés : les entreprises contrôlées par des criminels servent souvent plusieurs réseaux simultanément, ce qui permet diverses formes de criminalité grave et organisée.

Les résultats serviront de base aux futures activités opérationnelles mais aussi comme input aux discussions sur les mesures administratives et préventives.

_____
Aquest apunt en català / Esta entrada en español / This post in English

Un danger sans précédent : des bandes criminelles en ligne menacent les adolescents

Un récent rapport de l’Agence nationale britannique de lutte contre la criminalité (NCA) a mis en évidence une menace croissante et alarmante : les bandes criminelles en ligne qui exploitent et abusent des enfants. Ces groupes, qui opèrent dans l’anonymat sur Internet, représentent un « risque sans précédent » pour les adolescents, selon la NCA.

Le rapport souligne que les bandes criminelles en ligne sont devenues plus sophistiquées dans leurs méthodes d’exploitation. Elles utilisent diverses plateformes de réseaux sociaux et applications de messagerie pour contacter les enfants, gagner leur confiance pour finalement abuser d’eux. Ces bandes peuvent être composées d’individus originaires de différentes parties du monde, ce qui les rend difficiles à identifier et à poursuivre.

Quelles sont ces bandes criminelles ?

Ces bandes sont composées d’individus qui se délectent de la torture et de l’humiliation d’autres personnes, en particulier d’adolescents vulnérables. Elles utilisent des plateformes en ligne, des forums et des réseaux sociaux pour se connecter, partager des contenus abusifs et coordonner des attaques.

Ces bandes ne sont pas simplement des groupes de trolls ou de cyberharceleurs. Il s’agit d’organisations structurées, avec des hiérarchies et des rôles définis, qui pratiquent la torture psychologique et, dans les cas extrêmes, la torture physique de leurs victimes. Elles utilisent des techniques sophistiquées pour dissimuler leur identité et suivre leurs proies :

  • Anonymat et cryptage : elles utilisent des réseaux TOR, des VPN et d’autres outils pour dissimuler leur adresse IP et leur localisation.
  • Ingénierie sociale : elles manipulent leurs victimes en créant de fausses identités et en établissant des relations de confiance.
  • Partage de matériel abusif : elles échangent des vidéos et des images de torture et d’humiliation, créant ainsi un cercle vicieux de violence et d’abus.
  • Coordination des attaques : elles planifient et exécutent des attaques coordonnées, à la fois en ligne et hors ligne, afin de maximiser les dommages causés à leurs victimes.

Ses activités comprennent :

  • Abus sexuels en ligne : partage et production de matériel pédopornographique.
  • Extrême violence : promotion et incitation à des actes de violence physique et psychologique.
  • Humiliation publique : exposition et diffusion de contenus humiliants pour les victimes.
  • Extorsion et chantage : menaces pour obtenir de l’argent ou du matériel compromis.

Ampleur du problème

Le rapport de la NCA révèle que ces bandes sont en augmentation et que leur sophistication et leur portée s’accroissent. La pandémie de COVID-19 a exacerbé le problème, car les adolescents ont passé plus de temps sur Internet, ce qui les a rendus plus vulnérables à ces prédateurs.

Les conséquences sont les suivantes :

  • Traumatisme psychologique : anxiété, dépression, stress post-traumatique et pensées suicidaires.
  • Isolement social : honte, peur et méfiance qui entravent les relations sociales.
  • Difficultés scolaires : problèmes de concentration et mauvais résultats scolaires.
  • Abus de substances : ils tentent de soulager la douleur émotionnelle par l’alcool et les drogues.
  • Automutilation : comme mécanisme d’adaptation à la douleur émotionnelle.

La NCA collabore avec d’autres services répressifs et des organisations internationales pour lutter contre cette menace. Des stratégies sont mises en œuvre pour améliorer la détection et la poursuite de ces groupes, ainsi que pour éduquer les enfants et leurs familles sur les risques et la manière de se protéger.

Ressources utiles

_____

Aquest apunt en català / Esta entrada en español / This post in English

Les cinq grands défis de la sécurité face à l’intelligence artificielle générative

En février dernier, l’organisation de recherche RAND a publié un rapport rédigé par Jim Mitre et Joel B. Predd, dans lequel ils alertent sur le fait que l’émergence de l’intelligence artificielle générative (IAG) est une réelle possibilité que la communauté de la sécurité nationale des États-Unis devrait prendre au sérieux.

Le rapport identifie cinq défis majeurs que l’intelligence artificielle générative peut poser à la sécurité nationale des États-Unis : (1) le développement d’armes révolutionnaires, (2) des changements systémiques dans l’équilibre des pouvoirs, (3) la capacité de non-experts à créer des armes de destruction massive, (4) l’émergence d’entités artificielles dotées d’un pouvoir propre, et (5) une instabilité généralisée.

Tout cela pose un certain nombre de défis aux stratèges ainsi qu’aux responsables politiques et sécurité qui tentent d’anticiper les menaces et les opportunités qui pourraient survenir à la fois au cours du processus de réalisation de l’IAG puis une fois qu’elle se sera concrétisée.

Un nouveau projet Manhattan technologique ?

En 1938, la fission de l’atome a donné le coup d’envoi à la course au nucléaire. Aujourd’hui, les progrès de l’intelligence artificielle générative suscitent des craintes similaires dans le domaine de la sécurité nationale. S’agira-t-il du prochain changement de paradigme stratégique ? Dans l’affirmative, quelles sont les menaces qu’elle fait peser sur la sécurité mondiale ?

Bien que l’IAG ne soit encore qu’une hypothèse, sa plausibilité exige une réponse stratégique de la part des États. L’étude RAND identifie cinq questions majeures qui pourraient émerger avec le développement de l’IAG :

  • Armes miracles et avantage du premier mouvement

La grande crainte est qu’une IAG ne découvre une percée technologique révolutionnaire, permettant le développement de cyber-armes imparables, de systèmes autonomes hyper-avancés ou de stratégies militaires parfaitement optimisées. Cela pourrait conférer un avantage considérable à la première nation qui la contrôlerait.

  • Changement systémique du pouvoir mondial

L’IAG pourrait modifier l’équilibre des pouvoirs entre les nations, non pas nécessairement par le biais des armes, mais par sa capacité à améliorer la productivité, à accélérer les découvertes scientifiques ou à redéfinir la dynamique économique mondiale. Cela pourrait conduire à un nouvel ordre mondial dans lequel les économies les plus adaptables à l’IAG consolideraient leur domination.

Un risque supplémentaire est la concentration du développement des IAG dans quelques entreprises privées qui pourrait leur donner un pouvoir sans précédent, modifiant la relation traditionnelle entre les États et les entreprises.

  • Habilitation des non-experts en armes de destruction massive

Si l’IAG peut faciliter la création d’armes biologiques ou cybernétiques hautement létales, la sécurité mondiale sera gravement compromise. Les systèmes existants ont déjà démontré des capacités inquiétantes dans ce domaine, et l’IAG pourrait amplifier le risque de manière exponentielle.

  • Entités artificielles autonomes

La perte de contrôle des systèmes IAG pourrait conduire à la création d’entités artificielles autonomes capables d’agir de manière indépendante. Cela pourrait constituer un risque pour la prise de décisions critiques dans des secteurs tels que la défense, l’économie et la gestion des infrastructures critiques.

  • Instabilité stratégique

Avant que l’IAG ne soit pleinement opérationnelle, la course à la technologie entre les États et les entreprises pourrait provoquer des tensions semblables à celles de la Guerre froide. La perception qu’un adversaire est sur le point d’obtenir un avantage décisif pourrait déclencher des réactions préventives, y compris un conflit armé.

Vers une stratégie de résilience

Les États-Unis et leurs alliés ont pris des mesures pour maintenir leur leadership dans le domaine de l’IA, mais celles-ci pourraient s’avérer insuffisantes si l’IAG se développe de manière soudaine ou perturbatrice.

L’IAG peut redéfinir l’avenir de la sécurité mondiale. Il ne s’agit pas seulement d’un défi technique, mais d’une révolution stratégique qui exige une réponse intelligente et proactive. Les décisions d’aujourd’hui détermineront si l’IAG devient une force stabilisatrice ou une menace sans précédent pour l’humanité.

LIEN : https://www.rand.org/pubs/perspectives/PEA3691-4.html??cutoff=true&utm_source=AdaptiveMailer&utm_medium=email&utm_campaign=7014N000001Snj1QAC&utm_term=00v4N00000X46iFQAR&org=1674&lvl=100&ite=2950 a0wQK00000AqgobYAB

_____

Aquest apunt en català / Esta entrada en español / This post in English

Intelligence artificielle et biosécurité : une arme à double tranchant

L’intelligence artificielle (IA) transforme de nombreux domaines et la biotechnologie n’en fait pas exception. Un rapport récent des Académies nationales des sciences, de l’ingénierie et de la médecine des États-Unis souligne le potentiel de l’IA pour améliorer la biosécurité, mais met également en garde contre les risques d’une mauvaise utilisation.

Le potentiel bénéfique de l’IA en matière de biosécurité

L’IA peut être un outil puissant pour la santé publique. Les modèles d’IA peuvent analyser de grandes quantités de données pour aider à concevoir des contre-mesures médicales afin de prévenir, de traiter et d’atténuer les menaces pour la santé, comme la découverte de médicaments. Cela peut accélérer le développement de vaccins et de traitements contre les maladies infectieuses, qu’elles soient d’origine naturelle ou provoquées par des actes intentionnels.

Les risques d’une mauvaise utilisation de l’IA en biotechnologie

Toutefois, le rapport avertit également que les outils biologiques basés sur l’IA pourraient être utilisés à des fins nuisibles. Par exemple, l’IA pourrait concevoir de nouveaux agents biologiques à potentiel pandémique ou bien modifier des virus ou des bactéries existants pour les rendre plus nocifs ou plus transmissibles.

Capacités et limites actuelles des outils biologiques basés sur l’IA

Le rapport évalue les capacités actuelles des outils biologiques basés sur l’IA à amplifier les avantages ou les risques liés à l’application d’outils biologiques. Actuellement, aucun outil biologique basé sur l’IA n’est capable de concevoir un virus entièrement nouveau, et ses capacités à modifier un agent infectieux existant avec des conséquences potentielles à l’échelle d’une épidémie ou d’une pandémie sont limitées.

Le rapport examine trois types d’applications nuisibles :

Conception de biomolécules, telles que les toxines : les outils biologiques basés sur l’IA disponibles peuvent concevoir et reconcevoir des toxines en utilisant différents acides aminés. Toutefois, l’ampleur des menaces potentielles serait probablement limitée au niveau local.

Modification d’agents pathogènes existants pour les rendre plus virulents : les outils biologiques basés sur l’IA peuvent façonner des caractéristiques très spécifiques permettant de prédire les traits liés à la virulence.

Conception d’un virus entièrement nouveau : aucun outil biologique basé sur l’IA actuellement disponible n’a la capacité de concevoir un nouveau virus.

Recommandations en matière de biosécurité à l’ère de l’IA

Le rapport propose un certain nombre de recommandations pour limiter les risques d’utilisation abusive de l’IA dans le domaine de la biotechnologie :

  • Suivi et évaluation continue : les agences gouvernementales devraient évaluer et atténuer en permanence les risques d’utilisation abusive des outils biologiques basés sur l’IA.
  • Collecte de données stratégiques : compte tenu de l’importance des données pour l’entraînement des modèles d’IA, le rapport préconise la collecte stratégique d’ensembles de données biologiques prêts pour l’IA.
  • Investissement dans l’infrastructure de données : la création de nouvelles ressources nationales de données et d’autres formes d’infrastructure pour soutenir l’IA devrait être une priorité de recherche pour les États-Unis afin de maintenir la compétitivité et l’innovation scientifique.
  • Investissement dans la recherche et le développement : les ministères de la défense, de la santé et des services sociaux, de l’énergie et d’autres agences fédérales des États-Unis devraient continuer à investir dans la recherche, l’infrastructure de données et le calcul à haute performance pour favoriser les progrès de l’IA et également contrôler les risques potentiels.

Conclusion

L’IA offre un potentiel considérable pour améliorer la biosécurité et nous protéger des menaces biologiques. Toutefois, il est essentiel d’être conscient des risques d’abus et de prendre des mesures proactives pour les atténuer. Grâce à une surveillance continue, à la collecte de données stratégiques, à l’investissement dans les infrastructures et également à la recherche et au développement, nous pouvons exploiter la puissance de l’IA pour rendre le monde plus sûr.

Lien : https://www.nationalacademies.org/news/2025/03/ai-tools-can-enhance-u-s-biosecurity-monitoring-and-mitigation-will-be-needed-to-protect-against-misuse

_____

Aquest apunt en català / Esta entrada en español / This post in English

Situation de la cybersécurité dans l’Union européenne

Le document est un rapport de l’ENISA sur l’état de la cybersécurité dans l’Union européenne en 2024. Élaboré en collaboration avec le Groupe de coopération SRI et la Commission européenne, ce rapport basé sur des données offre une vue d’ensemble de la cybersécurité au niveau de l’UE, au niveau national et au niveau de la société.

Les sujets qui y sont abordés comprennent les cybermenaces, les capacités de cybersécurité, la gestion des cybercrises, la sécurité de la chaîne d’approvisionnement, la sensibilisation à la cybersécurité et les compétences en la matière.

Le rapport comprend également des recommandations de politiques visant à améliorer la cybersécurité dans l’UE, telles que le renforcement du soutien technique et financier, la révision du plan d’intervention coordonnée de l’UE et une réponse au manque de compétences en matière de cybersécurité.

Les recommandations de politiques visant à améliorer la cybersécurité dans l’Union européenne qui y sont mentionnées sont les suivantes :

1. Renforcer le soutien technique et financier : fournir plus de soutien technique et financier aux autorités compétentes et aux entités relevant du champ d’application de la directive NIS2, afin de garantir une mise en œuvre harmonisée et cohérente du cadre politique de l’UE en matière de cybersécurité.

2. Réviser le plan d’intervention coordonnée de l’UE : réviser le plan d’intervention coordonnée pour les cyberincidents de grande ampleur, en tenant compte des dernières mises à jour des politiques de l’UE en matière de cybersécurité, afin de promouvoir l’harmonisation et l’optimisation de la cybersécurité et de renforcer les capacités nationales et de l’UE.

3. Renforcer les effectifs de l’UE dans le domaine de la cybernétique : mettre en place l’Académie européenne des compétences en matière de cybersécurité, établir une approche commune en matière de formation à la cybersécurité dans l’UE, identifier les besoins de compétences futurs et élaborer un système de certification européen pour les compétences en cybersécurité.

4. Aborder la sécurité de la chaîne d’approvisionnement : procéder à des évaluations coordonnées des risques au niveau de l’UE et élaborer un cadre politique horizontal pour la sécurité de la chaîne d’approvisionnement, en mettant l’accent sur les défis de la cybersécurité dans les secteurs public et privé.

5. Promouvoir une approche unifiée : s’appuyer sur les initiatives politiques existantes et harmoniser les efforts nationaux pour atteindre un niveau élevé et commun de sensibilisation à la cybersécurité et à la cyberhygiène parmi les professionnels et les citoyens, quelles que soient leurs caractéristiques démographiques.

_____

Aquest apunt en català / Esta entrada en español / This post in English