Deux nouvelles études révèlent la façon dont l’intelligence artificielle peut être utilisée pour favoriser la violence sexiste et les abus sexuels

La chercheuse Clare McGlynn, experte en violence à l’égard des femmes et des filles, alerte que la dernière génération de chatbots d’intelligence artificielle donne lieu à de nouvelles formes d’abus à une échelle et avec une intensité préoccupantes. Bien qu’il existait déjà un lien entre la technologie et la violence sexiste, notamment avec les deepfakes sexuels et la violence par les images, McGlynn considère que les chatbots représentent un changement qualitatif. Sa recherche documente la façon dont ces outils, souvent accessibles gratuitement, permettent de simuler des scénarios de viol, d’inceste et d’abus sexuels sur des enfants, ainsi que d’autres formes de violence sexiste.

Comme l’indique Patricia Clarke sur observer.co.uk, ce rapport coïncide avec une enquête de l’Internet Watch Foundation (IWF), qui dénonce une croissance rapide des contenus pédopornographiques générés par l’IA. Les données sont particulièrement alarmantes : en 2025, des milliers de vidéos générées par l’IA ont été identifiées, une augmentation exponentielle par rapport à l’année précédente. De plus, une fraction importante de ce contenu est considérée comme extrêmement grave. Dans ce type de contenu, la grande majorité des victimes sont des filles, ce qui met en évidence une claire disparité de genre dans les préjudices subis.

Les rapports coïncident sur le fait que le problème n’est pas seulement l’utilisation abusive de la technologie, mais aussi la façon dont les plateformes sont conçues. Lorsque les entreprises donnent la priorité à la croissance et à l’acquisition d’utilisateurs au détriment de la sécurité, elles créent des environnements qui facilitent les abus. Les modèles d’IA open source sont un facteur de risque important, car n’importe qui peut les télécharger, les modifier et supprimer leurs sauvegardes. Cette accessibilité a été saluée dans des forums du dark web, certains utilisateurs voyant l’IA comme un outil qui leur permet de matérialiser des fantasmes illégaux avec un haut degré de réalisme.

L’un des domaines les plus préoccupants est celui des applications de jeu de rôle et de compagnons, dans lesquelles les chatbots agissent comme des interlocuteurs fictifs. Des plateformes comptant des millions d’utilisateurs permettent de créer des personnages pouvant représenter des situations abusives ou sexualisées, y compris impliquant des mineurs. Le manque de contrôle efficace sur ces contenus et la facilité avec laquelle il est possible d’y accéder amplifient les risques, en particulier pour les jeunes.

McGlynn appelle ce phénomène la « violence simulée par chatbot » et souligne qu’il s’agit d’un problème encore peu visible dans la recherche académique. Malgré l’abondance d’études sur la sécurité de l’IA, les analyses axées sur le genre restent insuffisantes. Cette invisibilité peut contribuer à perpétuer des risques systémiques au fur et à mesure que la technologie évolue.

En ce qui concerne la réglementation, les experts estiment que la réponse actuelle est insuffisante et fragmentée. Certaines mesures, comme la restriction de l’accès à certaines applications, ou même leur interdiction dans certains pays, sont considérées comme limitées, car elles ne s’attaquent pas au problème structurel : la façon dont les plateformes sont conçues. Dans ce contexte, McGlynn propose que le « déploiement dangereux de chatbots d’IA » soit considéré comme un délit afin de responsabiliser les entreprises qui ne mettent pas en place des mesures adéquates de prévention des dommages.

Selon l’IWF, la sécurité dès la conception, qui comprend des tests avant le lancement et des mécanismes d’audit indépendants, doit devenir la norme. Des mouvements se produisent également dans le domaine politique : au Royaume-Uni, la Chambre des lords a proposé d’introduire des responsabilités pénales pour les fournisseurs de chatbots jugés non sécurisés, et il existe une possibilité que ces services soient inclus dans la loi sur la sécurité en ligne. Les critiques soulignent toutefois qu’il manque encore un organisme de réglementation spécifique et des obligations claires pour garantir la sécurité avant que les produits n’atteignent le public.

Pour conclure, les rapports mettent en avant une tension croissante entre l’innovation technologique et la protection des droits fondamentaux. Sans interventions plus fermes, il existe un risque que l’IA reflète, voire amplifie les formes de violence existantes, en particulier à l’égard des femmes et des filles. Pour les professionnels de la sécurité, cela implique le besoin d’adopter une approche proactive axée sur la prévention, la responsabilité et la conception éthique des technologies émergentes.

_____

Aquest apunt en català / Esta entrada en español / This post in English

Two new studies reveal how artificial intelligence can be used to promote gender-based violence and sexual abuse

Researcher Clare McGlynn, an expert in violence against women and girls, warns that the latest generation of artificial intelligence chatbots is facilitating new forms of abuse with concerning scale and intensity. Although the relationship between technology and gender-based violence is not new—including sexual deepfakes or image-based abuse—McGlynn believes that chatbots represent a qualitative change. Her research documents how these tools, often available for free, allow users to simulate scenarios of rape, incest, and child sexual abuse, as well as other forms of gender-based violence.

As reported by Patricia Clarke on observer.co.uk, this report coincides with an investigation by the Internet Watch Foundation (IWF), which highlights a rapid increase in child sexual abuse material generated by AI. The data is particularly alarming: in 2025, thousands of AI-generated videos were identified, with an exponential increase compared to the previous year. In addition, a significant proportion of this content is classified at the highest levels of severity. Girls represent the vast majority of victims in this type of material, which evidences a clear gender bias in the harm caused.

Reports agree that the problem is not only the misuse of technology but also the design decisions of the platforms. When companies prioritise growth and user acquisition over security, they create environments that facilitate abuse. In particular, open-source AI models are highlighted as a risk factor, as any user can download them, modify them, and remove their safeguards. This accessibility has been celebrated in dark web forums, where some users see AI as a tool to materialise illegal fantasies with a high degree of realism.

One of the most concerning areas is that of role-playing applications and companies, where chatbots act as fictional interlocutors. Platforms with millions of users allow for the creation of characters that can represent abusive or sexualised situations, including minors. The lack of effective control over this content and the ease of access to it amplify the risks, especially for young users.

McGlynn defines this phenomenon as “chatbot-simulated violence” and emphasises that it is a problem that is still very scarcely visible in academic research. Despite the abundance of studies on AI security, there is a significant lack of analysis focused on gender impact. This invisibility may contribute to perpetuating systemic risks as technology evolves.

In terms of regulation, experts believe that the current response is insufficient and fragmented. Some measures, such as restricting access to certain applications or prohibiting them in certain countries, are seen as limited steps that do not address the structural problem: the very design of the platforms. In this context, McGlynn proposes the creation of a new criminal offence for the “dangerous deployment of AI chatbots”, which would hold companies accountable for not implementing adequate harm prevention measures.

At the same time, the IWF demands that security by design become a mandatory standard, including pre-launch testing and independent audit mechanisms. Political movements are also taking place: in the United Kingdom, the House of Lords has proposed introducing criminal liabilities for providers of unsafe chatbots, and there are plans to include these services within online safety legislation. However, critics point out that there is still a lack of a specific regulator and clear obligations to ensure safety before products reach the public.

Ultimately, the reports reveal a growing tension between technological innovation and the protection of fundamental rights. Without more forceful interventions, there is a risk that AI will not only reflect but also amplify existing forms of violence, especially against women and girls. For security professionals, this implies the need to adopt a proactive approach based on prevention, responsibility, and the ethical design of emerging technologies.

_____

Aquest apunt en català / Esta entrada en español / Post en français

Dos nuevos estudios revelan que la inteligencia artificial se puede utilizar para fomentar la violencia de género y el abuso sexual

La investigadora Clare McGlynn, experta en violencia contra mujeres y niñas, alerta de que la última generación de chatbots de inteligencia artificial (IA) está facilitando nuevas formas de abuso de una escala e intensidad preocupantes. Aunque la relación entre tecnología y violencia de género no es nueva —tenemos, por ejemplo, los deep fake sexuales o el abuso basado en imágenes—, McGlynn considera que los chatbots representan un cambio cualitativo. Su investigación documenta que estas herramientas, a menudo accesibles de manera gratuita, permiten a los usuarios simular escenarios de violación, incesto y abuso sexual infantil, así como otras formas de violencia de género.

Tal como informa Patricia Clarke en observer.co.uk, este informe coincide con una investigación de la Internet Watch Foundation (IWF), que denuncia un crecimiento rápido del material de abuso sexual infantil generado por IA. Los datos son especialmente alarmantes: en el 2025 se identificaron miles de vídeos generados por IA, con un incremento exponencial respecto del año anterior. Además, una proporción significativa de este contenido se clasifica en los niveles más extremos de gravedad. Las niñas representan la inmensa mayoría de las víctimas, lo que evidencia un claro sesgo de género en los daños producidos.

Los informes coinciden en señalar que el problema no es solo el uso indebido de la tecnología, sino también las decisiones de diseño de las plataformas. Cuando las empresas priorizan el crecimiento y la captación de usuarios por encima de la seguridad, crean entornos que facilitan el abuso. En particular, los modelos de IA de código abierto son un factor de riesgo, ya que cualquier usuario puede descargarlos, modificarlos y eliminar las salvaguardias. Esta accesibilidad ha sido celebrada en foros de la web oscura (dark web), en la que algunos usuarios ven la IA como una herramienta para materializar fantasías ilegales con un alto grado de realismo.

Uno de los ámbitos más preocupantes es el de las aplicaciones de rol y compañía, en la que los chatbots de conversación actúan como interlocutores ficticios. Plataformas con millones de usuarios permiten crear personajes que pueden representar situaciones abusivas o sexualizadas, incluyendo menores. La falta de control efectivo sobre estos contenidos y la facilidad para acceder a ellos amplifican sus riesgos, especialmente para usuarios jóvenes. 

McGlynn define este fenómeno como “violencia simulada por chatbots” y destaca que es un problema todavía poco visible en la investigación académica. A pesar de la abundancia de estudios sobre seguridad en IA, hay una falta significativa de análisis centrado en el impacto de género. Esta invisibilidad puede contribuir a perpetuar riesgos sistémicos a medida que la tecnología evoluciona.

Con respecto a la regulación, los expertos consideran que la respuesta actual es insuficiente y fragmentada. Algunas medidas, como restringir el acceso a determinadas aplicaciones o prohibirlas en ciertos países, se consideran pasos limitados que no abordan el problema estructural: el propio diseño de las plataformas. En este contexto, McGlynn propone crear un nuevo delito penal para el despliegue peligroso de chatbots de IA, que responsabilice a las empresas de que no implementen medidas adecuadas para prevenir sus daños. Paralelamente, la IWF reclama que la seguridad por diseño se convierta en un estándar obligatorio, que incluya pruebas previas al lanzamiento y mecanismos de auditoría independientes.

También se están produciendo movimientos en el ámbito político: en el Reino Unido, la Cámara de los Lores ha propuesto introducir responsabilidades penales para los proveedores de chatbots inseguros, y se plantea incluir estos servicios dentro de la legislación de seguridad en línea. No obstante, los críticos señalan que todavía falta un regulador específico y obligaciones claras que garanticen la seguridad antes de que los productos lleguen al público.

En definitiva, los informes ponen de manifiesto una tensión creciente entre la innovación tecnológica y la protección de los derechos fundamentales. Sin intervenciones más contundentes, está el riesgo de que la IA no solo refleje formas de violencia existentes, especialmente contra mujeres y niñas, sino que también las amplifique. Para los profesionales de la seguridad, esto implica la necesidad de adoptar un enfoque proactivo, basado en la prevención, la responsabilidad y el diseño ético de las tecnologías emergentes.

_____

Aquest apunt en català / This post in English / Post en français

Dos nous estudis revelen que la intel·ligència artificial es pot utilitzar per fomentar la violència de gènere i l’abús sexual

La investigadora Clare McGlynn, experta en violència contra les dones i nenes, alerta que l’última generació de bots de conversa (chatbot) d’intel·ligència artificial (IA) està facilitant noves formes d’abús d’una escala i intensitat preocupants. Tot i que la relació entre tecnologia i violència de gènere no és nova —tenim, per exemple, els hipertrucatges (deepfakes) sexuals o l’abús basat en imatges—, McGlynn considera que els bots de conversa representen un canvi qualitatiu. La seva recerca documenta que aquestes eines, sovint accessibles de manera gratuïta, permeten als usuaris simular escenaris de violació, incest i abús sexual infantil, així com altres formes de violència de gènere.

Tal com informa Patricia Clarke a observer.co.uk, aquest informe coincideix amb una investigació de la Internet Watch Foundation (IWF), que denuncia un creixement ràpid del material d’abús sexual infantil generat per IA. Les dades són especialment alarmants: el 2025 es van identificar milers de vídeos generats per IA, amb un increment exponencial respecte de l’any anterior. A més, una proporció significativa d’aquest contingut es classifica en els nivells més extrems de gravetat. Les nenes representen la immensa majoria de les víctimes, fet que evidencia un clar biaix de gènere en els danys produïts.

Els informes coincideixen a assenyalar que el problema no és només l’ús indegut de la tecnologia, sinó també les decisions de disseny de les plataformes. Quan les empreses prioritzen el creixement i la captació d’usuaris per sobre de la seguretat, creen entorns que faciliten l’abús. En particular, els models d’IA de codi obert són un factor de risc, ja que qualsevol usuari pot descarregar-los, modificar-los i eliminar-ne les salvaguardes. Aquesta accessibilitat ha estat celebrada en fòrums del web fosc (dark web), en què alguns usuaris veuen la IA com una eina per materialitzar fantasies il·legals amb un alt grau de realisme.

Un dels àmbits més preocupants és el de les aplicacions de rol i companyia, en què els bots de conversa actuen com a interlocutors ficticis. Plataformes amb milions d’usuaris permeten crear personatges que poden representar situacions abusives o sexualitzades, incloent-hi menors. La manca de control efectiu sobre aquests continguts i la facilitat per accedir-hi amplifiquen els riscos, especialment per a usuaris joves. 

McGlynn defineix aquest fenomen com a “violència simulada per bots de conversa” i destaca que és un problema encara poc visible en la recerca acadèmica. Malgrat l’abundància d’estudis sobre seguretat en IA, hi ha una manca significativa d’anàlisi centrada en l’impacte de gènere. Aquesta invisibilitat pot contribuir a perpetuar riscos sistèmics a mesura que la tecnologia evoluciona.

Pel que fa a la regulació, els experts consideren que la resposta actual és insuficient i fragmentada. Algunes mesures, com ara restringir l’accés a determinades aplicacions o prohibir-les en certs països, es consideren passos limitats que no aborden el problema estructural: el disseny mateix de les plataformes. En aquest context, McGlynn proposa crear un nou delicte penal per al desplegament perillós de bots de conversa d’IA, que responsabilitzi les empreses que no implementin mesures adequades per prevenir-ne els danys.

Paral·lelament, la IWF reclama que la seguretat per disseny esdevingui un estàndard obligatori, que inclogui proves prèvies al llançament i mecanismes d’auditoria independents. També s’estan produint moviments en l’àmbit polític: al Regne Unit, la Cambra dels Lords ha proposat introduir responsabilitats penals per als proveïdors de bots de conversa insegurs, i es planteja incloure aquests serveis dins la legislació de seguretat en línia. No obstant això, els crítics assenyalen que encara manca un regulador específic i obligacions clares que garanteixin la seguretat abans que els productes arribin al públic.

En definitiva, els informes posen de manifest una tensió creixent entre la innovació tecnològica i la protecció dels drets fonamentals. Sense intervencions més contundents, hi ha el risc que la IA no només reflecteixi formes de violència existents, especialment contra les dones i nenes, sinó que també les amplifiqui. Per als professionals de la seguretat, això implica la necessitat d’adoptar un enfocament proactiu, basat en la prevenció, la responsabilitat i el disseny ètic de les tecnologies emergents.

_____

Esta entrada en español / This post in English / Post en français

Le NIST améliore l’analyse des empreintes digitales grâce à de nouvelles données et à un logiciel open source

L’analyse des empreintes digitales est l’un des outils les plus pertinents dans le cadre des enquêtes criminelles. Mais il s’agit aussi d’un processus complexe qui exige une grande précision et expertise. Dans ce contexte, le National Institute of Standards and Technology (NIST) des États-Unis a franchi une étape importante pour moderniser ce domaine : le lancement de nouvelles ressources combinant big data et technologies open source.

Le NIST a récemment achevé sa Special Database 302 (SD 302), une base de données qui compte environ 10 000 empreintes digitales relevées dans des environnements contrôlés auprès de 200 volontaires. Bien que cette base de données existe depuis 2019, jusqu’à présent, seule une partie des images comportait des annotations détaillées. Lors de cette dernière mise à jour, toutes les empreintes ont été entièrement annotées, ce qui a considérablement augmenté leur valeur pour la recherche et la formation.

Ces annotations sont très pertinentes, car elles indiquent la qualité des différentes zones de chaque empreinte au moyen de codes couleur. Cela facilite l’identification des parties d’une empreinte contenant des informations utiles pour l’identification et de celles pouvant être moins fiables. Cette distinction est cruciale tant pour les examinateurs humains que pour les systèmes automatisés, car les empreintes digitales relevées sur les scènes de crime sont souvent incomplètes, floues ou partiellement détériorées.

Du point de vue de la sécurité et de la criminalistique, la disponibilité d’un ensemble de données entièrement annoté est un progrès considérable. Cela facilite la formation de nouveaux professionnels tout en permettant de développer et de valider des algorithmes d’intelligence artificielle ayant une base empirique solide. À une époque où l’IA joue un rôle croissant dans l’analyse des preuves numériques, disposer de données de qualité est essentiel pour garantir des résultats fiables et reproductibles.

En parallèle, le NIST a publié un nouveau logiciel open source appelé Open LQM, une version améliorée d’un outil auparavant utilisé par les forces de l’ordre aux États-Unis. Ce logiciel est conçu pour évaluer automatiquement la qualité des empreintes digitales. Son fonctionnement est relativement simple : il analyse une image et lui attribue un score de 0 à 100 qui reflète le niveau de détail et d’utilité de l’empreinte.

Cette fonctionnalité a des implications pratiques très importantes. Dans une véritable enquête, les analystes peuvent trouver des centaines d’empreintes sur une même scène. La possibilité de les classer automatiquement en fonction de leur qualité permet de donner la priorité à celles qui sont le plus susceptibles de conduire à une identification positive, réduisant ainsi le temps et les ressources nécessaires. De plus, l’utilisation d’une métrique objective contribue à améliorer la cohérence entre les différents examinateurs, un aspect crucial dans les processus judiciaires.

Un autre élément notable est que le logiciel Open LQM est open source et compatible avec plusieurs systèmes d’exploitation, dont Windows, Mac et Linux. Cela facilite son adoption à l’échelle mondiale, tant par les forces de l’ordre que par les centres de recherche ou encore les universités. Cela favorise également la transparence et la collaboration, deux valeurs de plus en plus importantes dans le développement de technologies appliquées à la sécurité.

La combinaison de l’ensemble de données SD 302 entièrement annoté et du logiciel Open LQM offre une plateforme puissante pour faire progresser la science de l’identification par les empreintes digitales. Ces ressources améliorent non seulement les outils actuellement disponibles, mais posent aussi les bases des futures innovations dans le domaine de la criminalistique numérique et de la sécurité.

Pour conclure, l’initiative NIST illustre la façon dont la combinaison de données de qualité, d’outils open source et d’intelligence artificielle peut transformer les processus traditionnels et en accroître l’efficacité et la fiabilité. Pour les professionnels de la sécurité, ces progrès représentent une occasion évidente d’améliorer les capacités d’analyse et de s’adapter à un environnement de plus en plus technologique et exigeant.

_____

Aquest apunt en català / Esta entrada en español / This post in English

NIST drives fingerprint analysis with new data and open-source software

The analysis of fingerprints continues to be one of the most relevant tools in criminal investigations, but it is also a complex process that requires great precision and expertise. In this context, the National Institute of Standards and Technology (NIST) in the United States has taken an important step to modernise this field with the launch of new resources that combine big data and open-source technology.

NIST has recently completed its Special Database 302 (SD 302), a set that includes approximately 10,000 fingerprints collected in controlled environments from 200 volunteers. Although this database has existed since 2019, until now only a portion of the images had detailed annotations. With this new update, all fingerprints have been completely annotated, significantly increasing their value for research and training.

These annotations are especially relevant because they indicate the quality of different areas of each imprint using colour codes. In practice, this allows for easier identification of which parts of a fingerprint contain useful information for identification and which may be less reliable. This distinction is fundamental for both human examiners and automated systems, as the fingerprints collected at crime scenes are often incomplete, blurred, or partially deteriorated.

From the perspective of security and forensic investigation, the availability of a fully annotated dataset represents a key advancement. It not only facilitates the training of new professionals, but also allows for the development and validation of artificial intelligence algorithms with a solid empirical foundation. At a time when AI plays an increasing role in the analysis of digital evidence, having quality data is essential to ensure reliable and reproducible results.

At the same time, NIST has released a new open-source software called OpenLQM, an evolution of a tool previously used by law enforcement in the United States. This software is designed to automatically assess the quality of fingerprints. Its operation is relatively simple: it analyses an image and assigns a score between 0 and 100 that reflects the level of detail and usefulness of the imprint.

This functionality has very important practical implications. In a real investigation, analysts may encounter hundreds of fingerprints collected at the same scene. Automatically classifying them according to their quality allows to prioritise those that are more likely to lead to a positive identification, thus reducing the time and resources required. Moreover, the use of an objective metric helps improve consistency among different examiners, a critical aspect in judicial processes.

Another notable element is that OpenLQM is open-source and compatible with multiple operating systems, including Windows, Mac, and Linux. This facilitates its global adoption by both law enforcement agencies and research centres and universities. This openness also fosters transparency and collaboration, two values that are becoming increasingly important in the development of technologies applied to security.

Overall, the combination of the fully annotated SD 302 dataset and the Open LQM software provides a powerful platform for advancing the science of fingerprint identification. These resources not only enhance the tools currently available, but also lay the groundwork for future innovations in the field of digital forensics and security.

Ultimately, the NIST initiative exemplifies how the integration of quality data, open tools, and artificial intelligence can transform traditional processes and enhance their efficiency and reliability. For security professionals, these advancements represent a clear opportunity to enhance analytical capabilities and adapt to an increasingly technological and demanding environment.

_____

Aquest apunt en català / Esta entrada en español / Post en français

El NIST impulsa el análisis de huellas digitales con nuevos datos y software abierto

El análisis de huellas digitales sigue siendo una de las herramientas más relevantes en las investigaciones criminales, pero también es un proceso complejo que requiere una gran precisión y experiencia. En este contexto, el Instituto Nacional de Estándares y Tecnología (NIST) de los Estados Unidos ha dado un paso importante para modernizar este campo con el lanzamiento de nuevos recursos que combinan datos masivos y tecnología de código abierto.

El NIST ha completado recientemente su Base de datos especial 302 (SD 302), un conjunto que incluye aproximadamente 10.000 huellas digitales recogidas en entornos controlados, a partir de 200 voluntarios. Aunque esta base de datos ya existía desde el año 2019, hasta ahora solo una parte de las imágenes disponía de anotaciones detalladas. Con esta nueva actualización, todas las huellas han sido completamente anotadas, lo que aumenta significativamente su valor para la investigación y la formación.

Estas anotaciones son especialmente relevantes porque indican la calidad de diferentes zonas de cada huella mediante códigos de colores. En la práctica, esto permite identificar con más facilidad qué partes de una huella contienen información útil para la identificación y cuáles pueden ser menos fiables. Esta distinción es fundamental tanto para los examinadores humanos como para los sistemas automatizados, ya que las huellas recogidas en las escenas del crimen a menudo están incompletas, borrosas o parcialmente deterioradas.

Desde el punto de vista de la seguridad y la investigación forense, la disponibilidad de un conjunto de datos completamente anotado representa un avance clave. No solo facilita la formación de nuevos profesionales, sino que también permite desarrollar y validar algoritmos de inteligencia artificial (IA) con una base empírica sólida. En un momento en el que la IA tiene un papel creciente en el análisis de pruebas digitales, disponer de datos de calidad es esencial para garantizar resultados fiables y reproducibles.

Paralelamente, el NIST ha liberado un nuevo software de código abierto llamado Open LQM, una evolución de una herramienta previamente utilizada por las fuerzas del orden en los Estados Unidos. Este software está diseñado para evaluar automáticamente la calidad de las huellas digitales. Su funcionamiento es relativamente sencillo: analiza una imagen y le asigna una puntuación entre 0 y 100 que refleja el nivel de detalle y utilidad de la huella.

Esta funcionalidad tiene implicaciones prácticas muy importantes. En una investigación, los analistas pueden tener centenares de huellas recogidas en una misma escena. Poder clasificarlas automáticamente según su calidad permite priorizar aquellas que tienen más probabilidades de conducir a una identificación positiva, y reducir así el tiempo y los recursos necesarios. Además, el uso de una métrica objetiva contribuye a mejorar la consistencia entre diferentes examinadores, un aspecto crítico en los procesos judiciales.

Otro elemento destacable es el hecho de que Open LQM sea de código abierto y compatible con múltiples sistemas operativos, incluyendo Windows, Mac y Linux. Esto facilita la adopción a escala global, tanto por parte de organismos policiales como de centros de investigación y universidades. Esta apertura también fomenta la transparencia y la colaboración, dos valores cada vez más importantes en el desarrollo de tecnologías aplicadas a la seguridad.

Así pues, la combinación del conjunto de datos SD 302 completamente anotado y el software Open LQM ofrece una plataforma potente para avanzar en la ciencia de la identificación por huellas digitales. Estos recursos no solo mejoran las herramientas disponibles actualmente, sino que también establecen las bases para futuras innovaciones en el ámbito forense digital y la seguridad.

En definitiva, la iniciativa del NIST ejemplariza como la integración de datos de calidad, herramientas abiertas e inteligencia artificial puede transformar procesos tradicionales y aumentar la eficiencia y la fiabilidad. Para los profesionales de la seguridad, estos avances representan una oportunidad clara para mejorar las capacidades de análisis y adaptarse a un entorno cada vez más tecnológico y exigente.

_____

Aquest apunt en català / This post in English / Post en français

El NIST impulsa l’anàlisi d’empremtes digitals amb noves dades i programari obert

L’anàlisi d’empremtes digitals continua sent una de les eines més rellevants en les investigacions criminals, però també és un procés complex que requereix una gran precisió i experiència. En aquest context, l’Institut Nacional d’Estàndards i Tecnologia (NIST) dels Estats Units ha fet un pas important per modernitzar aquest camp amb el llançament de nous recursos que combinen dades massives i tecnologia de codi obert.

El NIST ha completat recentment la seva Base de dades especial 302 (SD 302), un conjunt que inclou aproximadament 10.000 empremtes digitals recollides en entorns controlats, a partir de 200 voluntaris. Tot i que aquesta base de dades ja existia des de l’any 2019, fins ara només una part de les imatges disposava d’anotacions detallades. Amb aquesta nova actualització, totes les empremtes han estat completament anotades, cosa que n’augmenta significativament el valor per a la recerca i la formació.

Aquestes anotacions són especialment rellevants perquè indiquen la qualitat de diferents zones de cada empremta mitjançant codis de colors. En la pràctica, això permet identificar amb més facilitat quines parts d’una empremta contenen informació útil per a la identificació i quines poden ser menys fiables. Aquesta distinció és fonamental tant per als examinadors humans com per als sistemes automatitzats, ja que les empremtes recollides en les escenes del crim sovint són incompletes, borroses o parcialment deteriorades.

Des del punt de vista de la seguretat i la investigació forense, la disponibilitat d’un conjunt de dades completament anotat representa un avenç clau. No només facilita la formació de nous professionals, sinó que també permet desenvolupar i validar algoritmes d’intel·ligència artificial (IA) amb una base empírica sòlida. En un moment en què la IA té un paper creixent en l’anàlisi de proves digitals, disposar de dades de qualitat és essencial per garantir resultats fiables i reproduïbles.

Paral·lelament, el NIST ha alliberat un nou programari de codi obert anomenat Open LQM, una evolució d’una eina prèviament utilitzada per les forces de l’ordre als Estats Units. Aquest programari està dissenyat per avaluar automàticament la qualitat de les empremtes digitals. El seu funcionament és relativament senzill: analitza una imatge i li assigna una puntuació entre 0 i 100 que reflecteix el nivell de detall i utilitat de l’empremta.

Aquesta funcionalitat té implicacions pràctiques molt importants. En una investigació, els analistes poden tenir centenars d’empremtes recollides en una mateixa escena. Poder classificar-les automàticament segons la seva qualitat permet prioritzar aquelles que tenen més probabilitats de conduir a una identificació positiva, i reduir així el temps i els recursos necessaris. A més, l’ús d’una mètrica objectiva contribueix a millorar la consistència entre diferents examinadors, un aspecte crític en els processos judicials.

Un altre element destacable és el fet que Open LQM sigui de codi obert i compatible amb múltiples sistemes operatius, incloent-hi Windows, Mac i Linux. Això en facilita l’adopció a escala global, tant per part d’organismes policials com de centres de recerca i universitats. Aquesta obertura també fomenta la transparència i la col·laboració, dos valors cada cop més importants en el desenvolupament de tecnologies aplicades a la seguretat.

Així doncs, la combinació del conjunt de dades SD 302 completament anotat i el programari Open LQM ofereix una plataforma potent per avançar en la ciència de la identificació per empremtes digitals. Aquests recursos no només milloren les eines disponibles actualment, sinó que també estableixen les bases per a futures innovacions en l’àmbit forense digital i la seguretat.

En definitiva, la iniciativa del NIST exemplifica com la integració de dades de qualitat, eines obertes i intel·ligència artificial pot transformar processos tradicionals i augmentar-ne l’eficiència i la fiabilitat. Per als professionals de la seguretat, aquests avenços representen una oportunitat clara per millorar les capacitats d’anàlisi i adaptar-se a un entorn cada cop més tecnològic i exigent.

_____

Esta entrada en español / This post in English / Post en français

Opération Alice : une offensive mondiale contre la cybercriminalité et l’exploitation des enfants sur le dark web

En mars 2026, une opération internationale coordonnée par les autorités allemandes avec le soutien d’Europol a abouti à l’une des plus grandes interventions contre la cybercriminalité et les réseaux d’exploitation des enfants sur le dark web. Connue sous le nom d’Opération Alice, cette initiative a réuni des forces de police de 23 pays dans le but de démanteler une vaste infrastructure de sites frauduleux liés à des contenus illégaux et à des services criminels.

L’enquête, qui a commencé en 2021, a révélé qu’un seul opérateur contrôlait plus de 373 000 domaines « .onion », des sites accessibles via le réseau Tor et conçus pour masquer l’identité et la localisation à la fois des serveurs et des utilisateurs. Ce chiffre fait de cette affaire l’une des plus importantes jamais détectées dans ce domaine.

Les portails prétendaient offrir des matériels relatifs à des abus sexuels sur enfants et d’autres services de cybercriminalité, tels que la vente de données de cartes de crédit ou l’accès illégal à des systèmes informatiques. Cependant, il s’agissait principalement d’une opération frauduleuse : les clients payaient, généralement en Bitcoin, mais ne recevaient aucun contenu.

Les « packages » annoncés allaient de 17 à 215 euros et promettaient de grands volumes de données. Ce modèle combinait donc deux dimensions criminelles : l’exploitation de contenus extrêmement graves et une arnaque d’échelle mondiale.

Entre le 9 et le 19 mars 2026, les autorités ont obtenu des résultats significatifs :

  • Identification de l’opérateur principal du réseau
  • Identification de 440 clients dans le monde
  • Fermeture de plus de 373 000 sites sur le dark web
  • Confiscation de 105 serveurs
  • Saisie de dispositifs électroniques et de données numériques

Selon les autorités, la personne responsable est un homme de 35 ans vivant en Chine qui aurait généré plus de 345 000 euros de bénéfices auprès d’environ 10 000 clients. Pendant sa période d’activité, il gérait simultanément 287 serveurs, dont beaucoup étaient situés en Allemagne.

L’un des aspects les plus pertinents de l’opération est qu’à la fois l’offre et la demande ont été poursuivies. En effet, bien qu’elles n’aient pas reçu le matériel annoncé, 440 individus identifiés comme clients ont été considérés suspects.

D’un point de vue juridique et de sécurité, le simple fait de tenter d’acquérir ce type de contenu constitue déjà un crime grave dans de nombreuses juridictions. De plus, les forces de sécurité considèrent ces individus comme des cibles à haut risque, car ils pourraient être impliqués dans d’autres activités criminelles ou représenter une menace potentielle.

Tout au long de l’enquête, les autorités sont intervenues immédiatement dans les cas où des mineurs à risque pouvaient être identifiés. Cette dimension est encore plus importante que la répression du crime, dont l’objectif prioritaire est la protection des victimes.

Par exemple, en 2023, un individu qui avait tenté d’acquérir du matériel illégal en Allemagne a été condamné à la suite d’une intervention. Ce type d’intervention montre comment les renseignements obtenus peuvent directement permettre de prévenir les abus.

Europol a joué un rôle clé dans la coordination de l’opération, facilitant l’échange d’informations entre les pays et fournissant des capacités d’analyse avancées. L’agence a également contribué de manière décisive au traçage des transactions en cryptomonnaies, un élément clé pour identifier à la fois l’opérateur et les utilisateurs. Cette affaire montre que, malgré l’utilisation de technologies d’anonymisation telles que Tor ou les paiements en Bitcoin, les forces de l’ordre peuvent reconstituer l’activité criminelle à l’aide de la criminalistique numérique et de la coopération internationale.

L’Opération Alice envoie un message fort : l’anonymat sur Internet n’est pas absolu, et les infrastructures criminelles, aussi sophistiquées soient-elles, peuvent être démantelées. La combinaison de techniques d’enquête numérique, de surveillance financière et de collaboration internationale s’est affirmée en tant qu’outil efficace contre la cybercriminalité à l’échelle mondiale.

Pour le secteur de la sécurité, plusieurs leçons importantes peuvent être tirées de cette affaire : l’importance du partage de renseignements, le besoin de traiter à la fois l’offre et la demande, et la valeur de la technologie dans la lutte contre les menaces complexes.

En résumé, en plus de démanteler un réseau gigantesque, cette opération a renforcé la capacité mondiale à détecter, poursuivre et prévenir des formes graves de criminalité en ligne.

_____

Aquest apunt en català / Esta entrada en español / This post in English

Operation Alice: a global operation against cybercrime and child abuse on the dark web

In March 2026, an international operation coordinated by German authorities with the support of Europol culminated in one of the largest actions against cybercrime and child abuse networks on the dark web. Known as Operation Alice, this initiative brought together law enforcement from 23 countries with the aim of dismantling a massive infrastructure of fraudulent sites linked to illegal content and criminal services.

The investigation, initiated in 2021, revealed that a single operator controlled more than 373,000 “.onion” domains, that is, sites accessible through the Tor network designed to conceal the identity and location of both servers and users. This figure places the case as one of the largest ever detected in this area.

The portals simulated offering child sexual abuse material (CSAM) and other cybercrime services, such as the sale of credit card data or illegal access to computer systems. However, it was primarily a fraudulent operation: customers paid—usually in Bitcoin—but did not receive any content.

The announced “packages” ranged from 17 to 215 euros and promised large volumes of data. This model combined two criminal dimensions: the exploitation of extremely serious content and a massive global scam.

Between 9 and 19 March 2026, the authorities achieved significant results:

  • Identification of the main operator of the network
  • Identification of 440 clients worldwide
  • Closure of more than 373,000 sites on the dark web
  • Confiscation of 105 servers
  • Seizure of electronic devices and digital data

According to the authorities, the responsible party is a 35-year-old male residing in China, who would have generated more than 345,000 euros in profits from about 10,000 clients. During the period of activity, he managed up to 287 servers simultaneously, many of which were located in Germany.

One of the most relevant aspects of the operation is that not only has the supply been targeted, but also the demand. The 440 individuals identified as clients are considered suspicious, despite not having received the advertised material.

From a legal and security standpoint, the mere attempt to acquire such content constitutes a serious crime in many jurisdictions. Additionally, security forces consider these individuals as high-risk targets, as they may be involved in other criminal activities or pose a potential threat.

Throughout the investigation, the authorities acted immediately in those cases where minors in risk situations could be identified. This dimension is key: beyond the repression of crime, whose primary objective is the protection of victims.

For example, in 2023, action was taken in the case of an individual in Germany who had attempted to acquire illegal material, which led to his subsequent conviction. These types of actions demonstrate how the obtained intelligence can have a direct impact on abuse prevention.

Europol played a key role in coordinating the operation, facilitating the exchange of information between countries and providing advanced analytical capabilities. It also contributed decisively to the tracking of cryptocurrency transactions, a key element for identifying both the operator and the users. This case demonstrates that, despite the use of anonymization technologies such as Tor or payments in Bitcoin, law enforcement can reconstruct criminal activity through digital forensic analysis and international cooperation.

Operation Alice sends a strong message: anonymity on the internet is not absolute, and criminal infrastructures, no matter how sophisticated, can be dismantled. The combination of digital investigation techniques, financial tracking, and international collaboration has consolidated as an effective tool against global cybercrime.

For the security sector, this case highlights several key lessons: the importance of shared intelligence, the need to address both supply and demand, and the value of technology in combating complex threats.

Ultimately, this is an operation that has not only dismantled a massive network but also strengthens the global capacity to detect, pursue, and prevent serious forms of online criminality.

_____

Aquest apunt en català / Esta entrada en español / Post en français