Joyeux Noël et Bonne Année

Je vous remercie tous pour votre coopération. Nous retournons le 7 Janvier. Joyeuses Fêtes.

_____

Aquest apunt en català / Esta entrada en español / This post in English

Season’s greetings and Happy New Year

Thank you everyone for your cooperation. We return on January 9th. Happy Holidays!

_____

Aquest apunt en català / Esta entrada en español / Post en français

Felices fiestas y feliz año nuevo

Muchas gracias a todos por vuestra colaboración. Volvemos el 9 de enero. ¡Felices fiestas!

Aquest apunt en català / This post in English / Post en français

Bones festes i feliç any nou

Moltes gràcies a tothom per la vostra col·laboració. Tornem el 8 de gener. Bones festes!

Esta entrada en español / This post in English / Post en français

Détecter les mensonges pour améliorer la sécurité

Un groupe de chercheurs de RAND Corporation a publié un rapport dans lequel il explique avoir découvert que les modèles d’apprentissage automatique, ou machine learning, peuvent détecter des signes de mensonge pendant les entretiens de vérification des antécédents pour la sécurité nationale. L’approche la plus précise pour détecter l’usage de tromperie est un modèle d’apprentissage automatique qui compte le nombre de fois où la personne interrogée utilise des mots courants.

L’expérience des chercheurs s’est déroulée comme suit :

  • les 103 participants ont lu une histoire sur Edward Snowden, qui a divulgué des informations classifiées de l’agence de sécurité nationale (NSA) en 2013 ;
  • les participants ont été répartis au hasard pour lire la même histoire, mais celle-ci était présentée soit comme un reportage, soit comme un mémo avec des marques indiquant qu’il contenait des informations confidentielles ;
  • chaque participant a été assigné à un groupe pour l’entretien : l’un des groupes devait mentir sur ce qu’il avait lu et l’autre devait dire la vérité ;
  • d’anciens agents des forces de l’ordre ont interrogé les participants par vidéoconférence et par chat textuel, selon un ordre aléatoire.

Les chercheurs de RAND ont utilisé les transcriptions des entretiens et le contenu des chats pour entraîner différents modèles d’apprentissage automatique afin de voir s’ils pouvaient distinguer les participants qui mentaient et ceux qui disaient la vérité.

Ces chercheurs sont arrivés à trois conclusions principales :

  • l’important n’est pas seulement ce qui est dit, mais aussi la manière de le dire : fréquence des mots, cadence du discours, choix des mots et autres signes linguistiques de mensonge potentiel ;
  • les modèles d’apprentissage automatique peuvent détecter des signes de tromperie dans la façon dont les personnes s’expriment, même dans des chats textuels sans la présence d’un interlocuteur humain ;
  • ces modèles sont des outils qui peuvent compléter les techniques d’entretien existantes, mais ils ne peuvent pas remplacer complètement ces techniques.

En termes d’implications dans le domaine de la sécurité, les chercheurs soulignent les points suivants :

  • au moins un quart des personnes qui passent des entretiens pour obtenir une habilitation dans le domaine de la sécurité sont des femmes, et les enquêtes sur leurs antécédents sont souvent menées par des hommes, il convient donc de comprendre en quoi le sexe de l’enquêteur peut affecter les résultats du modèle ;
  • une utilisation inappropriée des outils d’apprentissage automatique pourrait entraîner des inégalités dans les taux d’acceptation et de refus des demandeurs d’habilitation dans le domaine de la sécurité ;
  • en raison des préjugés potentiels dans les résultats des modèles d’apprentissage automatique et chez les humains, il est important de maintenir un système de contrôle et d’équilibre incluant à la fois les humains et les machines ;
  • les modèles ont révélé que les hommes et les femmes utilisaient des mots différents pour mentir, les hommes étant moins susceptibles d’utiliser le mot « je » lorsqu’ils mentaient et plus susceptibles de l’utiliser lorsqu’ils disaient la vérité.

_____

Aquest apunt en català / Esta entrada en español / This post in English

Identifying lies to improve security

A group of researchers at RAND Corporation published a report in which they explain that they discovered that machine learning (ML) models can identify signs of deception during national security background check interviews. The most accurate approach to detecting deception is an ML model that counts the number of times respondents use common words.

The researchers’ experiment worked as follows:

  • The 103 participants read a story about how, in 2013, Edward Snowden leaked classified information from the National Security Agency.
  • Participants were randomly assigned to read the same story, but it was presented either as a news report or as a memo with markings indicating that it contained confidential information.
  • Participants were assigned to one of two groups in order to be interviewed. One group was told to lie about what they had read and the other to tell the truth.
  • Former law enforcement officers interviewed participants via videoconference and random-order text-based chat.

The RAND researchers used the interview and chat transcripts to train different ML models to see if these could distinguish liars from truth-tellers.

These scholars reached three major conclusions:

  • It is not just what one says, but how one says it: frequency of words, cadence of speech, choice of words and other linguistic signals of potential lies.
  • ML models can detect signs of deception in the way people express themselves, even in text-based chats without the presence of a human interviewer.
  • The models are tools that can add to existing interviewing techniques, but they cannot completely replace these techniques.

In terms of the implications this may have for security, the researchers highlight the following:

  • Men take part in many of the background investigations for security clearances, and at least a quarter of security clearance applicants are women. It is important to understand how the gender of the interviewer might affect the modelling results.
  • Inappropriate use of ML tools could lead to inequities in the acceptance and rejection rates of security clearance applicants.
  • Due to potential biases in ML model results and in humans, it is important to maintain a system of checks and balances that includes both humans and machines.
  • The models found that men and women used different words to deceive. Men were less likely to use the word “I” when lying and more likely to use it when telling the truth.

_____

Aquest apunt en català / Esta entrada en español / Post en français

Identificar las mentiras para mejorar la seguridad

Un grupo de investigadores de RAND Corporation publicaron un informe donde explican que descubrieron que los modelos de aprendizaje automático (ML) pueden identificar signos de engaño durante las entrevistas de verificación de los antecedentes de seguridad nacional. El enfoque más preciso para detectar el engaño es un modelo de ML que cuenta el número de veces que los entrevistados utilizan palabras comunes.

El experimento de los investigadores funcionó de la siguiente manera:

  • Los 103 participantes leyeron una historia sobre Edward Snowden que filtraba información clasificada de la Agencia de Seguridad Nacional en el año 2013.
  • Los participantes fueron asignados aleatoriamente para leer la misma historia, pero esta se presentó como un informe de noticias o como un memorándum con marcas que indicaban que contenía información confidencial.
  • Los participantes fueron asignados a uno de los dos grupos para ser entrevistados. A un grupo se le dijo que mintiera sobre lo que había leído y al otro, que dijera la verdad.
  • Los exagentes de la ley entrevistaron a los participantes a través de videoconferencia y chat basado en texto de orden aleatorio.

Los investigadores de RAND utilizaron las transcripciones de la entrevista y el chat para entrenar diferentes modelos de ML para ver si estos podían distinguir a los mentirosos de los que dicen la verdad.

Estos académicos llegaron a tres grandes conclusiones:

  • No es solo lo que uno dice, sino cómo lo dice: frecuencia de palabras, cadencia del habla, elección de las palabras y de otras señales lingüísticas de potenciales mentiras.
  • Los modelos de ML pueden detectar señales de engaño en la forma en la que las personas se expresan, incluso en chats basados en texto sin la presencia de un entrevistador humano.
  • Los modelos son herramientas que pueden complementar las técnicas de entrevista existentes, pero no pueden reemplazar completamente estas técnicas.

Con respecto a las implicaciones que eso puede tener para la seguridad, los investigadores destacan lo siguiente:

  • Los hombres toman parte en muchas de las investigaciones de antecedentes para autorizaciones de seguridad, y al menos una cuarta parte de los solicitantes de autorización de seguridad son mujeres. Es importante entender cómo el género del entrevistador podría afectar a los resultados del modelado.
  • El uso inapropiado de herramientas de ML podría conducir a desigualdades en las tasas de aceptación y rechazo de los solicitantes de autorizaciones de seguridad.
  • A causa de los posibles sesgos en los resultados del modelo de ML, y en los seres humanos, es importante mantener un sistema de controles y equilibrios que incluya tanto a las personas como a las máquinas.
  • Los modelos encontraron que los hombres y las mujeres utilizaban palabras distintas para engañar. Los hombres eran menos propensos a usar la palabra ‘yo’ cuando mentían y más propensos a utilizarla cuando decían la verdad.

_____

Aquest apunt en català / This post in English / Post en français

Identificar les mentides per millorar la seguretat

Un grup d’investigadors de RAND Corporation van publicar un informe on expliquen que van descobrir que els models d’aprenentatge automàtic (ML) poden identificar signes d’engany durant les entrevistes de verificació dels antecedents de seguretat nacional. L’enfocament més precís per detectar l’engany és un model d’ML que compta el nombre de vegades que els entrevistats utilitzen paraules comunes.

L’experiment dels investigadors va funcionar de la següent manera:

  • Els 103 participants van llegir una història sobre Edward Snowden que filtrava informació classificada de l’Agència de Seguretat Nacional l’any 2013.
  • Els participants van ser assignats aleatòriament per llegir la mateixa història, però aquesta es va presentar com un informe de notícies o com un memoràndum amb marques que indicaven que contenia informació confidencial.
  • Els participants van ser assignats a un dels dos grups per ser entrevistats. A un grup se li va dir que mentís sobre el que havia llegit i a l’altre, que digués la veritat.
  • Els exagents de la llei van entrevistar els participants a través de videoconferència i xat basat en text d’ordre aleatori.

Els investigadors de RAND van utilitzar les transcripcions de l’entrevista i el xat per entrenar diferents models d’ML per veure si aquests podien distingir els mentiders dels qui diuen la veritat.

Aquests acadèmics van arribar a tres grans conclusions:

  • No és només allò que un diu, sinó com ho diu: freqüència de paraules, cadència de la parla, elecció de les paraules i d’altres senyals lingüístics de potencials mentides.
  • Els models d’ML poden detectar senyals d’engany en la forma en què les persones s’expressen, fins i tot en xats basats en text sense la presència d’un entrevistador humà.
  • Els models són eines que poden complementar les tècniques d’entrevista existents, però no poden reemplaçar completament aquestes tècniques.

Pel que fa a les implicacions que això pot tenir per a la seguretat, els investigadors destaquen el següent:

  • Els homes prenen part en moltes de les investigacions d’antecedents per a autoritzacions de seguretat, i almenys una quarta part dels sol·licitants d’autorització de seguretat són dones. És important entendre com el gènere de l’entrevistador podria afectar els resultats del modelat.
  • L’ús inapropiat d’eines d’ML podria conduir a desigualtats en les taxes d’acceptació i rebuig dels sol·licitants d’autoritzacions de seguretat.
  • A causa dels possibles biaixos en els resultats del model d’ML, i en els éssers humans, és important mantenir un sistema de controls i equilibris que inclogui tant les persones com les màquines.
  • Els models van trobar que els homes i les dones feien servir paraules diferents per enganyar. Els homes eren menys propensos a usar la paraula ‘jo’ quan mentien i més propensos a utilitzar-la quan deien la veritat.

_____

Esta entrada en español / This post in English / Post en français

Dixième édition du rapport de l’Agence de l’Union européenne pour la cybersécurité

L’Agence de l’Union européenne pour la cybersécurité (ENISA) a publié la dixième édition du rapport « ENISA Threat Landscape (ETL) », un rapport annuel sur l’état global des menaces dans le domaine de la cybersécurité. Le document identifie les principales menaces, leurs tendances clés, leurs acteurs et les techniques d’attaque utilisées, et analyse leur impact et les motifs des acteurs. Il décrit également les mesures d’atténuation les plus pertinentes actuellement.

Cette année encore, les travaux ont été soutenus par le groupe de travail ad hoc de l’ENISA sur le paysage des menaces pour la cybersécurité. Les principales menaces identifiées sur la période de référence du rapport ETL 2022 sont les rançongiciels ou ransomware, les logiciels malveillants, les menaces d’ingénierie sociale, les menaces visant les données, les menaces visant la disponibilité telles que le déni de service, les menaces Web, la désinformation et les attaques de la chaîne d’approvisionnement.

Pour chacune des menaces identifiées, certaines techniques d’attaque, des incidents et des tendances notables sont présentées, et des mesures d’atténuation sont proposées. En termes de tendances au cours de la période de référence, le document met en évidence les éléments détaillés ci-dessous.

La géopolitique a influé sur le paysage des menaces pour la cybersécurité.

  • Le conflit entre la Russie et l’Ukraine a remodelé le paysage des menaces au cours de la période de référence.
  • La géopolitique continue d’avoir un fort impact sur les cyberopérations.
  • Les attaques destructrices sont une composante importante des opérations des acteurs étatiques.
  • La désinformation est un outil de cyberguerre. Elle a été utilisée avant même le début des attaques physiques pour préparer l’invasion russe de l’Ukraine.

Les ransomware et les attaques visant la disponibilité sont les menaces les plus présentes sur la période de référence.

  • L’augmentation significative des attaques visant la disponibilité, en particulier les attaques par déni de service distribuée (DDoS), serait liée à la guerre en cours.
  • L’hameçonnage ou phishing sur les réseaux sociaux est à nouveau le vecteur d’accès initial le plus courant. Les progrès en matière de sophistication de l’hameçonnage, de fatigue des utilisateurs et de phishing contextuel et ciblé sont à l’origine de cette augmentation. Le nouvel appât principal des menaces d’ingénierie sociale est le conflit entre l’Ukraine et la Russie, à l’instar de ce qui s’est passé lors de la pandémie de COVID-19.
  • Après un déclin lié à la pandémie, les attaques de logiciels malveillants sont de nouveau en hausse.
  • Les DDoS deviennent plus importants et plus complexes, se déplacent vers les réseaux mobiles et l’Internet des objets, et sont utilisés dans le cadre de la cyberguerre.

Les menaces nouvelles, hybrides et émergentes impactent fortement le paysage des menaces.

  • Des campagnes de désinformation et mésinformation profondes ont été menées à l’aide de l’intelligence artificielle.
  • La compréhension des tendances liées aux acteurs de la menace, à leurs motivations et à leurs objectifs facilite grandement la planification de la défense en matière de cybersécurité et des stratégies d’atténuation. Par conséquent, les quatre catégories suivantes d’acteurs des menaces pour la cybersécurité sont réexaminées dans le cadre du rapport ETL 2022 : les acteurs parrainés par l’État, les acteurs de la cybercriminalité, les acteurs pirates et les hacktivistes.

Grâce à une analyse continue, l’ENISA a dégagé des tendances, des modèles et des connaissances pour chacune des principales menaces présentées dans le rapport ETL 2022. Les conclusions et les jugements clés de cette évaluation sont basés sur les multiples ressources disponibles et les références fournies pour l’élaboration de ce document. Le rapport, principalement adressé aux décideurs stratégiques et aux responsables politiques, présente également un intérêt pour la communauté technique de la cybersécurité.

_____

Aquest apunt en català / Esta entrada en español / This post in English

Tenth edition of the European Cybersecurity Agency report – ENISA

This is the tenth edition of the report ENISA Threat Landscape (ETL), an annual report on the global state of cybersecurity threats. The document identifies the main threats, the main trends observed in terms of threats, threat actors and attack techniques, as well as impact and motivation analysis. It also outlines the most relevant mitigation measures currently in place.

This year’s work was again supported by ENISA’s ad hoc Working Group on Cybersecurity Threat Landscapes (CTL). During the ETL 2022 reporting period, the main threats identified include: ransomware, malware, social engineering threats, threats against data, threats against availability: denial of service, Internet threats, disinformation and supply chain attacks.

For each of the identified threats, certain attack techniques and notable incidents and trends are proposed, along with mitigation measures. In terms of trends during the reporting period, the document highlights the following:

Impact of geopolitics on the cybersecurity threat landscape:

  • The conflict between Russia and Ukraine has reshaped the threat landscape during the reporting period.
  • Geopolitics continues to have a very strong impact on cyber operations.
  • Destructive attacks are a prominent component of the operations of state actors.
  • Disinformation is a tool in cyberwarfare. It was used even before the “physical” war began as a preparatory activity for the Russian invasion of Ukraine.

The ransomware and availability attacks are the highest during the reporting period:

  • Significant increase in availability attacks, especially DDoS, and the ongoing war are the main reasons for these attacks.
  • Phishing is again the most common vector for initial access. Advances in phishing sophistication, user fatigue and targeted, context-based phishing have led to this increase. New bait in social engineering threats is focusing on the Ukraine-Russia conflict in a similar way to what happened during the COVID-19 situation.
  • Malware is on the rise again after the decline that was noted, linked to the COVID-19 pandemic.
  • DDoS are becoming larger and more complex, are moving towards mobile and IoT networks and are used in the context of cyberwarfare.

New, hybrid and emerging threats are shaping the threat landscape with great impact.

  • Disinformation and deepfakes with artificial intelligence.
  • Understanding trends related to threat actors, their motivations and objectives greatly helps to prepare cybersecurity defences and mitigation strategies. Therefore, for the purposes of ETL 2022, the following four categories of cybersecurity threat actors are again considered: state-sponsored actors, cybercrime actors, hacker-for-hire actors and hacktivists.

Through continuous analysis, ENISA obtained trends, patterns and insights for each of the major threats presented in the ETL 2022 report. The conclusions and key judgements of this assessment are based on multiple and available resources provided to the references used for the development of this document. The report is primarily aimed at strategic decision makers and policy makers, while being of interest to the technical cybersecurity community.

_____

Aquest apunt en català / Esta entrada en español / Post en français