Détecter les mensonges pour améliorer la sécurité

Un groupe de chercheurs de RAND Corporation a publié un rapport dans lequel il explique avoir découvert que les modèles d’apprentissage automatique, ou machine learning, peuvent détecter des signes de mensonge pendant les entretiens de vérification des antécédents pour la sécurité nationale. L’approche la plus précise pour détecter l’usage de tromperie est un modèle d’apprentissage automatique qui compte le nombre de fois où la personne interrogée utilise des mots courants.

L’expérience des chercheurs s’est déroulée comme suit :

  • les 103 participants ont lu une histoire sur Edward Snowden, qui a divulgué des informations classifiées de l’agence de sécurité nationale (NSA) en 2013 ;
  • les participants ont été répartis au hasard pour lire la même histoire, mais celle-ci était présentée soit comme un reportage, soit comme un mémo avec des marques indiquant qu’il contenait des informations confidentielles ;
  • chaque participant a été assigné à un groupe pour l’entretien : l’un des groupes devait mentir sur ce qu’il avait lu et l’autre devait dire la vérité ;
  • d’anciens agents des forces de l’ordre ont interrogé les participants par vidéoconférence et par chat textuel, selon un ordre aléatoire.

Les chercheurs de RAND ont utilisé les transcriptions des entretiens et le contenu des chats pour entraîner différents modèles d’apprentissage automatique afin de voir s’ils pouvaient distinguer les participants qui mentaient et ceux qui disaient la vérité.

Ces chercheurs sont arrivés à trois conclusions principales :

  • l’important n’est pas seulement ce qui est dit, mais aussi la manière de le dire : fréquence des mots, cadence du discours, choix des mots et autres signes linguistiques de mensonge potentiel ;
  • les modèles d’apprentissage automatique peuvent détecter des signes de tromperie dans la façon dont les personnes s’expriment, même dans des chats textuels sans la présence d’un interlocuteur humain ;
  • ces modèles sont des outils qui peuvent compléter les techniques d’entretien existantes, mais ils ne peuvent pas remplacer complètement ces techniques.

En termes d’implications dans le domaine de la sécurité, les chercheurs soulignent les points suivants :

  • au moins un quart des personnes qui passent des entretiens pour obtenir une habilitation dans le domaine de la sécurité sont des femmes, et les enquêtes sur leurs antécédents sont souvent menées par des hommes, il convient donc de comprendre en quoi le sexe de l’enquêteur peut affecter les résultats du modèle ;
  • une utilisation inappropriée des outils d’apprentissage automatique pourrait entraîner des inégalités dans les taux d’acceptation et de refus des demandeurs d’habilitation dans le domaine de la sécurité ;
  • en raison des préjugés potentiels dans les résultats des modèles d’apprentissage automatique et chez les humains, il est important de maintenir un système de contrôle et d’équilibre incluant à la fois les humains et les machines ;
  • les modèles ont révélé que les hommes et les femmes utilisaient des mots différents pour mentir, les hommes étant moins susceptibles d’utiliser le mot « je » lorsqu’ils mentaient et plus susceptibles de l’utiliser lorsqu’ils disaient la vérité.

_____

Aquest apunt en català / Esta entrada en español / This post in English

Leave a Reply