Un grupo de investigadores de RAND Corporation publicaron un informe donde explican que descubrieron que los modelos de aprendizaje automático (ML) pueden identificar signos de engaño durante las entrevistas de verificación de los antecedentes de seguridad nacional. El enfoque más preciso para detectar el engaño es un modelo de ML que cuenta el número de veces que los entrevistados utilizan palabras comunes.

El experimento de los investigadores funcionó de la siguiente manera:
- Los 103 participantes leyeron una historia sobre Edward Snowden que filtraba información clasificada de la Agencia de Seguridad Nacional en el año 2013.
- Los participantes fueron asignados aleatoriamente para leer la misma historia, pero esta se presentó como un informe de noticias o como un memorándum con marcas que indicaban que contenía información confidencial.
- Los participantes fueron asignados a uno de los dos grupos para ser entrevistados. A un grupo se le dijo que mintiera sobre lo que había leído y al otro, que dijera la verdad.
- Los exagentes de la ley entrevistaron a los participantes a través de videoconferencia y chat basado en texto de orden aleatorio.
Los investigadores de RAND utilizaron las transcripciones de la entrevista y el chat para entrenar diferentes modelos de ML para ver si estos podían distinguir a los mentirosos de los que dicen la verdad.
Estos académicos llegaron a tres grandes conclusiones:
- No es solo lo que uno dice, sino cómo lo dice: frecuencia de palabras, cadencia del habla, elección de las palabras y de otras señales lingüísticas de potenciales mentiras.
- Los modelos de ML pueden detectar señales de engaño en la forma en la que las personas se expresan, incluso en chats basados en texto sin la presencia de un entrevistador humano.
- Los modelos son herramientas que pueden complementar las técnicas de entrevista existentes, pero no pueden reemplazar completamente estas técnicas.
Con respecto a las implicaciones que eso puede tener para la seguridad, los investigadores destacan lo siguiente:
- Los hombres toman parte en muchas de las investigaciones de antecedentes para autorizaciones de seguridad, y al menos una cuarta parte de los solicitantes de autorización de seguridad son mujeres. Es importante entender cómo el género del entrevistador podría afectar a los resultados del modelado.
- El uso inapropiado de herramientas de ML podría conducir a desigualdades en las tasas de aceptación y rechazo de los solicitantes de autorizaciones de seguridad.
- A causa de los posibles sesgos en los resultados del modelo de ML, y en los seres humanos, es importante mantener un sistema de controles y equilibrios que incluya tanto a las personas como a las máquinas.
- Los modelos encontraron que los hombres y las mujeres utilizaban palabras distintas para engañar. Los hombres eran menos propensos a usar la palabra ‘yo’ cuando mentían y más propensos a utilizarla cuando decían la verdad.
_____
Aquest apunt en català / This post in English / Post en français