L’utilisation de lunettes peut contribuer à empêcher que les personnes soient identifiées par des systèmes de reconnaissance faciale. Cela a été démontré par une équipe de chercheurs de l’Université Carnegie Mellon de Pittsburgh, qui a conçu des lunettes permettant d’arriver à ce résultat.
Le leurre est envisagé comme une attaque à ces systèmes et le point de départ des chercheurs universitaires était de trouver une méthode discrète et physiquement réalisable, deux facteurs qui n’avaient pas été pris en compte lors des recherches préalables. Le premier facteur, la discrétion, impliquait que le système ne devait pas détecter que quelqu’un essayait de le tromper. Avec le deuxième facteur, on envisageait que la méthode puisse être menée à bien contre des systèmes d’identification actuels (des études précédentes s’appuyaient sur une technologie obsolète), notamment ceux qui utilisent des algorithmes d’apprentissage automatique.[1]
À l’aide de lunettes de couleur imprimées sur du papier photographique, tantôt posées sur des photographies, tantôt utilisées par les chercheurs, ils ont réussi à faire en sorte que, quand une personne est captée par un système de reconnaissance faciale, celle-ci ne soit pas identifiée et, même, que celle-ci soit identifiée comme une autre personne. Les résultats ont été concluants aussi bien contre un programme de reconnaissance faciale commercial que contre des systèmes génériques basés sur des algorithmes d’apprentissage automatique.
Les auteurs reconnaissent que l’efficacité de leur système peut être fonction de certains facteurs externes qui influencent la manière dont les images sont captées comme, par exemple, l’éclairage ou la distance par rapport à la caméra. Ils admettent aussi que les lunettes peuvent être discrètes pour les systèmes de reconnaissance mais pas pour les humains qui percevraient leur étrangeté. Toutefois, leur but est de montrer que ces systèmes ne sont pas infaillibles et qu’il faut rester vigilant quant à leur vulnérabilité. D’autre part, ils ajoutent que l’une des lignes de travail dans le futur est d’explorer la manière de réduire les risques que ce type d’attaque peut signifier pour les systèmes de reconnaissance faciale.
Des recherches comme celle-ci nous démontrent que les progrès technologiques, bien que clairement utiles pour la gestion de la sécurité, sont encore faillibles et qu’il faut être conscient de leurs faiblesses lorsqu’on décide de les implanter ou lorsqu’on les utilise.
Sources :
- Want to beat facial recognition? Get some funky tortoiseshell glasses. The Guardian, 4 novembre 2016
- Sharif, M. ; Bhagavatula, S. ; Bauer, L. & Reiter, M. Accessorize to a Crime: Real and Stealthy Attacks on State-Of-The-Art Face Recognition. In Proc. CCS, 2016. [PDF | VIDÉO]
[1] Les algorithmes d’apprentissage automatique s’appuient sur une base de données offrant une série d’images étiquetées avec plusieurs images par personne. Pour chaque personne, ils analysent toutes les images disponibles et obtiennent un patron ou modèle qui les caractérise, les différencie et les identifie. Quand ils reçoivent une nouvelle image, ils la comparent aux patrons pour décider si elle correspond ou non à l’une des personnes de la base de données.
_____
Aquest apunt en català / Esta entrada en español / This post in English