Fer servir unes ulleres pot ajudar a evitar que les persones siguin identificades per sistemes de reconeixement facial. Ho ha demostrat un equip d’investigadors de la Universitat Carnegie Mellon de Pittsburgh, que ha dissenyat unes ulleres que aconsegueixen aquest objectiu.
L’engany es planteja com un atac a aquests sistemes i el punt de partida dels acadèmics era aconseguir un mètode discret i físicament realitzable, dos factors que no s’havien tingut en compte en investigacions prèvies. El primer, la discreció, implicava que el sistema no havia de detectar que algú estava intentant burlar-lo. Amb el segon factor, pretenien que el mètode es pogués portar a terme contra sistemes d’identificació actuals (estudis anteriors es basaven en tecnologia obsoleta), especialment els que utilitzen algoritmes d’aprenentatge automàtic.[1]
Amb unes ulleres de colors impreses en paper fotogràfic, en alguns casos posades sobre fotografies i en d’altres utilitzades pels investigadors, han aconseguit que quan la persona és captada per un sistema de reconeixement facial, o bé no sigui identificada o fins i tot sigui identificada com una altra persona. Els resultats s’han assolit tant contra un programa de reconeixement facial comercial, com contra sistemes genèrics basats en algoritmes d’aprenentatge automàtic.
Els autors reconeixen que l’efectivitat del seu sistema es pot veure condicionada per factors externs que influeixin en la manera com es capten les imatges, com ara la il·luminació o la distància a la càmera. També admeten que les ulleres poden ser discretes per als sistemes de reconeixement, però no per als humans, que percebrien estranyes les ulleres. No obstant això, volen posar sobre la taula el fet que aquests sistemes no són infal·libles i que cal estar amatents a les seves vulnerabilitats. D’altra banda, també aclareixen que una de les línies de treball futures és la d’explorar la manera de reduir els riscos que aquest tipus d’atac suposen per als sistemes de reconeixement facial.
Investigacions com aquesta ens demostren que els avenços tecnològics, malgrat que ajuden clarament a la gestió de la seguretat, encara son fal·libles i que cal ser conscients de les seves febleses quan es decideix implantar-los o quan s’utilitzen.
Fonts:
- “Want to beat facial recognition? Get some funky tortoiseshell glasses”. The Guardian, 4 de novembre de 2016
- Sharif, M.; Bhagavatula, S.; Bauer, L. & Reiter, M. “Accessorize to a Crime: Real and Stealthy Attacks on State-Of-The-Art Face Recognition”. In Proc. CCS, 2016. [PDF | VÍDEO]
[1] Els algoritmes d’aprenentatge automàtic parteixen d’una base de dades amb un conjunt d’imatges etiquetades, amb múltiples imatges per persona. Per a cada persona, analitzen totes les imatges disponibles i obtenen un patró o model que les caracteritza, diferencia i identifica. Quan reben una nova imatge, la comparen amb els patrons per decidir si correspon a alguna de les persones de la base de dades o no.
_____
Esta entrada en español / This post in English / Post en français