¿Se puede engañar a los sistemas de reconocimiento facial?

Utilizar unas gafas puede ayudar a evitar que las personas sean identificadas por sistemas de reconocimiento facial. Lo ha demostrado un equipo de investigadores de la Universidad Carnegie Mellon de Pittsburgh, que ha diseñado unas gafas que consiguen este objetivo.

El engaño se plantea como un ataque a estos sistemas y el punto de partida de los académicos era conseguir un método discreto y físicamente realizable, dos factores que no se habían tenido en cuenta en investigaciones previas. El primero, la discreción, implicaba que el sistema no tenía que detectar que alguien estaba intentando burlarlo. Con el segundo factor, pretendían que el método se pudiera llevar a cabo contra sistemas de identificación actuales (estudios anteriores se basaban en tecnología obsoleta), especialmente los que utilizan algoritmos de aprendizaje automático.[1]

Con unas gafas de colores impresas en papel fotográfico, en algunos casos colocadas sobre fotografías y en otros utilizadas por los investigadores, han conseguido que cuando la persona es captada por un sistema de reconocimiento facial, o bien no sea identificada o incluso sea identificada como otra persona. Los resultados se han logrado tanto contra un programa de reconocimiento facial comercial, como contra sistemas genéricos basados en algoritmos de aprendizaje automático.

Los autores reconocen que la efectividad de su sistema se puede ver condicionada por factores externos que influyan en la manera como se captan las imágenes, como la iluminación o la distancia a la cámara. También admiten que las gafas pueden resultar discretas para los sistemas de reconocimiento, pero no para los humanos, que percibirían extrañas las gafas. No obstante, quieren poner sobre la mesa el hecho de que estos sistemas no son infalibles y que hay que estar atentos a sus vulnerabilidades. Por otra parte, también aclaran que una de las líneas de trabajo futuras es la de explorar el modo de reducir los riesgos que este tipo de ataques suponen para los sistemas de reconocimiento facial.

Investigaciones como esta nos demuestran que los avances tecnológicos, aunque ayudan claramente a la gestión de la seguridad, aun son falibles y que hay que ser conscientes de sus debilidades cuando se decide implantarlos o cuando se utilizan.

Fuentes:

[1] Los algoritmos de aprendizaje automático parten de una base de datos con un conjunto de imágenes etiquetadas, con múltiples imágenes por persona. Para cada persona, analizan todas las imágenes disponibles y obtienen un patrón o modelo que las caracteriza, diferencia e identifica. Cuando reciben una nueva imagen, la comparan con los patrones para decidir si corresponde a alguna de las personas de la base de datos o no.

_____

Aquest apunt en català / This post in English / Post en français

Leave a Reply