Des dizaines d’universitaires, de professionnels et d’activistes dans divers domaines ont demandé au gouvernement espagnol que tant qu’il n’y a pas de loi régissant les outils de reconnaissance faciale, ces derniers ne soient pas utilisés en Espagne. La demande intervient à un moment où ce type de techniques est déjà utilisé aussi bien dans les espaces publics que dans les environnements privés.

Les signataires réclament un moratoire sur l’utilisation et la commercialisation de systèmes de reconnaissance et d’analyse faciales par des entreprises publiques et privées, et demandent que les institutions législatives européennes discutent des outils et des modalités, des conditions, des garanties et des objectifs de l’utilisation de ces systèmes devant être autorisés, le cas échéant.
Pour les demandeurs, il est nécessaire que le gouvernement envisage de réglementer cette technologie avant qu’elle ne continue à se développer et à devenir un élément utilisé et répandu. En d’autres termes, si la reconnaissance faciale n’est pas régie par une loi concrète garantissant le respect des droits des citoyens, ils craignent que ce soit la loi qui doive s’adapter aux pratiques existantes.
Les signataires soutiennent que cette technologie constitue une intrusion dans la sphère privée de la vie des personnes sans leur consentement explicite, et met en doute des questions fondamentales de justice sociale, dignité humaine, équité, égalité de traitement et inclusion.
L’utilisation de programmes d’analyse faciale peut entraîner des problèmes dans le domaine des droits civils. Plus précisément, ils expliquent que l’assimilation d’une personne à un collectif sur la base de ses traits ou données biométriques est très problématique, car le stéréotype se perpétue, quel que soit le domaine concerné. Par exemple, le fait que cette personne puisse être plus dangereuse ou délinquante que d’autres personnes aux traits similaires est un postulat injuste.
Il existe suffisamment de preuves indiquant que le fait d’associer des postures, des gestes, des traits du visage, des couleurs de peau, des coiffures ou des vêtements à des comportements problématiques potentiels, capacités intellectuelles ou économiques peuvent entraîner des classements racistes, élitistes ou sexistes.
La reconnaissance faciale a également donné lieu à plusieurs reprises à de faux positifs et de faux négatifs, car elle dépend en grande partie de la manière dont l’intelligence artificielle est entraînée et avec quel type d’images. Si elle est entraînée avec de nombreuses photographies d’hommes blancs ou avec des conditions d’éclairage spécifiques, pour ne citer que deux exemples, l’analyse faciale aura tendance à être moins précise pour les personnes noires ou avec des conditions lumineuses différentes.
Il existe donc un large éventail de raisons, tant techniques qu’éthiques, qui justifient la création d’une commission chargée d’enquêter sur la nécessité d’un moratoire, qui est considéré comme indispensable et urgent. En conclusion, cette commission devrait être indépendante et composée de scientifiques, de juristes, d’experts en éthique et en intelligence artificielle et de membres de la société civile, en particulier de collectifs susceptibles d’être affectés par ces systèmes.
_____
Aquest apunt en català / Esta entrada en español / This post in English