L’Europe cherche à limiter l’utilisation de l’intelligence artificielle dans la société

L’utilisation de la reconnaissance faciale pour la surveillance ou d’algorithmes qui manipulent le comportement humain restera interdite, conformément à la proposition de réglementation de l’Union européenne sur l’intelligence artificielle.

Les propositions de grande envergure, qui ont fait l’objet de fuites avant leur publication officielle, promettent également de nouvelles règles strictes pour ce qui est considéré comme une intelligence artificielle à haut risque. Cela comprend les algorithmes utilisés par la police et le recrutement.

Les experts ont déclaré que la réglementation était vague et contenait des lacunes. En effet, les militaires, ainsi que les systèmes utilisés par les autorités pour préserver la sécurité publique, échappent à cette réglementation.

La liste des systèmes d’intelligence artificielle interdits proposée comprend les systèmes :

• conçus ou utilisés pour manipuler le comportement, les opinions ou les décisions humaines, qui amènent une personne à se comporter, à se faire une opinion ou à prendre une décision à son détriment ;

• utilisés pour la surveillance non ciblée, et appliqués de manière généralisée ;

• utilisés pour la notation sociale ;

• qui exploitent les informations ou les prédictions concernant une personne ou un groupe de personnes pour cibler ses (leurs) vulnérabilités.

Pour les intelligences artificielles considérées comme étant à haut risque, les États membres devraient appliquer une surveillance beaucoup plus stricte, notamment en désignant des organismes d’évaluation chargés de tester, de certifier et d’inspecter ces systèmes.

De même, toute entreprise qui développe des services interdits ou fournit des informations inexactes sur ces derniers pourrait recevoir des amendes allant jusqu’à 4 % de ses revenus globaux.

Les exemples d’intelligence artificielle à haut risque incluent :

• les systèmes qui établissent un ordre de priorité pour l’affection de services d’urgences ;

• les systèmes qui déterminent l’accès ou l’affectation des individus aux établissements d’enseignement ;

• les algorithmes de recrutement ;

• les systèmes d’évaluation de la solvabilité ;

• les systèmes d’évaluation des risques individuels ;

• les systèmes de prédiction de la criminalité.

En plus d’exiger que les nouveaux systèmes d’intelligence artificielle fassent l’objet d’une surveillance humaine, la Commission européenne propose que les systèmes d’intelligence artificielle à haut risque soient dotés d’une sorte de commutateur, qui peut être un bouton d’arrêt ou tout autre procédé permettant de désactiver instantanément le système si nécessaire.

Avec cette législation, la CE s’est aventurée sur un terrain glissant, cherchant à garantir que l’intelligence artificielle soit utilisée comme outil d’amélioration du bien-être humain tout en s’assurant de ne pas entraver la concurrence entre les pays de l’Union européenne, les États-Unis et la Chine en matière d’innovation technologique.

_____

Aquest apunt en català / Esta entrada en español / This post in English

Leave a Reply