Europa busca limitar l’ús de la intel·ligència artificial en la societat

L’ús del reconeixement facial per a la vigilància o d’algoritmes que manipulin el comportament humà quedarà prohibit, segons la proposta de normativa de la Unió Europea sobre intel·ligència artificial.

Les àmplies propostes, que es van filtrar abans de la seva publicació oficial, també prometien noves regles dures per al que consideren intel·ligència artificial d’alt risc. Això inclou algoritmes utilitzats per la policia i el reclutament.

Els experts van dir que les regles eren vagues i contenien llacunes. L’ús de la intel·ligència artificial a l’exèrcit n’està exempt, igual que els sistemes que fan servir les autoritats per salvaguardar la seguretat pública.

La llista suggerida de sistemes d’intel·ligència artificial prohibits inclou:

• Els dissenyats o utilitzats per manipular el comportament, les opinions o les decisions humanes, fent que una persona es comporti, formi una opinió o prengui una decisió en detriment seu.

• Els utilitzats per a la vigilància indiscriminada aplicats de manera generalitzada.

• Els utilitzats per a la puntuació social.

• Els que exploten informació o prediccions i una persona o grup de persones per tal d’orientar les seves vulnerabilitats.

Per a la intel·ligència artificial que es consideri d’alt risc, els estats membres haurien d’aplicar molta més supervisió, inclosa la necessitat de nomenar òrgans d’avaluació per provar, certificar i inspeccionar aquests sistemes.

Així mateix, qualsevol empresa que desenvolupi serveis prohibits o no proporcioni informació correcta sobre aquests podria rebre multes de fins al 4% dels seus ingressos globals.

Entre els exemples d’alt risc d’intel·ligència artificial hi ha:

• Sistemes que estableixen la prioritat en l’enviament de serveis d’emergència

• Sistemes que determinen l’accés o l’assignació de persones a instituts educatius

• Algoritmes de reclutament

• Sistemes que avaluen la solvència creditícia

• Sistemes per fer avaluacions de riscos individuals

• Sistemes de predicció del crim

A més d’exigir que els nous sistemes d’intel·ligència artificial tinguin supervisió humana, la CE també proposa que els sistemes d’intel·ligència artificial d’alt risc disposin de l’anomenat switch, que pot ser un botó d’aturada o algun altre procediment per apagar el sistema a l’instant, si cal.

Amb aquesta legislació, la CE ha hagut de caminar per una difícil línia fina entre assegurar que la intel·ligència artificial es fa servir per a allò que anomena una eina per augmentar el benestar humà i garantir que no impedeixi la competència dels països de la UE, els EUA i la Xina pel que fa a innovacions tecnològiques.

_____

Esta entrada en español / This post in English / Post en français

Deixa un comentari