Europa busca limitar el uso de la inteligencia artificial en la sociedad

El uso del reconocimiento facial para la vigilancia o de algoritmos que manipulen el comportamiento humano quedará prohibido, según la propuesta de normativa de la Unión Europea sobre inteligencia artificial.

Las amplias propuestas, que se filtraron antes de su publicación oficial, también prometían nuevas reglas duras para lo que consideran inteligencia artificial de alto riesgo. Eso incluye algoritmos utilizados por la policía y el reclutamiento.

Los expertos dijeron que las reglas eran vagas y contenían lagunas. El uso de la inteligencia artificial en el ejército está exento de esta limitación, igual que los sistemas que utilizan las autoridades para salvaguardar la seguridad pública.

La lista sugerida de sistemas de inteligencia artificial prohibidos incluye:

• Los diseñados o utilizados para manipular el comportamiento, las opiniones o las decisiones humanas, haciendo que una persona se comporte, forme una opinión o tome una decisión en su detrimento.

• Los utilizados para la vigilancia indiscriminada aplicados de manera generalizada.

• Los utilizados para la puntuación social.

• Los que explotan información o predicciones y una persona o grupo de personas con el fin de orientar sus vulnerabilidades.

Para la inteligencia artificial que se considere de alto riesgo, los estados miembros tendrían que aplicar mucha más supervisión, incluida la necesidad de nombrar órganos de evaluación para probar, certificar e inspeccionar esos sistemas.

Asimismo, cualquier empresa que desarrolle servicios prohibidos o no proporcione información correcta sobre estos podría recibir multas de hasta el 4% de sus ingresos globales.

Entre los ejemplos de alto riesgo de inteligencia artificial se encuentran:

• Sistemas que establecen la prioridad en el envío de servicios de emergencia

• Sistemas que determinan el acceso o la asignación de personas a institutos educativos

• Algoritmos de reclutamiento

• Sistemas que evalúan la solvencia crediticia

• Sistemas para realizar evaluaciones de riesgos individuales

• Sistemas de predicción del crimen

Además de exigir que los nuevos sistemas de inteligencia artificial tengan supervisión humana, la CE también propone que los sistemas de inteligencia artificial de alto riesgo dispongan del llamado switch, que puede ser un botón de paro o algún otro procedimiento para apagar el sistema al instante, si fuera necesario.

Con esta legislación, la CE ha tenido que caminar por una difícil y fina línea entre asegurar que la inteligencia artificial se utiliza para aquello que denomina una herramienta para aumentar el bienestar humano y garantizar que no impida la competencia de los países de la UE, EE.UU. y China con respecto a innovaciones tecnológicas.

_____

Aquest apunt en català / This post in English / Post en français

Deixa un comentari