Si l’intelligence artificielle (IA) fait l’objet de recherches universitaires depuis 1950 et d’une utilisation commerciale dans certains secteurs depuis des décennies, elle n’en est encore qu’à ses débuts dans tous les domaines.

L’adoption rapide de cette technologie, associée à des problèmes spécifiques en matière de confidentialité, sécurité et responsabilité, a donné lieu à des efforts visant à garantir son utilisation éthique et légale.
Sur le site Web spécialisé Abajournal, les auteurs Brenda Leong et Patrick Hall exposent cinq choses à prendre en compte concernant l’intelligence artificielle.
1. L’intelligence artificielle est complexe, dynamique et probabiliste. Les algorithmes d’apprentissage automatique sont extrêmement complexes. Ils apprennent des milliards de règles à partir d’ensembles de données, puis appliquent ces règles pour obtenir une recommandation en sortie.
2. La transparence est une priorité d’ordre légal. La complexité des systèmes d’IA rend difficile la transparence, mais les organisations qui mettent en œuvre l’IA peuvent être tenues pour responsables si elles ne sont pas en mesure de fournir certaines informations sur leurs processus décisionnels.
3. La partialité est un problème considérable, mais pas le seul. Les systèmes d’IA apprennent en analysant des milliards de points de données tirés du monde réel. Ces données peuvent être numériques, catégoriques (comme le sexe et le niveau d’éducation) ou basées sur des images (comme des photos ou des vidéos). Comme la plupart des systèmes sont entraînés avec des données générées par les systèmes humains existants, les préjugés qui imprègnent notre culture imprègnent également les données. Ainsi, il ne peut y avoir de système d’IA impartial.
La confidentialité des données, la sécurité de l’information, la responsabilité du fait des produits et le partage avec des tiers, ainsi que les problèmes de performances et de transparence, sont des questions tout aussi importantes.
4. Les performances d’un système d’IA ne se limitent pas à la précision. Si la qualité et la valeur d’un système d’IA sont en grande partie déterminées par sa précision, celle-ci ne suffit pas à mesurer pleinement le large éventail de risques associés à ces technologies. À trop se concentrer sur la précision, on risque d’ignorer les questions de transparence, d’équité, de confidentialité et de sécurité d’un système.
Les experts en mégadonnées et les avocats, par exemple, doivent collaborer à la création de méthodes d’évaluation plus fidèles des performances de l’IA. Ces méthodes doivent tenir compte de l’éventail complet des performances dans le monde réel et des préjudices potentiels, comme les menaces pour la sécurité ou les insuffisances en matière de confidentialité.
5. Ce n’est que le début d’un travail difficile. Pour que leurs systèmes soient conformes aux réglementations, la plupart des organisations utilisant les technologies de l’IA doivent adopter des politiques liées au développement et à l’utilisation de ces technologies, et ont également besoin de recommandations.
Des chercheurs, des professionnels du domaine de l’IA, des journalistes, des militants et des avocats ont entamé ce travail afin de réduire les risques et les problèmes de responsabilités que présentent les systèmes d’IA actuels. Les entreprises commencent à définir et à mettre en œuvre des principes liés à l’IA, mais aussi à fournir des efforts sérieux en matière de diversité et d’inclusion au sein des équipes technologiques.
_____
Aquest apunt en català / Esta entrada en español / This post in English