5 aspectes a considerar sobre la intel·ligència artificial

Tot i que la intel·ligència artificial ha estat objecte d’investigació acadèmica des del 1950 i s’ha utilitzat comercialment en algunes indústries durant dècades, encara està a les beceroles en tots els sectors.

La ràpida adopció d’aquesta tecnologia, juntament amb els problemes únics de privacitat, seguretat i responsabilitat que té associats, ha creat oportunitats perquè es miri d’assegurar que el seu ús sigui ètic i legal.

Des del web especialitzat Abajournal, els autors Brenda Leong i Patrick Hall exposen cinc aspectes que cal considerar al voltant de la intel·ligència artificial:

1. La intel·ligència artificial és probabilística, complexa i dinàmica. Els algoritmes d’aprenentatge automàtic són increïblement complexos, aprenen milers de milions de regles de conjunts de dades i apliquen aquestes regles per arribar a una recomanació de sortida.

2. Fer de la transparència una prioritat a processar. La complexitat dels sistemes d’IA dificulta garantir la transparència, però les organitzacions que implementen IA poden ser considerades responsables si no poden proporcionar certa informació sobre el seu procés de presa de decisions.

3. El biaix és un problema important, però no l’únic. Els sistemes d’IA aprenen analitzant milers de milions de punts de dades recopilats del món real. Aquestes dades poden ser numèriques, categòriques –com el gènere i el nivell educatiu– o basades en imatges, com fotos o vídeos. A causa que la majoria dels sistemes estan entrenats amb les dades generades pels sistemes humans existents, els biaixos que impregnen la nostra cultura també impregnen les dades. Així doncs, no hi pot haver un sistema d’IA imparcial.

La privacitat de les dades, la seguretat de la informació, la responsabilitat del producte i l’intercanvi amb tercers, així com els problemes de rendiment i transparència, són igualment crítics.

4. Hi ha més rendiment del sistema d’IA que la precisió. Si bé la qualitat i el valor d’un sistema d’IA es determinen en gran mesura per la seva precisió, això per si sol no és suficient per mesurar completament l’àmplia gamma de riscos associats a la tecnologia. Però centrar-se massa en la precisió probablement ignori la transparència, l’equitat, la privacitat i la seguretat d’un sistema.

Científics de dades o advocats, per exemple, han de treballar junts per crear maneres més sòlides de verificar el rendiment de l’IA que se centren en l’espectre complet del rendiment del món real i els danys potencials, ja sigui per amenaces a la seguretat o deficiències en la privacitat.

5. El treball dur acaba de començar. La majoria de les organitzacions que utilitzen tecnologia d’IA han d’adoptar polítiques que garanteixin el desenvolupament i ús de la tecnologia i orientació per tal que els sistemes compleixin amb les regulacions.

Alguns investigadors, professionals, periodistes, activistes i advocats han començat aquest treball de mitigació dels riscos i responsabilitats que plantegen els sistemes d’IA actuals. Les empreses estan començant a definir i implementar principis d’IA i a fer intents seriosos de diversitat i inclusió per als equips tecnològics.

_____

Esta entrada en español / This post in English / Post en français

Deixa un comentari