Aunque la inteligencia artificial ha sido objeto de investigación académica desde 1950 y se ha utilizado comercialmente en algunas industrias durante décadas, todavía está en mantillas en todos los sectores.

La rápida adopción de esta tecnología, junto con los problemas únicos de privacidad, seguridad y responsabilidad que tiene asociados, ha creado oportunidades para intentar asegurar que su uso sea ético y legal.
Desde la web especializada Abajournal, los autores Brenda Leong y Patrick Hall exponen cinco aspectos que hay que considerar en torno a la inteligencia artificial:
1. La inteligencia artificial es probabilística, compleja y dinámica. Los algoritmos de aprendizaje automático son increíblemente complejos, aprenden miles de millones de reglas de conjuntos de datos y aplican estas reglas para llegar a una recomendación de salida.
2. Hacer de la transparencia una prioridad a procesar. La complejidad de los sistemas de IA dificulta garantizar la transparencia, pero las organizaciones que implementan IA pueden ser consideradas responsables si no pueden proporcionar cierta información sobre su proceso de toma de decisiones.
3. El sesgo es un problema importante, pero no el único. Los sistemas de IA aprenden analizando miles de millones de puntos de datos recopilados del mundo real. Estos datos pueden ser numéricos, categóricos –como el género y el nivel educativo– o basados en imágenes, como fotos o vídeos. Dado que la mayoría de los sistemas están entrenados con los datos generados por los sistemas humanos existentes, los sesgos que impregnan nuestra cultura también impregnan los datos. Así pues, no puede existir un sistema de IA imparcial.
La privacidad de los datos, la seguridad de la información, la responsabilidad del producto y el intercambio con terceros, así como los problemas de rendimiento y transparencia, son igualmente críticos.
4. Hay más rendimiento del sistema de IA que la precisión. Si bien la calidad y el valor de un sistema de IA se determinan en gran medida por su precisión, eso por sí solo no es suficiente para medir completamente la amplia gama de riesgos asociados a la tecnología. Pero centrarse demasiado en la precisión probablemente ignore la transparencia, la equidad, la privacidad y la seguridad de un sistema.
Científicos de datos o abogados, por ejemplo, tienen que trabajar juntos para crear maneras más sólidas de verificar el rendimiento de la IA que se centran en el espectro completo del rendimiento del mundo real y los daños potenciales, ya sea por amenazas a la seguridad o deficiencias en la privacidad.
5. El trabajo duro acaba de empezar. La mayoría de las organizaciones que utilizan tecnología de IA tienen que adoptar políticas que garanticen el desarrollo y uso de la tecnología y orientación para que los sistemas cumplan con las regulaciones.
Algunos investigadores, profesionales, periodistas, activistas y abogados han empezado este trabajo de mitigación de los riesgos y responsabilidades que plantean los sistemas de IA actuales. Las empresas empiezan a definir e implementar principios de IA y a hacer serios intentos de diversidad e inclusión para los equipos tecnológicos.
_____
Aquest apunt en català / This post in English / Post en français