¿Una pausa en el desarrollo de la IA es la respuesta?

Los espinosos retos que plantean los chatbots y la IA no desaparecerán de repente. Así lo plantea la web especializada en seguridad Oodaloop. Y aunque muchas personas bien informadas y bien intencionadas han firmado una petición pidiendo una pausa de seis meses en la investigación avanzada de IA, hacerlo es poco realista y poco prudente. Los problemas planteados son complejos, enredados y difíciles de resolver porque son increíblemente enrevesados y poliédricos. Implica a tantas partes interesadas, dominios que se entrecruzan e intereses en competencia que dificulta abordarlos. Una pausa en la investigación tecnológica no ayudará a resolver estos enigmas humanos.

Lo que ayudará son los compromisos públicos sistemáticos, metódicos y masivos que informan los proyectos piloto asociados con las implicaciones empresariales y civiles de la inteligencia artificial a nivel nacional y local. Todo el mundo se verá afectado por las promesas y los peligros potenciales del cambio tecnológico en el pensamiento presentado por los avances en IA. Por tanto, todo el mundo debería tener voz, y todo el mundo debería trabajar para garantizar que las sociedades estén bien informadas y preparadas para prosperar en un mundo que cambia rápidamente y que pronto parecerá muy distinto.

A primera vista, detener su desarrollo puede parecer convincente dados los retos que plantean los grandes modelos de lenguaje (LLM), pero existen varias razones por las que este enfoque es defectuoso. Para empezar, es esencial tener en cuenta la competencia global. Incluso si todas las empresas estadounidenses aceptaran una pausa, otros países continuarían su investigación en IA, haciendo que cualquier acuerdo nacional o internacional fuera menos efectivo.

En segundo término, la difusión de la IA está ya en marcha. El experimento Alpaca de la Universidad de Stanford demostró que podría perfeccionarse para que coincidiera con las capacidades de ChatGPT-3 por menos de 600 dólares. Este avance acelera la propagación de la IA haciéndola más accesible para varios actores, incluidos aquellos con mala intención.

En tercer lugar, la historia nos enseña que una pausa en la IA podría conducir a un desarrollo secreto. Detener públicamente la investigación en IA podría impulsar a las naciones a llevar a cabo investigaciones avanzadas en IA en secreto, lo que podría tener consecuencias nefastas para las sociedades abiertas. Este escenario es similar al de la Convención de La Haya de 1899, donde las grandes potencias prohibieron públicamente los proyectiles con veneno, solo para continuar su investigación en secreto, y finalmente desplegaron gases nocivos durante la Primera Guerra Mundial.

De cara al futuro, para abordar con eficacia los retos que surgen de la IA, debería fomentarse un enfoque proactivo, orientado a los resultados y cooperativo con el público. Los laboratorios de ideas o think tanks y las universidades pueden involucrar al público en conversaciones sobre cómo trabajar, vivir, gobernar y convivir con las tecnologías modernas que afectan a toda la sociedad. Mediante la participación de voces diversas en el proceso de toma de decisiones, se puede abordar y resolver mejor los complejos retos que presenta la IA a nivel local y nacional.

Además, habría que animar a los líderes industriales y políticos a participar en la búsqueda de soluciones no partidistas y multisectoriales para que la sociedad civil se mantenga estable. Trabajando juntos, puede superarse la brecha entre los avances tecnológicos y sus implicaciones sociales.

Por último, es esencial poner en marcha planes piloto de IA en varios sectores, como el trabajo, la educación, la salud, el derecho y la sociedad civil. Habría que aprender cómo se pueden crear entornos civiles responsables donde las IA se puedan desarrollar y desplegar de manera responsable. Estas iniciativas pueden ayudar a comprender e integrar mejor la inteligencia artificial en nuestras vidas, asegurándonos de que su potencial se aproveche para el bien general a la vez que se mitigan los riesgos.

_____

Aquest apunt en català / This post in English / Post en français

Leave a Reply