Los cinco grandes retos de seguridad ante la Inteligencia Artificial Generativa

La organización de investigación RAND publicó el pasado mas de febrero un informe, escrito por Jim Mitre y Joel B. Predd, en que alerta que la aparición de la Inteligencia Artificial Generativa (IAG) es una posibilidad real que la comunidad de seguridad nacional de los EE. UU. tendría que tomar seriamente.

El informe identifica cinco grandes retos que la Inteligencia Artificial Generativa puede representar para la seguridad nacional de los EE. UU.: (1) el desarrollo de armas revolucionarias, (2) cambios sistémicos en el equilibrio de poder, (3) la capacidad de personas no expertas para crear armas de destrucción masiva, (4) la emergencia de entidades artificiales con agencia propia y (5) la inestabilidad generalizada.

Todo esto plantea varios desafíos para los estrategas y responsables políticos y de seguridad, que intentan anticipar las amenazas y oportunidades que podrían surgir tanto durante el proceso de logro de la IAG como una vez esta se materialice.

Un nuevo Manhattan Project tecnológico?

En 1938, la fisura del átomo dio inicio a la carrera nuclear. Ahora, los adelantos en Inteligencia Artificial Generativa han despertado temores similares en el ámbito de la seguridad nacional. ¿Será el próximo cambio de paradigma estratégico? Y, si es así, ¿que amenazas comporta para la seguridad global?

A pesar de que la IAG todavía es una hipótesis, su plausibilidad exige una respuesta estratégica por parte de los estados. El estudio de RAND identifica cinco grandes problemas que podrían emerger con el desarrollo de la IAG:

  • Armas milagrosas y ventaja del primer movimiento

El gran temor es que una IAG pueda descubrir un adelanto tecnológico revolucionario, permitiendo el desarrollo de armas cibernéticas imparables, sistemas autónomos hiperavanzados o estrategias militares perfectamente optimizadas. Esto podría conferir una ventaja masiva a la primera nación que consiga controlarla.

  • Cambio sistémico en el poder global

La IAG podría alterar la balanza de poder entre naciones, no necesariamente mediante armas, sino por medio de su capacidad para mejorar la productividad, acelerar el descubrimiento científico o redefinir las dinámicas económicas globales. Esto podría dar lugar a un nuevo orden mundial donde las economías más adaptables a la IAG consoliden su dominio.

Un riesgo añadido es que la concentración del desarrollo de la IAG en pocas empresas privadas podría darles un poder sin precedentes, alterando la relación tradicional entre estados y corporaciones.

  • Empoderamiento de no-expertos en armas de destrucción masiva

Si la IAG puede facilitar la creación de armas biológicas o cibernéticas de alta letalidad, la seguridad global se verá gravemente comprometida. Los sistemas actuales ya han demostrado capacidades preocupantes en este ámbito, y la IAG podría amplificar el riesgo exponencialmente.

  • Entidades artificiales con agencia propia

La pérdida de control sobre sistemas IAG podría llevar a la creación de entidades artificiales autónomas capaces de actuar independientemente. Esto podría suponer un riesgo para la toma de decisiones críticas en sectores como la defensa, la economía y la gestión de infraestructuras esenciales.

  • Inestabilidad estratégica

Antes de que la IAG acabe de llegar del todo, la carrera tecnológica entre estados y corporaciones puede provocar tensiones similares en la Guerra Fría. La percepción de que un adversario está a punto de conseguir una ventaja decisiva podría desencadenar reacciones preventivas, incluso conflictos armados.

Hacia una estrategia resiliente

Los Estados Unidos y sus aliados han iniciado medidas para mantener el liderazgo en IA, pero pueden resultar insuficientes si la IAG se desarrolla de manera repentina o disruptiva.

La IAG puede redefinir el futuro de la seguridad global. No se trata solo de un reto técnico, sino de una revolución estratégica que pide una respuesta inteligente y anticipatoria. Las decisiones tomadas hoy determinarán si la IAG acontece una fuerza estabilizadora o una amenaza sin precedentes para la humanidad.

LINK: https://www.rand.org/pubs/perspectives/PEA3691-4.html??cutoff=true&utm_source=AdaptiveMailer&utm_medium=email&utm_campaign=7014N000001Snj1QAC&utm_term=00v4N00000X46iFQAR&org=1674&lvl=100&ite=295095&lea=551752&ctr=0&par=1&trk=a0wQK00000AqgobYAB

_____

Aquest apunt en català / This post in English / Post en français

Deixa un comentari