Els espinosos reptes que plantegen els xatbots i la IA no desapareixeran de sobte. Així ho planteja el web especialitzat en seguretat Oodaloop. I tot i que moltes persones ben informades i ben intencionades han signat una petició demanant una pausa de sis mesos en la investigació avançada d’IA, fer-ho és poc realista i poc prudent. Els problemes plantejats són complexos, enredats i difícils de resoldre perquè són increïblement enrevessats i polièdrics. Implica tantes parts interessades, dominis que s’entrecreuen i interessos en competència que fa difícil d’abordar-los. Una pausa en la investigació tecnològica no ajudarà a resoldre aquests enigmes humans.

El que hi ajudarà són els compromisos públics sistemàtics, metòdics i massius que informen els projectes pilot associats amb les implicacions empresarials i civils de la intel·ligència artificial a nivell nacional i local. Tothom es veurà afectat per les promeses i els perills potencials del canvi tecnològic en el pensament presentat pels avenços en IA. Per tant, tothom hi hauria de tenir veu, i tothom hauria de treballar per garantir que les societats estiguin ben informades i preparades per prosperar en un món que canvia ràpidament i que aviat semblarà molt diferent.
A primera vista, aturar-ne el desenvolupament pot semblar convincent donats els reptes que plantegen els grans models de llenguatge (LLM), però hi ha diverses raons per les quals aquest enfocament és defectuós. Per començar, és essencial tenir en compte la competència global. Fins i tot si totes les empreses nord-americanes acceptessin una pausa, altres països continuarien la seva investigació en IA, fent que qualsevol acord nacional o internacional fos menys efectiu.
En segon terme, la difusió de la IA ja està en marxa. L’experiment Alpaca de la Universitat de Stanford va demostrar que es podria perfeccionar perquè coincidís amb les capacitats de XatGPT-3 per menys de 600 dòlars. Aquest avenç accelera la propagació de la IA fent-la més accessible per a diversos actors, inclosos aquells amb mala intenció.
En tercer lloc, la història ens ensenya que una pausa en la IA podria conduir a un desenvolupament secret. Aturar públicament la investigació en IA podria impulsar les nacions a dur a terme investigacions avançades en IA en secret, cosa que podria tenir conseqüències nefastes per a les societats obertes. Aquest escenari és semblant al de la Convenció de l’Haia de 1899, on les grans potències van prohibir públicament els projectils plens de verí, només per continuar la seva investigació en secret, i finalment van desplegar gasos nocius durant la Primera Guerra Mundial.
De cara al futur, per abordar amb eficàcia els reptes que sorgeixen de la IA, caldria fomentar un enfocament proactiu, orientat als resultats i cooperatiu amb el públic. Els laboratoris d’idees o think tanks i les universitats poden involucrar el públic en converses sobre com treballar, viure, governar i conviure amb les tecnologies modernes que afecten tota la societat. Mitjançant la participació de veus diverses en el procés de presa de decisions, es pot abordar i resoldre millor els complexos reptes que presenta la IA a nivell local i nacional.
A més, caldria animar els líders industrials i polítics a participar en la recerca de solucions no partidistes i multisectorials per tal que la societat civil es mantingui estable. Treballant junts, es pot superar la bretxa entre els avenços tecnològics i les seves implicacions socials.
Finalment, és essencial posar en marxa plans pilot d’IA en diversos sectors, com ara el treball, l’educació, la salut, el dret i la societat civil. Caldria aprendre com es poden crear entorns civils responsables on les IA es puguin desenvolupar i desplegar de manera responsable. Aquestes iniciatives poden ajudar a comprendre i integrar millor la intel·ligència artificial a les nostres vides i assegurar-nos que el seu potencial s’aprofiti per al bé general alhora que se’n mitiguen els riscos.
_____
Esta entrada en español / This post in English / Post en français