Un grup d'experts en IA proposen un pla per evitar "l'extinció de la humanitat"
Un grup d'experts en IA proposen un pla per evitar "l'extinció de la humanitat" (iStock)

Els "riscos extrems" de la IA: quines mesures de xoc proposen els màxims experts per evitar-los

25 experts en intel·ligència artificial reclamen a governs, institucions i empreses que no es quedin enrere en investigació, regulació i inversió

Actualitzat

Fa dècades que les novel·les i les pel·lícules de ciència-ficció expliquen històries en què una intel·ligència artificial, o IA, pren el control de la civilització i esclavitza o extermina els humans que l'han creada.

Són històries fruit de la imaginació dels autors, però ara són els principals experts internacionals en IA els que afirmen que aquestes històries poden convertir-se en realitat en una o dues dècades si no es fa prou per evitar-ho.

El motiu és que l'acceleració que està vivint aquest camp en els últims anys és enorme, i preveuen que augmentarà encara més en el futur, ja que es crearan models d'IA amb "capacitats perilloses" i també prou hàbils per enganyar els sistemes de verificació més sofisticats.


"Riscos extrems" per les capacitats no previstes

Ho exposen en un article publicat aquest dilluns a la revista científica Science, en el qual reclamen que les empreses que estan desenvolupant-la siguin supervisades per institucions reguladores.

També que s'inverteixi molt més en seguretat per avançar-se i afrontar els riscos que comporta, que remarquen que poden ser "extrems", degut a les capacitats no previstes que apareixen en els models d'IA més autònoms i capaços d'aprendre.

Han titulat l'article "Gestionar els riscos extrems de la IA enmig d'un progrés ràpid", i entre altres el signen Geoffrey Hinton i Yoshua Bengio, considerats els "padrins" de l'actual IA, perquè es basa en la seva feina.


La IA sense control i l'extinció de la humanitat

Han publicat l'article just abans de la reunió internacional sobre la seguretat en l'IA que es fa a Corea del Sud aquest dimarts i aquest dimecres, i que és la continuació de la de fa mig any al Regne Unit.

Els autors no s'estalvien d'esmentar riscos apocalíptics, com que "l'avenç sense control de la IA podria culminar amb una pèrdua a gran escala de vides i de la biosfera, i la marginació o l'extinció de la humanitat".

També que els models futurs de IA "amenacen d'amplificar les injustícies socials, erosionar l'estabilitat social, permetre l'activitat criminal a gran escala i facilitar la guerra automatitzada".

"La investigació sobre seguretat està endarrerida"

Afirmen que "no estem en el bon camí per gestionar bé aquests riscos" i ho argumenten dient que gairebé no es fa recerca en seguretat, i que menys del 3% de les publicacions s'hi dediquen:

"La investigació sobre seguretat de la IA està endarrerida, les actuals iniciatives de governança no disposen de mecanismes i institucions per prevenir el mal ús i la imprudència i amb prou feines aborden els sistemes autònoms." 

En aquest sentit, reclamen que es faci com en altres àmbits tecnològics, com l'aviació, els medicaments, l'energia nuclear o els sistemes financers, en què hi ha protocols molt estrictes de seguretat i una supervisió exhaustiva per part de governs i d'organismes internacionals.


Cal invertir un 33% en seguretat

Neguen, per tant, que els mecanismes previstos en les legislacions que impulsen, per exemple, els Estats Units i la Unió Europea, puguin fer front als enormes riscos que comporta la futura IA, i tampoc serveixen les declaracions voluntàries que estan fent les empreses.

Per això reclamen que s'inverteixi almenys un terç dels pressupostos a fer recerca per desenvolupar sistemes que siguin capaços de supervisar de manera eficaç les IA més intel·ligents.

També que es faci molta recerca que permeti saber com prenen les decisions els models d'IA, que ara com ara són "caixes negres" en les quals no se sap del cert què està passant.

Algun dia la intel·ligència artificial sabrà fer les preguntes pertinents?

Apareixen espontàniament "capacitats perilloses"

En aquest sentit, reclamen recerca dedicada a predir i detectar "les capacitats perilloses imprevistes que apareixen espontàniament" en les IA, és a dir, capacitats que els programadors no han buscat ni previst.

En general, la recerca que reclamen ha de servir per desenvolupar els models d'IA de manera segura, i tenint sempre eines per garantir que no s'escapen del control humà.

Per poder fer tot això, els autors reclamen la creació d'institucions públiques que tinguin un "accés complet" a la feina de les empreses per poder avaluar si s'estan complint les directrius.


Les empreses han de ser les responsables

També que són les empreses les que han de provar que els models d'IA són segurs, i que per això cal que siguin responsables jurídics directes dels danys que puguin provocar.

En definitiva, els autors reclamen el replantejament de la gestió de tot el sector de la IA a escala mundial si es volen evitar els riscos que preveuen que poden aparèixer a causa de l'acceleració que està vivint.

Entre els autors de l'article hi ha acadèmics d'alt nivell del ram al Regne Unit, la Xina i els Estats Units, i també el Premi Nobel d'Economia Daniel Kahneman, mort recentment, i l'historiador Yuval Noah Harari. 

Proposen un pla complet

No és la primera vegada que un grup de científics alerta dels perills imminents que comporta el desenvolupament vertiginós de la IA: fa un any, uns 350 van signar un micromanifest que reclamava "mitigar el risc d'extinció".

Poques setmanes abans va ser una carta signada per un miler de científics la que reclamava aturar "la cursa sense control" de la IA, poc després de l'aparició de ChatGPT4, tots dos signats també per alguns dels de l'article aparegut ara.

Però aquest article va més enllà d'emetre una alerta, i proposa un pla complet i concret que creuen que és l'òptim per evitar els riscos que cada vegada més científics del ram consideren que ja no pertanyen a la ciència-ficció.

 

 

ARXIVAT A:
Recerca científicaIntel·ligència artificial
ÀUDIOS RELACIONATS
Anar al contingut