Som una Fundació que exercim el periodisme en obert, sense murs de pagament. Però no ho podem fer sols, com expliquem en aquest editorial.
Clica aquí i ajuda'ns!
Cada vegada és més difícil escriure un article divulgatiu sobre Intel·ligència Artificial. Els progressos tècnics són tan ràpids que cada vegada costa més seguir-ne la pista.
A més, l’auge dels Transformadors (la T de ChatGPT) com a arquitectura cognitiva neuronal es caracteritza per un comportament insòlit que explica les inversions desmesurades que s’han fet en els grans models de llenguatge i, en general, en la Intel·ligència Artificial generativa. De manera molt resumida, aquest comportament consisteix en l’aparició de noves capacitats sense necessitat de canviar de metodologia, ni d’algorisme, ni d’arquitectura neuronal: només cal incrementar la potència computacional, la qual cosa implica que els models tenen una quantitat més elevada de paràmetres. A més paràmetres, més capacitats, sense cap necessitat de fer tota la tasca d’investigació que abans era necessària per desenvolupar algorismes per a noves tasques.
D’aquesta manera, la inversió en l’increment de la potència de càlcul és raonablement segura, per dos motius principals: en primer lloc, la simple inversió en més xips és molt més previsible que la complexa inversió en la investigació de les arquitectures cognitives i nous algorismes; i en segon lloc, també es preveu que les noves capacitats obtingudes permetin atreure cada vegada més clients. Tanmateix, ni tan sols els gegants tecnològics no estan a recer de les innovacions disruptives, i la recent irrupció de la xinesa DeepSeek, tant o més sobtada que l’eclosió de ChatGPT, però amb més èmfasi en els models públicament disponibles i amb una reducció dràstica de la quantitat de xips necessària, ha representat un bon ensurt borsari per al fabricant de xips NVIDIA.
Això fins i tot es pot interpretar en clau geopolítica, ja que si els Estats Units perden interès en la infraestructura taiwanesa de fabricació de xips, Taiwan quedarà més desprotegida davant de les aspiracions expansionistes de la Xina. Malgrat tot, l’aparició de DeepSeek també pot comportar alguns beneficis per a l’usuari comú, en demostrar que la Intel·ligència Artificial no té necessàriament perquè resultar-li molt cara. També ha estat un recordatori que la investigació científica no és exclusiva de grans organitzacions, i del fet que les grans empreses no podien demostrar el potencial de la IA sense posar en evidència al mateix temps que el seu funcionament era analitzable, reproductible, o fins i tot millorable. És a dir, les condicions necessàries per fer negoci amb el ChatGPT també eren les condicions que feien inevitable, tard o d’hora, la seva replicació, o fins i tot les oportunitats per a la seva superació.
Una biblioteca freda i immensa, gestionada per robots
D’aquesta manera, la cursa per la IA entre els Estats Units i la Xina en el context d’una mena de guerra freda contemporània s’ha convertit en l’equivalent de la cursa espacial entre els Estats Units i la Unió Soviètica durant la Guerra Freda posterior a la Segona Guerra Mundial. Crec que es pot afirmar sense por d’equivocar-se que aquesta nova «cursa espacial» és molt més complexa, perquè ja no es tracta de colonitzar un cos celeste àrid, estèril, sense atmosfera i amb una baixa gravetat: es tracta de la recolonització de l’espai de les idees que les ments humanes ja havien colonitzat abans, però ara per part d’unes noves intel·ligències per a qui tots els punts de l’espai de les idees són exactament iguals, incolors, inodors, insípids, igualment accessibles i navegables. Una biblioteca freda i immensa, gestionada per robots. Un espai amb milers de milions de dimensions i alta resolució.
És per això que un dels trucs que han descobert els nous prompt engineers (els flamants interrogadors humans de la IA) per aconseguir millors resultats consisteix en introduir primerament un text que li doni pistes al model de llenguatge sobre la temàtica de la qual s’està parlant, i després la pregunta que es volia fer sobre aquesta temàtica. Els resultats són molt millors que si es fa directament una sola pregunta. Això té una explicació molt senzilla en termes de la metàfora de l’espai de les idees: l’espai és tan gran, i les IAs el perceben amb tanta resolució, que cal una primera orientació respecte a quina és l’àrea de l’espai de les idees on cal adreçar-se; una vegada la IA ja està situada en la zona correcta, podrà trobar molt més fàcilment la informació rellevant.
En canvi, per als éssers humans l’espai de les idees és més petit, i la major part dels seus continguts són significatius. No tots els punts de l’espai de les idees són idèntics, sinó que tenen cromatisme, evocació, i connotació emocional.
Part de la tasca dels entrenadors de les noves IAs, i també dels usuaris, consisteix en transmetre a aquests models les nostres connotacions emocionals. Això no vol dir que aquests models tinguin emocions, ni la capacitat d’experimentar-ne, però potser sí que les podran «modelitzar» prou bé per facilitar una comunicació fluida. Potser també per manipular-nos. Però em preocupa molt més la manipulació d’humans per part d’humans que la manipulació d’humans per part de les màquines.
Potser haurem de tornar a valorar l’oratòria, la retòrica, la dialèctica i la lògica
Què pot fer un professor si sospita que un alumne li ha presentat un treball fet amb ChatGPT? Al meu entendre, el mateix que si sospita que el treball li ha fet el seu germà gran. Llegir-se el text amb mentalitat inquisitiva, fer-li preguntes a l’alumne, potser fer-li escriure un resum a l’aula (sense accés a mòbils ni altres dispositius). Una opció és permetre l’ús de ChatGPT, però fent que l’entrega dels treballs vagi acompanyada d’una presentació oral on professor i alumnes puguin fer preguntes a l’autor del treball, per assegurar-se que realment l’autor ha entès el seu propi treball. Potser haurem de tornar a valorar l’oratòria, la retòrica, la dialèctica i la lògica. Potser aquesta és una valuosa oportunitat de recuperar coses que havíem perdut, de tornar a l’àgora humana. Quina ironia, oi, si fossin unes noves màquines intel·ligents les que ens impel·lissin a recuperar aquelles coses?
El que em pregunto ara és si les directives dels centres d’ensenyament, i les institucions educatives, estarien disposades a prendre aquesta mena de mesures. Ja no diguem les associacions de pares. Com els hi fem entendre que potser és l’hora de treballar la conversa i el debat? Però de debò? Això potser serà més difícil que la simple (o no tan simple) prohibició dels mòbils fins als setze anys, o mesures similars.
Un argument a favor de recuperar l’èmfasi en la comunicació humana directa, cara a cara, o al voltant d’una mateixa taula, és la creixent impossibilitat d’identificar com a tals els continguts creats per la Intel·ligència Artificial. Aquesta és una de les novetats més interessants i més inquietants que s’han produÏt en temps recents, i precisament a la seu d’OpenAI, l’empresa creadora del ChatGPT, ni més ni menys.
El cas és que OpenAI va contractar Scott Aaronson, expert en complexitat computacional i una de les ments més brillants del món, perquè estudiés la manera de dotar les IAs d’una «marca d’aigua» que les identifiqués. La idea consisteix en programar les IAs per tal que els seus continguts tinguin algunes regularitats estadístiques detectables. El dictamen de Scott Aaronson va ser que això era possible, però no pas amb una garantia del 100% (al cap i a la fi, es tracta de tècniques probabilístiques). En particular, aquest tipus de marca d’aigua no seria gaire útil en el cas de textos de poca longitud, encara que la falsificació de textos breus en principi seria menys preocupant que la de textos llargs, i com més llarg fos el text més segura seria l’anàlisi estadística. Per tant, el problema estava en principi resolt, dins d’uns paràmetres realistes.
Després de dos anys de treball, el contracte va finalitzar, i OpenAI li va comunicar a Scott Aaronson que el projecte de la marca d’aigua quedava ajornat indefinidament i de moment no es portaria a terme. Dit d’una altra manera, l’empresa del famós directiu Sam Altman no estava interessada en dur a la pràctica la identificació obligatòria dels continguts generats per grans models de llenguatge.
I, òbviament, de la moratòria proposada fa més d’un any per diversos científics i experts en IA no se n’ha sabut res més, tampoc.
Per tant, ara seria el torn de les institucions. Als Estats Units, amb la situació actual de domini de les grans tecnològiques i la, diguem-ne, infiltració d’Elon Musk en els mecanismes de poder, no és previsible que les institucions facin gran cosa per imposar la marca d’aigua a les IAs, i ara amb la competència dels models xinesos potser encara menys. Les institucions de la Unió Europea semblen més sensibilitzades pel que fa a aquestes qüestions, però almenys jo no he sentit a parlar de cap projecte europeu equiparable al de Scott Aaronson. Per tant, és l’hora de tornar a l’àgora humana.