07.09.2024 - 21:40
|
Actualització: 07.09.2024 - 21:44
Dijous el Consell d’Europa va anunciar que s’obria el període de signatura de la convenció marc sobre intel·ligència artificial. Els primers a ratificar-lo han estat els estats membres de la UE, els EUA, el Regne Unit, Andorra, Geòrgia, Islàndia, Noruega, Moldàvia, San Marino i Israel. El tractat internacional ha estat negociat d’ençà del 2019 per 57 estats: els 46 integrants del Consell d’Europa (27 dels quals són membres de la UE) més 11 estats no membres (entre els quals hi ha el Vaticà, l’Argentina, Austràlia, el Japó i Mèxic), alguns dels quals encara l’han de ratificar. En la redacció d’aquest primer tractat internacional sobre intel·ligència artificial també hi han participat 68 representants de la societat civil, la indústria i l’acadèmia. Els signants han explicat que l’objectiu del tractat era que els sistemes d’intel·ligència artificial respectessin els drets humans, la democràcia i l’estat de dret. “Hem de garantir que l’auge de la IA respecti els nostres estàndards, en lloc de minar-los”, ha defensat la croata Marija Pejčinović, presidenta del Consell d’Europa. El nou tractat actuarà de referència per a aquells estats que vulguin fer una regulació més profunda, com ja ha fet la UE, on a l’agost va entrar en vigor una llei específica sobre IA.
Els objectius del nou acord i l’amenaça a les societats democràtiques
El nou tractat inclou tant les autoritats públiques com els actors privats i és basat en un seguit de principis, procediments i requeriments. Així, entre els principis fonamentals, els estats signants han de garantir que la intel·ligència artificial respecti la dignitat humana, l’autonomia individual, la igualtat, la no-discriminació, el respecte per la privadesa i la protecció de dades personals, la transparència i la supervisió, la rendició de comptes i la responsabilitat, la fiabilitat i una innovació segura. Per fer-los complir, caldrà que els signants estableixin mecanismes d’anàlisi de riscs de la intel·ligència artificial, assessorament sobre el seu impacte i mecanismes per a informar els implicats i donar-los garanties per fer respectar els seus drets. Tanmateix, els analistes han apuntat que era un text molt genèric, de principis generals, basat en el monitoratge sense mesures coercitives per a fer-ho complir. Sense procediments tècnics definits, el text aprovat servirà com a marc general, d’inspiració, per a les legislacions que pugui desenvolupar d’ara endavant cada estat, per a una tecnologia que és encara a les beceroles d’aplicar-se en massa a totes les esferes de la nostra vida.
De fet, és tan nova, que hi haurà d’haver un aprenentatge entre tots els actors implicats per veure l’efectivitat de les mesures acordades i els inconvenients que pot originar. Molts experts també han expressat preocupació pels impactes que pot tenir sobre les llibertats civils, com ara la llibertat d’expressió i fins i tot artística. La detenció del màxim responsable de Telegram a França, la prohibició de X al Brasil per un jutge, i les detencions al Regne Unit de persones que havien piulat o repiulat missatges a les xarxes socials relacionats amb els aldarulls causats per l’assassinat de dues nenes, atribuït falsament a un sol·licitant d’asil, mostren com pot resultar de difícil (i polèmica) la regulació del món digital. Les noves tecnologies, especialment les xarxes socials, han agafat prou volada per a desestabilitzar socialment països sencers, amb el perill de ser promogudes per potències estrangeres hostils (tothom té al cap Rússia o la Xina) o grups extremistes dins els països mateixos. És per això que uns quants estats elaboren legislació per regular totes aquestes noves tecnologies.
El precedent europeu: la llei de la IA és en vigor de l’agost ençà
En aquesta línia, la UE ha estat pionera a escala mundial. El Parlament Europeu va aprovar la llei d’intel·ligència artificial al març, ratificada pel Consell al maig. Aquest agost la nova normativa han entrat en vigor, tot i que s’anirà desplegant progressivament fins al maig del 2026, quan tindrà una aplicació plena. Les institucions europees ressalten els beneficis que la intel·ligència artificial pot dur a les societats europees, com ara una sanitat més bona, un transport més segur i menys contaminant, unes fàbriques més eficients i una energia més barata i sostenible. Tanmateix, la nova llei europea considera que hi ha un seguit de riscs que cal regular. Entre els “riscs inacceptables” apuntats per les institucions europees hi ha la manipulació de persones o grups vulnerables. Com ara joguines parlants que puguin encoratjar comportaments perillosos entre els infants. O emprar la IA per establir una puntuació social i classificar la gent segons el seu comportament, l’estatus socio-econòmic o les característiques personals, tal com fa la Xina de fa anys, i contribuir així a un control totalitari de la societat.
També es considera inacceptable la categorització i identificació biomètrica de les persones, incloent-hi els sistemes remots i en temps real, com ara el reconeixement facial, una tecnologia molt polèmica. Els sistemes d’IA que entrin dins aquesta categoria “inacceptable” seran prohibits sis mesos després de l’entrada en vigor de la normativa, és a dir, a partir de gener que ve. Tanmateix, la UE admet que es permetran “excepcions” per a finalitats d’aplicació de lleis. Així, els sistemes de reconeixement facial en temps real es podran permetre en un nombre limitat de casos greus, i en el cas d’una identificació biomètrica “posterior”, passat un temps significatiu, es permetran per perseguir delictes greus i tan sols amb aprovació judicial. Dit en unes altres paraules: el supermercat de la cantonada no pot fer servir reconeixement facial per a fer-nos ofertes personalitzades, però els cossos policíacs sí que podran fer-ne ús per controlar si els ciutadans cometen uns delictes greus encara per definir.
La UE ha establert una segona categoria, la de “riscs elevats”. Corresponen als sistemes d’intel·ligència artificial que perjudiquen la seguretat o els drets fonamentals. Els divideix en dues subcategories. La primera són els que afecten la normativa general europea de seguretat dels productes, que inclou de joguines a cotxes, passant per avions, serveis mèdics o ascensors. És a dir, que la IA no provoqui accidents o ens recomani un tractament mèdic que ens acabi perjudicant. La segona subcategoria vetlla per un ús perjudicial de la IA en àrees específiques. Es tracta dels sistemes d’intel·ligència artificial que es facin servir en la gestió i operació d’infrastructures crítiques i en l’educació i la formació vocacional; en la gestió dels treballadors, en la contractació de personal o en l’alta d’autònom; en l’accés i gaudi de serveis essencials, siguin públics o privats; en l’aplicació de la llei, en control de fronteres i en la gestió de la immigració i les peticions d’asil.
Els sistemes d’intel·ligència artificial que serveixin per a l’assistència per a la interpretació i aplicació de la llei també entren en la categoria d’alt risc. Tots els sistemes d’intel·ligència artificial d’alt risc hauran de registrar-se en una base de dades europea per ser avaluats abans d’entrar al mercat i durant tot el seu cicle de vida. Els ciutadans tindran dret de presentar queixes sobre aquests sistemes en institucions estatals designades específicament. En canvi, la nova legislació europea considera que els sistemes d’IA generativa, com ara el popular ChatGPT, no entren en la categoria d’alt risc. Tanmateix, hauran de complir les lleis de transparència i protecció de la propietat intel·lectual, informar que és contingut generat per intel·ligència artificial, dissenyar els models per evitar que generin contingut il·legal i publicar una llista de les dades amb propietat intel·lectual que s’han fet servir per entrenar dels models.
On és límit?
La llei sobre intel·ligència artificial és una pota més en el desplegament legislatiu de la UE per a regular la vida digital i s’afegeix a la llei de serveis digitals i al reglament general de protecció de dades, que ja ha valgut multes milionàries a multinacionals tecnològiques. La darrera, Uber, per haver transferit il·legalment dades de conductors de la seva plataforma (permisos de conduir, fotografies i adreces, per exemple) de la UE als EUA, país on no hi ha les garanties que proporciona la legislació europea. Això ha fet que les multinacionals creïn centres de dades radicats a Europa per complir la legislació de la UE. En l’àmbit de la IA, pot acabar passant igualment. Unes quantes companyies han dit que els seus sistemes d’intel·ligència artificial ara per ara no es desplegarien al nostre continent mentre no acabessin de tenir clares les implicacions de la legislació europea, per tal d’evitar sancions econòmiques.
El principi fonamental en què és basat aquest desplegament normatiu és que als països democràtics les institucions de l’estat garanteixen la llibertat dels ciutadans i els valors al voltant dels quals es regeix una societat. En aquesta línia, les empreses i els mercats en general s’han d’adaptar a les normes estatals, que són justes i triades per tots els ciutadans. Tanmateix, tot i que en general la majoria de gent hi pugui estar d’acord, alguns analistes i especialistes han mostrat preocupació per aquest idealisme. Els estats democràtics són lluny de ser perfectes, hi ha governs europeus amb tics autoritaris i estats com l’espanyol i el francès que fa segles que reprimeixen les seves minories nacionals, com ara la catalana, també en democràcia. Totes aquestes regulacions serviran per a donar més llibertat als ciutadans, especialment als grups que pateixen repressió, gràcies a les noves tecnologies? O, en canvi, donaran més poders als estats per atacar la dissidència i els grups nacionals amb unes eines fins ara inimaginables?
Aquestes darreres setmanes hem vist casos que poden donar la raó a aquestes preocupacions. Així, tenim el cas de la detenció a França del màxim responsable de Telegram, acusat de no cooperar amb les autoritats europees per facilitar dades sobre activitats presumptament il·legals que es desenvolupen a la plataforma (una de les excepcions de la nova llei d’intel·ligència artificial, com hem vist). Cal dir que el problema particular de Telegram és que no xifra per defecte les converses privades, i mai les dels grups, per la qual cosa la companyia hi té accés i les pot passar a tercers. Unes altres plataformes de missatgeria, com ara Signal i WhatsApp, xifren de punt a punt totes les converses per defecte, de manera que no hi tindrien accés encara que ho volguessin. Apple ha seguit la mateixa estratègia, després de requeriments del govern americà que posaven en perill la privadesa dels seus usuaris. NordVPN i més serveis de VPN, que es fan servir especialment en règims autoritaris i dictatorials, tampoc no registren les connexions dels seus usuaris. D’aquesta manera, totes aquestes empreses poden argumentar davant les autoritats que no tenen manera tècnica d’obtenir cap dada perquè no en tenen cap. Tot i això, sembla que alguns polítics volen prohibir el xifratge de punt a punt amb l’argument de la seguretat. De moment no han reeixit.
Igualment, ha estat un element de preocupació de moltes analistes i experts les detencions a casa seva de ciutadans britànics per haver piulat, o senzillament haver repiulat una publicació que ni tan sols és seva, desinformació que ha contribuït a protestes violentes, segons les autoritats. On és límit? La desinformació també és una de les batalles de les institucions europees, pel seu potencial desestabilitzador, aprofitat tant per grups polítics extremistes a esquerra i dreta de l’espectre ideològic, com per potències hostils estrangeres que vulguin influir en les societats democràtiques (particularment Rússia en el context actual). N’hi ha moltes derivades, atès que els mitjans de comunicació, les institucions i els polítics mateixos han propagat desinformació més d’una vegada. En la ment de molta gent hi ha el període històric de fa tot just un segle, quan els nous mitjans de comunicació d’aleshores (premsa, ràdio i televisió), facilitats per una onada d’innovació tecnològica equivalent a l’actual, foren aprofitats per ideologies extremes per manipular l’opinió pública i prendre el poder, cosa que acabà desembocant en la Segona Guerra Mundial.
Un exemple que pot resultat banal d’entrada: fa pocs dies TV3 va emetre una notícia d’un cotxe cremant a l’autopista, prop de la Jonquera, que deia que era un cotxe elèctric. De seguida molta gent va fer notar a les xarxes socials que el vehicle que s’hi veia era de combustió i no pas elèctric. Acusaven el mitjà públic de contribuir al posicionament de la població contra els cotxes elèctrics propagant desinformació. Catalunya va molt endarrerida en aquest front i això té efectes indirectes: s’accentua el canvi climàtic i es perpetua la contaminació de les ciutats, que provoquen morts i grans despeses econòmiques. I també se situa a favor dels interessos dels fabricants europeus de cotxes (particularment de Seat), refractaris a l’electrificació i en contra del potent sector elèctric xinès i Tesla, que amenacen les vendes de les marques europees.
Segurament estirem massa la corda amb aquest exemple, però quan es pensa en desinformació que pot desestabilitzar les societats, es pensa en aquesta mena d’accions que, d’entrada, semblen banals, però que responen a uns interessos particulars. Si una democràcia pot detenir algú per haver repiulat informació falsa, s’ha de fer igual amb periodistes o polítics que tenen molt més impacte sobre l’opinió pública? On és el límit? Els usuaris de les xarxes socials no es poden equivocar, també? O no tenen cap responsabilitat sobre allò que hi publiquen? Les democràcies sabran corregir les errades que vagin cometent o cada vegada s’assemblaran més als règims autoritaris i s’hi inspiraran? Tot apunta que el debat s’intensificarà aquests mesos i anys vinents, especialment a mesura que la intel·ligència artificial sigui com més vagi més present a la nostra vida diària.