07.05.2023 - 21:40
|
Actualització: 07.05.2023 - 22:38
No hi ha dubte que ChatGPT, la nau capitana de la companyia d’intel·ligència artificial OpenAI, ha estat la gran sensació d’aquests darrers mesos a internet. De fet, aquest xatbot s’ha convertit en l’aplicació que més de pressa ha arribat als cent milions d’usuaris actius, i ha desencadenat una competició ferotge entre els grans gegants tecnològics pel control de la intel·ligència artificial. Tanmateix, aquest èxit sense precedents no ha impedit que siguin com més va més els experts que qüestionen el tractament que l’eina fa de les dades personals dels usuaris i, fins i tot, d’aquells que no hi tenen cap vinculació. Els primers mesos de funcionament de ChatGPT han estat marcats per inconvenients de privadesa de tota mena, incloent-hi fuites de seguretat, que han empès governs d’arreu del món a investigar una eina que alguns experts ja no dubten a descriure com un “malson per a la privadesa”.
Una eina desenvolupada sense el consentiment dels usuaris
ChatGPT, a grans trets, és una intel·ligència artificial que funciona mitjançant l’anomenat aprenentatge per reforç: com més informació tingui el sistema, més bo esdevindrà a l’hora de detectar patrons lingüístics i, per tant, més coherents i sofisticats seran els continguts que generi.
Per això, durant el procés de desenvolupament de ChatGPT, OpenAI va “alimentar” la intel·ligència artificial amb una quantitat ingent d’informació (uns 300.000 milions de paraules, concretament). Ara, aquestes dades no provenien dels arxius de la companyia sinó de tots els racons d’internet, d’articles de premsa a publicacions en blocs personals, passant per piulets i vídeos de YouTube.
OpenAI no va demanar mai autorització als propietaris de tota aquesta informació per poder-la emprar en “l’entrenament” (desenvolupament) de ChatGPT. Sense saber-ho, milions d’usuaris han contribuït amb les seves dades personals a aquest desenvolupament sense que ningú, en cap moment, els hagi demanat el consentiment. Encara que aquesta informació es pugui consultar públicament a internet, alguns experts legals mantenen que l’ús no autoritzat d’informació personal per part de xatbots com ara ChatGPT podria contravenir l’anomenada integritat contextual, un principi fonamental de la legislació sobre privadesa que estipula que les dades personals d’un subjecte no poden ser divulgades fora del seu context original.
Les converses amb ChatGPT no són mai privades
Precisament, aquesta és la raó per la qual el govern d’Itàlia el 31 de març va decidir de blocar temporalment l’accés a ChatGPT. Segons que van explicar les autoritats de protecció de dades italianes en un comunicat contundent, no hi ha cap fonament legal que justifiqui l’aplec i emmagatzematge en massa de dades personals amb el propòsit “d’entrenar” els algorismes a partir dels quals opera la plataforma. Al llarg de les setmanes següents, països com ara Alemanya, l’estat francès i l’estat espanyol han impulsat investigacions sobre l’ús de dades personals a ChatGPT, tot i que ara com ara cap no ha proposat de vetar-ne l’ús. L’organisme de protecció de dades europeu (EDPB), per la seva banda, també ha anunciat ara fa poc la constitució d’un grup de treball sobre ChatGPT.
Però els maldecaps de privadesa de ChatGPT van molt més enllà de l’ús de dades personals –però públiques– que el xatbot hagi extret d’internet. L’eina, segons que consta a les condicions de servei, recull dades personals dels usuaris “sempre que calgui per a propòsits comercials”. Entre aquestes dades, tal com consta a la política de privacitat d’OpenAI, hi ha informació com ara el nom i cognom dels usuaris, la informació de pagament, l’adreça IP o, fins i tot, les dades de navegació. La companyia no tan sols es reserva el dret de compartir aquesta informació amb tercers, sinó que a més l’inclou automàticament al corpus de dades mitjançant les quals ChatGPT s’entrena per continuar millorant les seves capacitats.
Això, en unes altres paraules, vol dir que la informació que l’usuari facilita a ChatGPT no és mai privada: el sistema, per defecte, recull i emmagatzema cadascuna de les entrades que rep, i, per tant, pot emprar tota aquesta informació a l’hora de respondre a una altra gent en el futur. Un usuari que introdueix a ChatGPT els apunts d’una reunió de feina perquè en faci un resum, a tall d’exemple, pot compartir informació compromesa de la seva empresa que restarà emmagatzemada en el sistema i, en conseqüència, podrà ser compartida més endavant amb uns altres usuaris. No és d’estranyar, per tant, que companyies com ara JPMorgan Chase hagin restringit temporalment l’ús de ChatGPT entre els seus treballadors.
Les fuites de seguretat, un risc afegit
Aquest emmagatzematge inadvertit d’informació personal no tan sols és preocupant per l’ús que el sistema en pugui fer, sinó també pel fet que el xatbot és vulnerable a fuites de seguretat en què les dades personals dels usuaris poden ser exposades accidentalment. El 20 de març, sense anar més lluny, ChatGPT va patir una fuita de seguretat que va fer que, durant unes hores, el sistema revelés accidentalment informació privada dels usuaris, com ara el primer missatge de les seves converses amb el xatbot. En alguns casos, el sistema també va revelar informació més confidencial, com ara el nom i cognom de l’usuari, l’adreça electrònica o bé l’adreça de pagament, com també els darrers quatre dígits i la data de caducitat de la seva targeta. El problema va afectar un 1,2% dels usuaris prèmium de la plataforma, segons que va reconèixer OpenAI en un comunicat.
Tot i les diferents polèmiques amb OpenAI per l’ús de dades personals a ChatGPT, la companyia continua sense oferir cap canal perquè els ciutadans puguin veure si el xatbot emmagatzema informació seva, ni tampoc perquè puguin sol·licitar-ne l’eliminació de la base dades d’OpenAI. Això contravé l’anomenat “dret de l’oblit”, la doctrina del Tribunal de Justícia Europeu (TJUE) que protegeix la potestat dels ciutadans europeus a limitar la difusió a internet d’informació personal obsoleta o que ja no tingui rellevància ni interès públic. És una circumstància particularment significativa en el cas d’una eina com ara ChatGPT, que ha estat acusada de compartir informació inexacta o directament falsa unes quantes vegades.