El ‘deepfake’, les falsificacions indistingibles que empenyen contra les cordes el marc legal

  • El cas dels menors identificats per haver creat presumptament imatges pornogràfiques de companyes d'institut torna a obrir el debat sobre els perills de la intel·ligència artificial

VilaWeb

Text

Pere Millan Roca

20.09.2023 - 21:40
Actualització: 13.10.2023 - 16:02

Despulla qualsevol persona amb el nostre servei gratuït.” Aquest és el missatge promocional que es pot llegir en una pàgina web que genera imatges pornogràfiques amb intel·ligència artificial (IA). El funcionament és ben simple: només cal introduir una imatge ben clara de la persona que volem despullar i la tecnologia s’encarrega de la resta. Ahir la policia espanyola va identificar set joves menors d’edat d’Almendralejo (Extremadura) acusats d’haver generat i difós imatges pornogràfiques de desenes de companyes d’institut, també menors.

Aquest cas ja va sacsejar l’actualitat social dilluns passat, quan un grup de famílies va denunciar els fets davant la policia i a les xarxes socials. Ara ja és a les mans de la fiscalia de menors. Fins i tot el fiscal general espanyol, Álvaro García Ortiz, s’hi ha pronunciat, preocupat per aquests nous usos: “Ens preocupa com a reflex d’un fenomen d’utilització de les noves tecnologies per a cometre possibles delictes i, sobretot, per a envair els espais de vulnerabilitat que tenen els menors.” Malgrat això, també diu que és prematur pensar en reformes del codi penal per a adaptar-se a aquesta nova modalitat de delictes.

Les imatges pornogràfiques d’aquestes joves d’Almendralejo són deepfakes, és a dir, arxius de vídeo, imatge o veu manipulats mitjançant la intel·ligència artificial de manera que resulta totalment versemblant. Per a generar aquestes falsificacions, la IA ha estat alimentada anteriorment amb milers d’arxius disponibles a internet. “La IA no és capaç de crear res tota sola. Primer cal que li ensenyem què volem que faci amb algorismes. Si volem generar imatges pornogràfiques, abans li haurem d’haver ensenyat imatges pornogràfiques”, explica Andreas Kaltenbrunner, investigador que encapçala el grup de recerca Artificial Intelligence and Data for Society de la UOC.

En aquest cas concret, l’aplicació utilitzada pels menors agafa la cara de la persona que proporciona l’usuari i la combina amb imatges de parts del cos despullades de dones amb qui té una semblança raonable en aspectes com ara el to de pell o la forma corporal. A diferència dels fotomuntatges clàssics, la IA té accés a milions de fotografies de cossos de dones, i per això el resultat final és molt més versemblant. No és la primera vegada que aquesta tecnologia s’empra per a produir contingut sexual. A internet ja hi ha tota una xarxa de webs que ofereixen pornografia creada amb intel·ligència artificial, en què les cares de dones famoses es combinen amb escenes pornogràfiques reals. Fa poques setmanes, personalitats com Laura Escanes o Rosalía ja van denunciar que circulaven per internet imatges falses on apareixien despullades.

També ha cridat l’atenció aquestes darreres hores el cas de Stephen Fry, actor, guionista i escriptor anglès que ha aparegut en films com Un peix anomenat Wanda i ha elaborat guions de sèries com ara Escurçó negre o Els joves. Dilluns va denunciar haver estat víctima del robatori de la seva veu, perquè es va publicar un documentari on apareixia com a narrador principal, tot i no saber-ne res. L’arxiu havia estat creat amb IA, a partir de les hores d’àudio de les seves narracions dels audiollibres de la saga Harry Potter.

La divulgació d’aquesta tecnologia ha originat un nou paradigma a les xarxes, on cada vegada costa més de diferenciar els productes reals dels falsificats. “Hi haurà un moment, de fet ja es comença a veure, en què deixarem d’estar al cent per cent segurs que tot allò que veiem o sentim és cert“, diu Francesc Segarra, expert en ètica de la intel·ligència artificial i cofundador del Human Tech Institute. Els deepfakes ja s’han començat a usar per a estafes, fent servir la veu de famosos o experts per a recomanar productes fraudulents, o notícies falses, atribuint a polítics o personalitats influents declaracions que no han fet.

A més, tècnicament, encara no existeix la manera d’evitar que la IA pugui fer servir els arxius que compartim a internet. “Es pot restringir legalment, amb la propietat intel·lectual, però tècnicament no hi ha manera de protegir les imatges o vídeos que compartim. I quan parlo de compartir, no em limito a les coses que pengem a les xarxes socials, sinó també en xats presumptament privats”, adverteix Kaltenbrunner.

El mes de juny, experts i investigadors van publicar una carta oberta, encapçalada pels pares d’aquesta tecnologia, en què advertien que la IA significava un risc d’extinció per a la humanitat, igual que catàstrofes com ara una guerra nuclear o una pandèmia.

Sense un marc legal per a lluitar-hi

Actualment, no hi ha cap marc legal vigent que protegeixi contra la creació o difusió de deepfakes. Legalment, la imatge d’una persona forma part de les seves dades personals. Per aquest motiu, recollir-les, manipular-les i distribuir-les sense consentiment pot ser una violació de la normativa de privadesa.

En casos en què hi ha implicat contingut sexual, l’Agència Espanyola de Protecció de Dades també pot intervenir gràcies a la nova llei de garantia integral de llibertat sexual, perquè una de les missions que té és garantir la protecció de les dades personals de les dones en casos de violència sexual, especialment quan es produeix amb les tecnologies de la informació i la comunicació. En relació amb això, l’article 197.7 del codi penal sanciona la divulgació sense consentiment d’imatges o vídeos íntims, però dóna per fet que aquests són reals. Ara, si les víctimes de la falsificació són menors, el delicte 189 sobre pornografia infantil sí que actua tant sobre imatges reals, com sobre representacions realistes. Així doncs, en el cas que afecta les menors d’Extremadura, els joves sospitosos d’haver generat els deepfakes que superin els catorze anys –edat mínima en què un menor pot ser encausat– els aplicaran la llei penal del menor.

Alhora, la Unió Europea tramita una primera llei sobre intel·ligència artificial. Tanmateix, aquesta norma se centra a ajudar els usuaris a distingir allò que és real d’allò que no ho és. Per tant, no se centra en la protecció de les víctimes dels prejudicis econòmics i, sobretot, morals que aquestes falsificacions puguin causar. Tot i aquests esforços, la tecnologia sempre avança més ràpidament que no les regulacions. Per això els experts demanen als legisladors que mirin d’avançar-se per prevenir futurs problemes que pugui originar la IA: “Cal imaginar escenaris futurs, preveure quines conseqüències negatives poden tenir i incorporar-les a la legislació abans no passin”, diu Segarra.

A causa de la manca de respostes actuals, l’única via per a lluitar contra els deepfakes és crear consciència. “Cal formar-se una mirada crítica, perquè podem ser víctimes d’una falsificació a internet en qualsevol moment i, d’una altra banda, ser també molt conscients de les conseqüències d’exposar-se compartint arxius a les xarxes”, indica. Segarra proposa una triple fórmula d’enfrontar-s’hi: divulgació per a encarar el present, educació per al futur i legislació, que a poc a poc anirà avançant i adaptant-se a aquestes noves situacions.

Us proposem un tracte just

Esperàveu topar, com fan tants diaris, amb un mur de pagament que no us deixés llegir aquest article? No és l’estil de VilaWeb.

La nostra missió és ajudar a crear una societat més informada i per això tota la nostra informació ha de ser accessible a tothom.

Això té una contrapartida, que és que necessitem que els lectors ens ajudeu fent-vos-en subscriptors.

Si us en feu, els vostres diners els transformarem en articles, dossiers, opinions, reportatges o entrevistes i aconseguirem que siguin a l’abast de tothom.

I tots hi sortirem guanyant.

per 75 € l'any

Si no pots, o no vols, fer-te'n subscriptor, ara també ens pots ajudar fent una donació única.

Si ets subscriptor de VilaWeb no hauries de veure ni aquest anunci ni cap. T’expliquem com fer-ho

Recomanem

Fer-me'n subscriptor