06.12.2022 - 21:40
|
Actualització: 07.12.2022 - 10:13
La disrupció tecnològica en què vivim ens ha aportat facilitats que els nostres avis no haurien imaginat, però alhora ens ha creat unes necessitats que ni sabíem que existien. El món que ve és a les mans dels visionaris tecnològics que aconsegueixin treure’n més rendiment econòmic, encara que això trenqui els nostres valors ètics. Per això cal preocupar-se més de com les empreses tecnològiques desenvolupen els algoritmes amb què dissenyen els aparells, aplicacions, màquines i robots.
En aquest univers incert es capbussa el filòsof Francesc Torralba. Acaba de publicar L’ètica algorítmica (Edicions 62), premi Bones Lletres d’assaig humanístic. L’obra exposa tots els dubtes que envolten aquestes eines que dominaran el nostre futur. També aporta solucions, com ara la creació de comitès d’ètica i d’intel·ligència artificial que supervisin el disseny d’aquests artefactes perquè no tinguin biaixos.
—Fins a quin punt ens afecten els algoritmes en el nostre dia a dia?
—Molt més que no ens sembla. Però moltíssim més. Hi ha un gran desconeixement que moltes organitzacions, administracions i empreses han cedit la presa de decisions a artefactes dotats d’intel·ligència artificial i programaris amb un conjunt d’algoritmes. I, a més a més, fem una trampa. Com que són decisions que ha pres una màquina creiem que són objectives i imparcials. En canvi, si ho fem els humans, tenim interessos, emocions, projectes valors, prejudicis, tòpics… I nego la major. Les màquines no s’autodissenyen.
—El problema és qui elabora els algoritmes.
—Hi ha hagut un conjunt de tecnòlegs que han introduït criteris en els algoritmes i al final, les màquines funcionen d’acord amb aquests criteris. Jo exigeixo i reivindico transparència i traçabilitat i auditories per a transparentar els algoritmes, que es puguin traçar, saber qui els ha fets i per què s’han fet així i que se’n pugui auditar la qualitat. Perquè molts tenen biaixos gravíssims.
—I com ho podem fer, això? Els algoritmes fan servir un llenguatge molt llunyà de la majoria de la població.
—Aquest és el problema número u, el llenguatge. És molt hermètic i només accessible a iniciats: enginyers, telecomunicacions, informàtics, físics i matemàtics. I els qui venim dels camps de les humanitats, estem en unes altres coordenades. Per això defenso que han de ser comunitats interdisciplinàries que puguin analitzar quins algoritmes i criteris s’utilitzen. I això demana traducció. Han de ser capaços de traduir a un llenguatge no especialitzat què té la màquina i per què li han introduït aquell algoritme. Si no, hi ha hermetisme i l’abús és molt fàcil.
—I com l’establim, aquest control?
—La meva proposta és que hi hagi comitès d’ètica i d’intel·ligència artificial a totes les empreses on s’usen màquines d’aquesta mena o en les empreses que les dissenyen i després les venen. Aquests artefactes han de ser auditats perquè cada cop prenen més decisions. Serien com els CEAC, els comitès d’ètica d’atenció clínica. Jo en presideixo bastants i tenim casos difícils.
—Per exemple?
—Per exemple, un geriàtric on un home de noranta-quatre anys, amb plenitud de facultats mentals, es nega a menjar. Una part dels professionals comencen a alarmar-se i diuen que si continua així, aquest senyor quedarà inconscient, el sistema immunitari es debilitarà molt i serà més permeable a infeccions de virus. Això crea un altre debat. L’han d’alimentar per via intravenosa contra la seva voluntat? L’altra meitat del personal mèdic diu que es respecti la seva decisió i si es mor és la seva decisió. Quan un equip està dividit ho eleva al comitè d’ètica.
—Qui hi ha?
—Són quinzes persones formades per juristes, metges, filòsofs, infermers, auxiliars… I hi ha un mètode de presa de decisions en què es té en compte què diu la família. Podem arribar a deliberar durant hores, però al final es pren una decisió que és consultiva i no vinculant. No serà una decisió matemàtica ni evident, però sí raonable. Per això els comitès d’ètica d’intel·ligència artificial han de poder-se assegurar que els algoritmes d’una màquina respecten la igualtat, la llibertat, la integritat… A vegades aquestes discriminacions es projecten inconscientment.
—Com bé dieu al llibre, estem a les mans dels visionaris. I això, malgrat que té avantatges, també té inconvenients perquè sempre maldaran per trobar les escletxes de l’ètica per tal de monetitzar els seus invents. Anirem sempre a remolc dels avenços tecnològics?
—Sí. Hi anirem a remolc perquè el desenvolupament tecnològic és exponencial, vertiginós i acceleradíssim. Això és un fet. La velocitat és immensa. En canvi, el ritme de reflexió, comprensió, de digestió d’aquests problemes, és molt més lent. I el ritme d’articulació jurídica encara més. Perquè demana consens, pacte, negociació. De fet, quan es va clonar l’ovella Dolly no hi havia cap llei que prohibís el clonatge. Abans pots fer la cosa i després ve l’ordenament. Ara a Europa podem fer transgènics i vendre’ls, però ja no es pot clonar un mamífer. Hi ha una asincronia. I el problema és que aquests productes comencen a la Xina, s’acaben a Frankfurt i es venen al passeig de Gràcia. Per això hem de fer una reflexió de tecnoètica global.
—I d’on partim si les diverses societats i cultures entenen els valors i l’ètica de manera diferent?
—Per això hi ha d’haver òrgans de deliberació que ajudin a discernir. D’acord amb què? Jo proposo la Declaració Universals dels Drets Humans. És a punt de complir setanta-cinc anys. És un text que potser em diràs que no l’han pactat tots els polítics, cert, però del 1948 ençà ha anat guanyant vinculacions. Alguns països seran molt resistents a afegir-s’hi, però si hem de fer una tecnoètica global, quin text de naturalesa ètica i jurídica té més consens en la història de la humanitat que la Declaració Universal dels Drets Humans? Ens parla d’equitat, llibertat, intimitat, respecte a la vida i a les diverses formes d’opinar. Crec que aquí tenim un punt de partença amb vista a establir uns criteris per a les noves tecnologies.
—Però per molt que dotem d’ètica els algoritmes d’una màquina, sempre hi haurà dilemes difícils de prendre. Em ve al cap un cotxe de conducció automàtica que ha de decidir entre xocar contra una parella o contra una mare amb un fill.
—Aquesta és una situació que es va formular al MIT de Boston i que va generar un debat. Van preguntar-se què passaria si un vehicle programat es troba en un dilema. Ha d’escollir entre dues opcions i en totes dues hi haurà mals. I, per tant, ha d’avaluar allò que en ètica en diem el principi del mal menor, que és allò que generarà un mal, però menor que l’altre. La hipòtesi era que el cotxe no podia frenar. A la dreta hi ha dos gossos d’una raça molt exquisida i a l’esquerra, dues persones negres que a més a més, són pobres. I el cotxe ha de frenar estavellant-se cap a un costat. Partint de la declaració universal, no tinc dubtes, perquè, negre o blanc, tot ésser humà està dotat d’una dignitat inherent. El MIT va fer una consulta i la gent, democràticament, va votar estavellar-se contra els negres… Si deixes aquesta decisió a la gent, poden passar coses com aquesta. Per això l’algoritme que controla el cotxe s’hauria de dissenyar d’acord amb la declaració.
—Si no dotem els algoritmes d’ètica, a què ens aboquem?
—Sense ètica en la intel·ligència artificial ens aboquem al fet que les màquines aprenguin per imitació allò que observen i estarem perduts. Hi ha màquines que no van més enllà del programa que els ha introduït. Però n’hi ha –que és allò que anomenem deep learning– que poden aprendre per imitació, com si fossin nens. Però, és clar, si els referents dels nens peguen, el nen ho pot acabar imitant. I les màquines igual i pot passar que, per tant, acabi considerant que té més valor una girafa que no pas un nen negre. En conseqüència, no podem introduir màquines cada vegada més sofisticades al mercat sense un conjunt de criteris perquè almenys, gestionin aquest poder a la llum de l’equitat, la integritat, la llibertat, l’accessibilitat, la transparència…
—Hi ha un estadi encara més dramàtic i és que les màquines acabin adquirint esperit crític. Albert Camus deia que l’home lliure és capaç de dir que no. Ens hi podem trobar?
—El debat en el segle XIX aborda la diferència entre l’home i l’animal. Ara el debat és saber què em fa diferent d’un artefacte que pot ser molt més ràpid en càlcul i processant informacions. I aquí hi entra en joc la consciència. Els tecnòlegs i especialistes diuen que som molt lluny que les màquines puguin tenir capacitat crítica.
—És l’únic límit que tenen?
—Al MIT assenyalen que les feines que tinguin més creativitat, fantasia i intuïció, és a dir, que siguin menys previsibles, costarà molt més que les facin màquines. Ara, les feines més mecàniques desapareixeran perquè la massa salarial baixarà i l’empresa recaptarà més diners. També ens hem de preguntar què fer amb aquesta gent. A la Revolució Industrial hi havia els luddites, que eren els que destruïen les màquines. Doncs ara parlem d’un neoluddisme, individus indignats perquè les màquines els prenen la feina. Sí que es creen molts oficis, però se’n creen tants com se’n destrueixen?
—Teniu resposta?
—Vaig fer aquesta pregunta a Andreu Mas-Colell a s’Agaró i em va dir que no, que arribaria un moment de desfasament en què es destruirien més oficis que no pas se’n crearien. I aleshores caldrà pensar en un salari universal. Fins aleshores, la tendència és que allò que pugui fer la màquina, ho farà la màquina.
—Diferencieu entre dos grups, els tecnooptimistes i els tecnopessimistes. En quin grup esteu?
—Els humanistes per definició tendim a ser tecnofòbics. És la realitat. Ara, ho hem de corregir. A la grip espanyola del 1918 la vida es va interrompre del tot. L’humanista tendeix a veure que la tecnologia comporta anonimat, abusos, vigilància, un món on cada vegada hi ha més gent que perd la feina. Però no veu que aquell nen que ha nascut amb un braç, un bioenginyer li pot fer un braç biònic i tocar el violí. O que ens ha permès de mantenir la vida digital durant la pandèmia i hem pogut acabar els cursos. Per tant, intento no caure en cap dels dos grups.