22.01.2019 - 05:15
L’objectiu últim de la intel·ligència artificial (IA), aconseguir que una màquina tingui una intel·ligència de tipus general similar a la humana, és una de les fites més ambicioses que s’ha plantejat la ciència. És d’una dificultat comparable a altres grans objectius científics com ara explicar l’origen de la vida o l’origen de l’univers, o bé conèixer l’estructura de la matèria. Al llarg dels darrers segles, aquest afany per construir màquines intel·ligents ens ha conduït a inventar models o metàfores del cervell humà. Per exemple, al segle xvii, Descartes es va preguntar si un complex sistema mecànic compost d’engranatges, politges i tubs podria, en principi, emular el pensament. Dos segles després, la metàfora es va plasmar en els sistemes telefònics, ja que semblava que les seves connexions es podien assimilar a una xarxa neuronal. Actualment el model dominant és el model computacional basat en l’ordinador digital i per tant és el model al qual ens referirem en aquest article.
Intel·ligència artificial feble ‘versus’ forta
Allen Newell i Herbert Simon van formular la hipòtesi segons la qual tot sistema de símbols físics posseeix els mitjans necessaris i suficients per dur a terme accions intel·ligents (Newell i Simon, 1976). D’altra banda, com que els éssers humans som capaços de mostrar conductes intel·ligents, d’acord amb la hipòtesi, nosaltres som també sistemes de símbols físics. Convé aclarir a què es refereixen Newell i Simon. Un sistema de símbols físics consisteix en un conjunt d’entitats anomenades símbols que, mitjançant relacions, poden ser combinats per formar estructures més grans –com els àtoms que es combinen formant molècules– i que poden ser transformats aplicant un conjunt de procediments. Aquests procediments poden crear nous símbols, crear i modificar relacions entre aquests, emmagatzemar-ne, comparar si dos són iguals o diferents, etcètera. Aquests símbols són físics en tant que tenen un substrat fisicoelectrònic (en el cas dels ordinadors) o fisicobiològic (en el cas dels éssers humans).
Efectivament, en el cas dels ordinadors els símbols es realitzen mitjançant circuits electrònics digitals i en el cas dels éssers humans, mitjançant xarxes de neurones. En definitiva, d’acord amb la hipòtesi del sistema de símbols físics, la naturalesa del substrat (circuits electrònics o xarxes neuronals) no té importància sempre que aquest permeti processar símbols. No oblidem que es tracta d’una hipòtesi i per tant la seva validesa o refutació s’haurà de verificar d’acord amb el mètode científic. La intel·ligència artificial és precisament el camp científic dedicat a intentar verificar aquesta hipòtesi en el context dels ordinadors, és a dir, verificar si un ordinador convenientment programat és capaç o no de tenir una conducta intel·ligent de tipus general.
«La IA és el camp científic dedicat a verificar si un ordinador és capaç o no de tenir una conducta intel·ligent de tipus general»
És important el matís que s’hauria de tractar d’intel·ligència de tipus general, i no una d’específica, ja que la intel·ligència dels éssers humans és de tipus general. Exhibir intel·ligència específica és una altra cosa ben diferent. Per exemple, els programes que juguen als escacs al nivell de gran mestre són incapaços de jugar a les dames. Es requereix un programa diferent perquè el mateix ordinador jugui a les dames; és a dir, aquest no pot aprofitar el fet que juga als escacs per adaptar-se i jugar també a les dames. En el cas dels éssers humans, qualsevol jugador d’escacs pot aprofitar els seus coneixements sobre aquest joc per a jugar a les dames perfectament. La intel·ligència artificial que únicament mostra comportament intel·ligent en un àmbit molt específic està relacionada amb el que es coneix com a «IA feble» en contraposició amb la «IA forta» a la qual, de fet, es referien Newell i Simon i altres pares fundadors de la IA.
Qui va introduir aquesta distinció entre IA feble i forta fou el filòsof John Searle en un article crític amb la intel·ligència artificial publicat el 1980 (Searle, 1980) que va provocar, i continua provocant, molta polèmica. La IA forta implicaria que un ordinador convenientment programat no simula una ment sinó que «és una ment» i per tant hauria de ser capaç de pensar igual que un ésser humà. Searle en el seu article intenta demostrar que la IA forta és impossible.
Llig l’article sencer al web de Mètode
Ramon López de Mántaras, professor d’investigació i director de l’Institut d’Investigació en Intel·ligència Artificial del CSIC (Bellaterra, Espanya).