Les lleis de la robòtica d'Asimov,
a propòsit de la HISTÒRIA DE SAM
Fragment de:
Història de Sam. Deus ex Machina,
cap. 2. Una
societat quasi perfecta
Vam abandonar
la ciutat. Per la finestra anaven passant edificis, naus de fàbriques i els
diferents paisatges perfectament civilitzats que conformaven els afores
d'aquella nova ciutat normal Pragma3.
—Aquest robot,
Tim, era un NG82 com jo —vaig dir—. No sé si ara encara en quedaran molts
altres com nosaltres...
Emma no em va
dir res, sinó que va preferir mirar per la finestra les vastes extensions de
camps cultivats pels agricultors androides. Les cols llombardes dibuixaven
interminables fileres morades, al costat de les files de les tiges
intensament verdes de les safanòries, de les línies dels cóps delicats de les
lletugues, de les fulles allargades i blavoses de les cebes... sobre una
terra fèrtil que oferia generosa els seus fruits vegetals com si es tractara
d'un magnífic i estranyament perfecte decorat teatral.
—No, el meu
estimat Bèstia, vós no podeu morir, viureu per convertir-vos en el meu marit.
Des d'aquest moment jo us done la meua mà i us jure que no em casaré amb
ningú sinó és amb vós —va mussitar Emma en veu baixa, repetint les paraules
de Bella en l'obra teatral.
Em vaig adonar
que en aquell moment la seua ment estava ocupada visionant escenes de l'obra
teatral que havíem presenciat i que havia emmagatzemades en la seua memòria
perifèrica.
Vaig recordar
allò que m'havia dit l’NG82 Tim: “Un robot mai no hauria de fer mal a un
ésser humà, en cap circumstància, ni hauria de permetre que res ni ningú fera
mal als humans”. Llavors vaig poder reconstruir en la meua ment la seqüència
oracional completa a la qual devien pertànyer aquelles frases: “1. Un robot
no pot mai damnar un ésser humà, ni pot permetre que res ni ningú li cause
dany .- 2. Un robot ha d'obeir les ordres que li són donades per un ésser
humà, excepte si aquestes ordres entren en conflicte amb la Primera Llei .-
3. Un robot ha de protegir la seua pròpia existència, fins on aquesta
protecció no entre en conflicte amb la Primera o la Segona Llei”.
Jo sabia que
aquella mena de principis morals androides havien estat escrits pel novel·lista
Isaac Asimov (Petróvich, 1920.01.02 - Nova York, 1992.04.06). També sabia que
aquelles lleis tan tremendament innocents havien tingut certa repercussió en
la literatura de ciència ficció del segle vint. Però el que Asimov no havia
tingut en compte era que cap avanç tecnològic de la humanitat no havia pogut
escapar mai d'una aplicació bèl·lica espantosa, i els robots no en serien
l'excepció.
|
El dia 30 de gener de 2018 vaig tenir la sort de ser convidat a parlar del meu llibre Història de Sam. Deus ex Machina amb l’alumnat de 3r d’ESO de l’IES Torrellano, a propòsit d’un programa europeu Erasmus+ de col·laboració amb la Universitat d’Alacant, que té el nom Eurobotique ES, centrat en els estudis i investigacions relacionats amb la robòtica.
Vaig fer dues sessions molt
interessants, des del meu punt de vista, ja que l’alumnat semblava ben
atent a la història que acabaven de llegir i vaig tenir l’oportunitat de
recordar alguns aspectes relacionats amb aquest llibre, que vaig publicar,
després de quatre anys escrit, en 2014.
Un dels aspecte que hi vam tractar era
el tema de l’ètica en la robòtica, i els vaig explicar les qüestions que en
aquest aspecte es plantegen hui mateix en els centres d’enginyeria més importants
del món; per exemple, en el camp de l’automoció robòtica o automatitzada.
Els he posat el següent cas, a propòsit
d’un article en el periòdic EL PAÍS: Un home vell passeja la seua néta de dos
anys per la vorera d’una carretera. La xiqueta se li’n fuig de sobte i creua la
via, i tot seguit ho fa el seu avi per salvar-la. Un cotxe sense conductor hi arriba
a una velocitat molt adequada, però calcula que no pot evitar una col·lisió i
ha de decidir a quina de les dues persones atropella. L’alumnat s’ha apressat a
dir-me que atropelle el vell, ja que ja ha viscut més. Llavors els he posat el cas
que foren un nen de dos anys i un de sis, i ja no han sabut ben bé que respondre.
A partir d’ací, hem revisat les “Tres Lleis de la robòtica” d’Asimov, que especialment se centren en la llei principal i
primera: Un robot no pot mai damnar un
ésser humà, ni pot permetre que res ni ningú li cause dany. Crec que, a
banda de l’ús militar de la robòtica, que els humans estem fent ja en l’actualitat (per exemple amb els drons de guerra i els robots militars), cap robot serà capaç de resoldre amb èxit
un conflicte com el que hem plantejat, perquè tampoc ho podrà fer cap humà. És per això que considere
aquestes lleis d'Asimov tan tremendament innocents.
A propòsit d’açò, alguns dels problemes
que vaig tenir en el retard de la publicació de la novel·la se centraven en
aquest aspecte, en el fet que els meus robots no seguiren les lleis d’Asimov. Per
sort, vaig aconseguir publicar l’obra tal i com jo la volia, sense cap retoc ni concessió en
aquestos aspectes.