Les màquines han de tenir emocions

La primera xerrada del cicle "Noves tecnologies i Humanisme digital", organitzat per Casa Amèrica Catalunya amb la col·laboració de DIPLOCAT, ha debatut sobre els problemes ètics de la intel·ligència artificial

Aquest dilluns ha tingut lloc la primera xerrada del cicle "Noves tecnologies i Humanisme digital", organitzat per Casa Amèrica Catalunya amb la col·laboració de DIPLOCAT. Es tracta d'una sèrie de quatre xerrades per parlar de temes com la simbiosi entre la intel·ligència humana i l'artificial, el control de la tecnificació de les nostres vides i l'equilibri entre la innovació tecnològica i l'ètica humana.

El cicle, que ha estat inaugurat per la directora de Casa Amèrica Catalunya, Marta Nin, i la secretària general de DIPLOCAT, Laura Foraster i Lloret, ha començat amb una xerrada sobre "Ètica i intel·ligència artificial". En les seves paraules de benvinguda, Nin ha assenyalat que  "la tecnologia és una invenció humana que volem que respongui a necessitats socials, que sigui per a les persones i que les persones no visquin per a la tecnologia". Per la seva banda, Foraster ha coincidit en què "un dels reptes que actualment tenim al davant, en el desenvolupament de la intel·ligència artificial, és el de la convivència equilibrada entre tecnologia i ètica, és a dir, l'ús intel·ligent però també moral, sensible i plural de les noves eines que ens proporciona la innovació tecnològica, perquè aquesta es desenvolupi d'acord amb els canvis socials que també s'estan implementant a les nostres societats".

Seguidament, Nin ha presentat els dos ponents: la mexicana Sofía Trejo, investigadora del Centre Nacional de Supercomputació (BSC) a Barcelona, especialitzada en els impactes ètics, legals, socioeconòmics, culturals i ambientals de la intel·ligència artificial, i Jordi Vallverdú, professor ICREA del Departament de Filosofia de la UAB, especialista en Filosofia de la Ciència i la Computació.

Trejo ha començat la xerrada tot comentant que no hi ha una definició universal sobre què és la intel·ligència humana, i per tant tampoc n'hi ha per definir què és la intel·ligència artificial (IA). "Jo parlaré de l'aprenentatge de les màquines", ha dit. Les màquines aprenen a partir d'exemples i patrons que són introduïts per humans. Què passa aleshores amb els biaixos de gènere, culturals, socials i polítics inherents als humans? Qui genera les dades? I des de quina perspectiva? La de l'home blanc? A més, ha recalcat que és urgent introduir l'ètica a les màquines perquè les persones que s'ocupen de la recollida i introducció de les dades, unes dades "punyents" extretes dels patrons humans, estan patint ja efectes negatius en la seva salut, efectes dels quals les empreses que els han contractat no se'n fan responsables, perquè prèviament ja els han fet signar contractes de confidencialitat i autoresponsabilitat.

Així mateix, la ponent ha incidit sobre la "materialitat" de la IA i l'impacte d'aquesta en el nostre entorn. Alguns materials dels quals estan fets els ordinadors que emmagatzemen les dades provenen de zones de conflicte, i la mineria del liti està provocant el desplaçament de comunitats indígenes, mentre que l'aigua que s'utilitza per refrigerar els centres de dades té un impacte ambiental important. Per Trejo cal treballar per assolir entorns de treball "sense violència" i corregir els biaixos racistes, classistes i de gènere i l'impacte ambiental i social de la tecnologia.

A continuació, Vallverdú, des de la seva visió de filòsof, ha estat contundent en afirmar que actualment "tenim tecnologies i no sabem què volem que facin". Tots els sistemes biològics que són cognitius tenen emocions i, per tant, "les màquines han de tenir emocions si volem que siguin creatives, complexes, intel·ligents i útils". Per a ell, l'ésser humà té molts biaixos: sexistes, classistes, racistes... i en conseqüència els estudis que elaboren estan fets des d'una perspectiva concreta "que ens fa creure que el món és així, però tanmateix només és com ells el veuen". "El què falla no són els robots, sinó els sistemes ètics", ha dit. Les dades incloses a les màquines ja tenen un biaix i per això les respostes també són esbiaixades. Vallverdú ha assenyalat la contradicció davant la qual ens trobem: "Els humans som animals neuroquímicament programats, no aptes per programar màquines, però en canvi també som la part necessària per nodrir-les d'emocions".

En acabar, el professor ha evidenciat que "ens trobem en un moment de conflicte, però també en un moment molt apassionant" i ha afegit que "no sabem quin serà el futur, realment, perquè no sabem com implementar el sistema ètic a les màquines". "Tenim tecnologies de déus i ments de simis", ha sentenciat.

El cicle "Noves tecnologies i humanisme digital " continuarà amb tres xerrades més sobre humanisme digital, tecnologia mediambiental i comunicació virtual.