Las máquinas deben tener emociones

La primera charla del ciclo "Nuevas tecnologías y Humanismo digital", organizado por Casa Amèrica Catalunya con la colaboración de DIPLOCAT, ha debatido sobre los problemas éticos de la inteligencia artificial

Este lunes ha tenido lugar la primera charla del ciclo "Nuevas tecnologías y Humanismo digital", organizado por Casa Amèrica Catalunya con la colaboración de DIPLOCAT. Se trata de una serie de cuatro charlas para hablar de temas como la simbiosis entre la inteligencia humana y la artificial, el control de la tecnificación de nuestras vidas y el equilibrio entre la innovación tecnológica y la ética humana.

El ciclo, que ha sido inaugurado por la directora de Casa Amèrica Catalunya, Marta Nin, y la secretaria general de DIPLOCAT, Laura Foraster i Lloret, ha comenzado con una charla sobre "Ética e inteligencia artificial". En sus palabras de bienvenida, Nin ha señalado que "la tecnología es una invención humana que queremos que responda a necesidades sociales, que sea para las personas y que las personas no vivan para la tecnología". Por su parte, Foraster ha coincidido en que "uno de los retos que actualmente tenemos por delante, en el desarrollo de la inteligencia artificial, es el de la convivencia equilibrada entre tecnología y ética, es decir, el uso inteligente pero también moral, sensible y plural de las nuevas herramientas que nos proporciona la innovación tecnológica, para que ésta se desarrolle de acuerdo con los cambios sociales que también se están acaeciendo en nuestras sociedades".

Seguidamente, Nin ha presentado a los dos ponentes: la mexicana Sofía Trejo, investigadora del Centro Nacional de Supercomputación (BSC) en Barcelona, especializada en los impactos éticos, legales, socioeconómicos, culturales y ambientales de la inteligencia artificial, y Jordi Vallverdú, profesor ICREA del Departamento de Filosofía de la UAB, especialista en Filosofía de la Ciencia y la Computación.

Trejo ha empezado la charla comentando que no hay una definición universal sobre qué es la inteligencia humana, y por tanto tampoco la hay para definir qué es la inteligencia artificial (IA). "Yo hablaré del aprendizaje de las máquinas", ha dicho. Las máquinas aprenden a partir de ejemplos y patrones introducidos por humanos. ¿Qué ocurre entonces con los sesgos de género, culturales, sociales y políticos inherentes a los humanos? ¿Quién genera los datos? ¿Y desde qué perspectiva? ¿La del hombre blanco? Además, ha recalcado que es urgente introducir la ética en las máquinas porque las personas que se ocupan de la recogida e introducción de los datos, unos datos "punzantes" extraídos de los patrones humanos, están sufriendo ya efectos negativos en su salud, de los cuales las empresas que les han contratado no se hacen responsables, porque previamente ya les han hecho firmar contratos de confidencialidad y autoresponsabilidad.

Asimismo, la ponente ha incidido sobre la "materialidad" de la IA y el impacto de ésta en nuestro entorno. Algunos materiales de los que están hechos los ordenadores que almacenan los datos provienen de zonas de conflicto, y la minería del litio está provocando el desplazamiento de comunidades indígenas, mientras que el agua que se utiliza para refrigerar los centros de datos tiene un impacto ambiental importante. Para Trejo es necesario trabajar para alcanzar entornos de trabajo "sin violencia" y corregir los sesgos racistas, clasistas y de género y el impacto ambiental y social de la tecnología.

A continuación, Vallverdú, desde su visión de filósofo, ha sido contundente al afirmar que actualmente "tenemos tecnologías y no sabemos qué queremos que hagan". Todos los sistemas biológicos que son cognitivos tienen emociones y, por tanto, "las máquinas deben tener emociones si queremos que sean creativas, complejas, inteligentes y útiles". Para él, el ser humano tiene muchos sesgos: sexistas, clasistas, racistas... y en consecuencia los estudios que elaboran están realizados desde una perspectiva concreta "que nos hace creer que el mundo es así, pero sin embargo sólo es como ellos le ven". "Lo que falla no son los robots, sino los sistemas éticos", ha dicho. Los datos incluidos en las máquinas ya tienen un sesgo y por eso las respuestas también son sesgadas. Vallverdú ha señalado la contradicción ante la que nos encontramos: "Los humanos somos animales neuroquímicamente programados, no aptos para programar máquinas, pero en cambio también somos la parte necesaria para nutrirlas de emociones".

Al finalizar, el profesor ha evidenciado que "nos encontramos en un momento de conflicto, pero también en un momento muy apasionante" y ha añadido que "no sabemos cuál será el futuro, realmente, porque no sabemos cómo implementar el sistema ético en las máquinas". "Tenemos tecnologías de dioses y mentes de simios", ha sentenciado.

El ciclo "Nuevas tecnologías y humanismo digital" continuará con tres charlas más sobre humanismo digital, tecnología medioambiental y comunicación virtual.