Han pasado ya dos décadas desde que el investigador Gianmarco Veruggio acuñara el término roboética en alusión a la ética de la robótica, un campo de la ética aplicada que estudia las implicaciones positivas y negativas de la robótica.
El objetivo es evitar el mal uso de los robots y de productos y servicios basados en la inteligencia artificial (IA) contra la humanidad. «Dado que la IA se encuentra cada vez en más y más sectores de nuestras vidas (trabajo, educación, ocio, relaciones sociales, etc.), los efectos que los algoritmos detrás de esas aplicaciones de la IA pueden tener sobre las personas, la sociedad y el mundo entero son cada vez potencialmente mayores», afirma Joan Casas-Roma, investigador de los Estudios de Informática, Multimedia y Comunicación de la UOC.
«Fuck the algorithm»
Un ejemplo es lo ocurrido durante la pandemia de la COVID-19 en el sistema educativo británico, que usó un sistema automatizado para, a través de los datos existentes de los estudiantes, predecir la nota que se estimaba que habrían obtenido en un examen que, debido al confinamiento, no se pudo llevar a cabo. ¿El resultado? La insatisfacción general. Bajo el eslogan «Fuck the algorithm», los estudiantes salieron masivamente a la calle cuando se publicó la predicción del algoritmo, que resultó ser, en opinión de los propios profesores y profesoras, extremadamente inadecuada. Como explica Joan Casas-Roma, en este caso, la decisión de delegar la predicción de la nota por completo a un sistema de IA que solo tenía en cuenta los datos de los estudiantes que había en el sistema, en lugar de contar con la experiencia y el conocimiento de sus docentes, estuvo a punto de poner en riesgo la educación y el futuro educativo de muchos de esos estudiantes. Debido a las protestas masivas, el gobierno británico decidió no usar esa predicción automatizada. Sin embargo, no siempre existe la posibilidad de dar marcha atrás.
«Lamentablemente, se pueden poner muchos ejemplos de cómo, si no se tiene en cuenta la ética, la IA puede cometer errores graves. Algunos de los casos más conocidos están relacionados con la existencia de sesgos e injusticias en técnicas de machine learning o aprendizaje automático», señala el investigador de la UOC, y cita el caso de un sistema automatizado usado en los procesos de selección de una importante compañía multinacional, que resultó tomar decisiones claramente desfavorables hacia las candidatas mujeres debido a que los datos usados para entrenar el sistema ya mostraban una desigualdad de género importante en posiciones similares a las que se ofertaban. Otro caso en el que los datos elegidos para automatizar decisiones resultaron ser problemáticos es el del sistema de recomendación judicial de los EUA que, debido al sesgo racista que había en los datos policiales acerca de crímenes y criminales, mostraba recomendaciones claramente desfavorables hacia personas afroamericanas.
«Quienes tenemos que incorporar los códigos éticos somos las personas que programamos las máquinas y que tomamos decisiones con los datos que estas nos brindan«, señala Anna Clua, profesora de los Estudios de Ciencias de la Información y de la Comunicación de la UOC, y añade que «las máquinas no piensan. Hacen». Según Clua, el uso de la IA debe ser ético por definición allá donde se aplique, «ya sea en las aplicaciones de nuestros teléfonos móviles o en los algoritmos con los que los hospitales criban las urgencias. El reconocimiento de los derechos de las personas, así como el cumplimiento de las leyes (como la de protección de datos), es una condición sine qua non de la utilización de la IA desde todos los campos», afirma.
IA explicable y agentes morales artificiales
La lista de ejemplos con efectos éticamente adversos en sistemas de IA es mucho más larga. Fue una de las razones que llevaron a la Unión Europea a publicar unas directrices éticas para una IA fiable, basada en un conjunto de principios que el diseño ético de los sistemas de IA deben respetar, con recomendaciones acerca de cómo integrar esos principios en el diseño de los sistemas y algoritmos. Y recientemente, el Consejo de la Información de Catalunya publicaba un estudio del que también se han extraído una serie de recomendaciones para el buen uso de los algoritmos en las redacciones de los medios de comunicación. Se trata de recomendaciones en plena sintonía con el código deontológico de la profesión periodística.
No son los únicos pasos que se han dado para intentar que la roboética sea una realidad. De hecho, el campo de la IA ética se ha convertido en un área de investigación importante. Como explica el doctor en Representación del Conocimiento y Razonamiento de la UOC, Casas-Roma, entre las líneas de investigación que están centrando más esfuerzos se encuentra el tratamiento y el procesado de los datos para evitar que un sistema de IA basado en aprendizaje automático extraiga correlaciones sesgadas e injustas, por ejemplo, a través de datos demográficos que no están relacionados con la decisión que la IA debe tomar. «En esta área, los esfuerzos se dirigen a entender cómo se deben recoger, procesar y usar los datos para identificar, prevenir y mitigar la aparición de patrones basados en características que, además de ser irrelevantes desde un punto de vista causal para la decisión que debe tomarse, reproducen decisiones sesgadas e injustas hacia determinados colectivos sociales», indica el investigador de la UOC.
Otra de las líneas que se está explorando en la investigación de la IA ética se basa en integrar formas para poder seguir, entender y valorar las decisiones tomadas por un sistema de IA. Es el campo conocido como IA explicable o explainable AI (XAI), «que busca evitar el efecto ‘caja negra’ en la que, dados unos datos de entrada concretos, un sistema de IA toma una decisión específica, pero sin que exteriormente un humano pueda entender qué proceso de razonamiento ha llevado al sistema a tomar esa decisión, y no otra diferente. En este sentido, el campo de la XAI busca acercar el razonamiento que sigue un sistema de IA a una forma de razonamiento entendible para un usuario humano».
Además, hay otro campo que se está investigando en el área de la llamada moralidad artificial. Se trata de la posibilidad de crear agentes morales artificiales o artificial moral agents (AMAs). Estos agentes incorporarían, como parte de su código y de los procesos de razonamiento seguidos, «una forma de identificar, interpretar y valorar la dimensión moral de las decisiones que se toman para asegurarse de que dichas decisiones son éticamente aceptables». Se trata de un reto que se enfrenta a cómo representar, computacionalmente, algo tan complejo y contextual como la ética.
«La ética, tal y como la entendemos vivida en una sociedad humana, tiene que ver con unos principios generales, pero también con las particularidades de cada caso, con los derechos humanos y el espacio y el potencial de crecimiento que toda persona debería poder tener, además de tener sus propias variaciones culturales e históricas. Antes de poder integrar un código moral general en una IA, seguramente deberíamos poder capturar y representar toda esa complejidad y contextualidad en un lenguaje tan específico como el lenguaje computacional y matemático. Y ese es, ahora mismo, un reto que tiene más de humano, que de tecnológico», afirma Joan Casas-Roma.
Para hacer frente a ese reto, los expertos consideran imprescindible la implicación de profesionales de todos los ámbitos, ya que los datos están presentes en todos los sectores. «No sirve decir que son competencia única del campo de las ingenierías o las ciencias de datos. El buen uso de la IA compete a los cuadros profesionales de las administraciones públicas y de las empresas privadas de cualquier ámbito, ya se use a gran escala o a pequeña escala», afirma la profesora de la UOC. Pero, además, se necesita también la implicación de los consumidores y de la ciudadanía. «Una mayor conciencia del derecho a la información nos haría más exigentes a la hora de pedir rendición de cuentas a quien no use la IA de manera socialmente responsable», asegura Anna Clua.