La forma en que los usuarios usan la tecnología puede crear nuevas oportunidades para lograr beneficios éticos para la sociedad

¿Puede la inteligencia artificial ayudarnos a construir un mundo tecnológico más ético?

©Bigstock

Actualizado 13 | 12 | 2022 10:32

Inteligencia Artificial ética

Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de las que entren en conflicto con el punto anterior. Y un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con lo establecido antes.

Estas tres leyes de la robótica fueron formuladas por Isaac Asimov hace ahora ochenta años, mucho antes de que la inteligencia artificial (IA) fuese una realidad. Pero ilustran perfectamente cómo los seres humanos hemos enfrentado los desafíos éticos de la tecnología: protegiendo a los usuarios.

Sin embargo, los desafíos éticos de la humanidad, tengan o no que ver con la tecnología, no son realmente un problema tecnológico, sino social. En este sentido, la tecnología en general, y la inteligencia artificial en particular, podría servir para empoderar al usuario y ayudarnos a avanzar hacia un mundo más éticamente deseable. Es decir, podemos repensar la forma en que diseñamos la tecnología y la inteligencia artificial y apoyarnos en ellas para construir una sociedad más ética.

Este es el enfoque que propone Joan Casas-Roma, investigador del grupo Smartlearn, de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC), en el manifiesto publicado en abierto Ethical Idealism, Technology and Practice: a Manifesto. Para entender cómo debe llevarse a cabo este cambio de paradigma, es necesario retroceder un poco en el tiempo.

La inteligencia artificial es objetiva, ¿o no?

Cuando Asimov formuló por primera vez sus leyes de la robótica, el mundo era un lugar muy poco tecnológico comparado con la actualidad. Era 1942 y Alan Turing apenas acababa de formalizar los conceptos de algoritmo que serían clave en el desarrollo de la computación moderna décadas más adelante. No había ordenadores ni internet, ni mucho menos inteligencias artificiales ni robots autónomos. Pero Asimov ya anticipaba el miedo a que el ser humano lograse fabricar máquinas tan inteligentes que acabasen por rebelarse contra sus creadores.

Sin embargo, más adelante, en los inicios de la computación y las tecnologías de datos en los años sesenta del siglo pasado, estas cuestiones no estaban entre las principales preocupaciones de la ciencia. «Había la creencia de que, al tratar con datos objetivos y científicos, la información resultante iba a ser cierta y de calidad. Se derivaba de un algoritmo de la misma manera que se deriva de un cálculo matemático. La inteligencia artificial era objetiva y, por lo tanto, nos ayudaba a eliminar los sesgos humanos», explica Joan Casas-Roma.

Pero esto no era así. Llegó un momento en que nos dimos cuenta de que los datos y los algoritmos replicaban el modelo o la forma de ver el mundo de la persona que usaba esos datos o que había diseñado el sistema. Es decir, la tecnología no eliminaba por sí misma los sesgos humanos, sino que los trasladaba a un nuevo medio. «Con el tiempo, hemos ido aprendiendo que la inteligencia artificial no tiene por qué ser objetiva y, por tanto, sus decisiones pueden estar muy sesgadas. Las decisiones perpetuaban las desigualdades, no las solucionaban», añade el investigador.

Así, acabamos llegando al mismo punto que anticipaban las leyes de la robótica. Las preguntas sobre la ética y la inteligencia artificial aparecieron sobre la mesa desde un punto de vista reactivo y protector. Como nos dimos cuenta de que la inteligencia artificial no era justa ni objetiva, decidimos empezar a actuar para contener sus efectos nocivos. «La pregunta ética de la inteligencia artificial nació de la necesidad de construir un caparazón para que los efectos indeseables de la tecnología sobre los usuarios no siguieran perpetuándose. Era necesario hacerlo», subraya Casas-Roma.

Tal como detalla el investigador en el manifiesto, el hecho de tener que reaccionar así ha hecho que durante las últimas décadas no hayamos profundizado en otra pregunta fundamental en la relación entre tecnología y ética. ¿Qué consecuencias éticamente deseables podrían ayudarnos a conseguir un conjunto de inteligencias artificiales con acceso a una cantidad de datos sin precedentes? Es decir, ¿cómo puede la tecnología ayudarnos a avanzar en la construcción de un futuro éticamente deseable?

Hacia una relación idealista entre ética y tecnología

Avanzar hacia una sociedad más inclusiva, más integrada y más cooperativa en la que la ciudadanía tenga una mayor comprensión de los desafíos globales: esa es una de las grandes metas que se marca la Unión Europea a medio plazo. Para alcanzarla, la tecnología y la inteligencia artificial pueden ser un gran obstáculo, pero también grandes aliadas. «En función de la forma en que se diseñe la interacción de las personas por medio de la inteligencia artificial, podría promoverse una sociedad más cooperativa«, señala Casas-Roma.

El auge de la educación en línea en los últimos años es innegable. Las herramientas de aprendizaje digitales tienen muchas ventajas, pero también pueden fomentar la sensación de aislamiento. «La tecnología podría fomentar más sensación de cooperación y crear un mayor sentimiento de comunidad. Por ejemplo, en lugar de tener un sistema que solo haga correcciones automáticas de los ejercicios, podría también enviar un mensaje a otro compañero o compañera del curso que haya solucionado el problema para facilitar que el estudiantado se ayude. Es solo una idea para entender cómo el diseño de la tecnología puede llevarnos a interactuar de forma en que se fomente la comunidad y la cooperación», añade el investigador.

Para Casas-Roma, bajo una perspectiva de idealismo ético puede repensarse cómo la tecnología y la forma en que los usuarios la usan pueden crear nuevas oportunidades para lograr beneficios éticos para los propios usuarios y la sociedad en su conjunto. Este enfoque idealista de la ética de la tecnología debería tener las siguientes características:

  • Expansivo. La tecnología y sus usos deben estar pensados de forma que permitan a sus usuarios prosperar y empoderarse.
  • Idealista. El objetivo final para tener siempre en mente es cómo la tecnología podría mejorar las cosas.
  • Habilitante. Las posibilidades creadas por la tecnología deben entenderse y moldearse cuidadosamente para garantizar que mejoren y favorezcan el crecimiento ético de los usuarios y las sociedades.
  • Mutable. El estado actual de las cosas no debe darse por sentado. La actual configuración social, política y económica, así como la tecnología y su forma de ser utilizada podrían cambiar para permitir avanzar hacia un estado diferente de las cosas.
  • Basado en principios. La forma en que se usa la tecnología debe verse como una oportunidad para permitir y fomentar comportamientos, interacciones y prácticas alineadas con ciertos principios éticos deseados.

«No es tanto un tema de datos o de algoritmos. Es un tema de repensar cómo interactuamos y cómo querríamos hacerlo, qué es lo que habilitamos mediante una tecnología que se impone como medio», concluye Joan Casas-Roma. «Esta idea no es tanto una propuesta que tenga que ver con la potencia de la tecnología, sino con el pensamiento detrás de quien diseña la tecnología. Es una llamada a un cambio de paradigma, a un cambio de mentalidad. Los efectos éticos de la tecnología no son un problema tecnológico, sino social. Son un problema de cómo interactuamos los unos con los otros y con el entorno mediante la tecnología.»

Esta investigación contribuye al objetivo de desarrollo sostenible (ODS) 16, promover sociedades justas, pacíficas e inclusivas.

Más información


Cargando noticia...