Nuestro sentido está informado por las normas económicas y culturales de donde vivimos

¿Cómo queremos que nos traten las máquinas?

como-queremos-que-nos-traten-las-maquinas

©BigStock

Actualizado 18 | 03 | 2019 07:00

Moral Machine

En 2016, los investigadores del MIT Media Lab lanzaron un experimento. Querían entender cómo las personas querían que actuaran los autos que conducían por sí mismos, por lo que crearon un sitio web donde cualquiera podía experimentar 13 diferentes escenarios de coches autónomos.

Dos años después, los investigadores analizaron 39,61 millones de decisiones tomadas por 2,3 millones de participantes en 233 países. En un nuevo estudio publicado en Nature, muestran que cuando se trata de cómo nos tratan las máquinas, nuestro sentido del bien y el mal está informado por las normas económicas y culturales de donde vivimos.

Descubrieron tres áreas geográficas generales con distintas ideas éticas sobre cómo deberían comportarse los vehículos autónomos: el oeste (que incluye a los países de América del Norte y Europa cristiana), el este (que incluye los países del Lejano Oriente y los países islámicos) y el sur (que incluye gran parte de América del Sur y países con influencias francesas). Estos grupos también tienen sus propios subclusters, como Escandinavia dentro de los países occidentales y los latinoamericanos dentro del sur.

Pero el estudio también encontró que hay tres áreas en las que las personas de todo el mundo tienden a estar de acuerdo ante los dilemas morales (por ejemplo ante un posible choque o accidente): muchas personas quieren salvar a los humanos antes que a los animales, a más personas en lugar de menos y a los jóvenes antes que a los ancianos.

Esos conocimientos podrían proporcionar los cimientos para un código internacional de ética de máquinas o de robotización que, según escriben los investigadores, será una necesidad cuando surjan estos «dilemas que ponen en peligro la vida». Esas conversaciones no deben limitarse a los ingenieros y responsables políticos, porque afectarán a todo el mundo.

En ese sentido, el estudio ofrece una nueva visión de cómo millones de personas piensan por primera vez de la ética de las máquinas.

Hay una división entre culturas individualistas y colectivas

Si bien hay tendencias generales en las que la mayoría de las culturas se alinean, los investigadores encontraron una gran división entre los países que tienen culturas más individualistas (principalmente en Occidente) frente a los países que son más colectivos. Los países occidentales tienden a mostrar una mayor preferencia por salvar a los niños en lugar de a los ancianos, mientras que los países orientales tienden a valorar más las vidas de los ancianos: Camboya, por ejemplo, está muy por debajo del promedio mundial cuando se trata de la preferencia general de salvar a los niños en lugar de a los ancianos.

Del mismo modo, las personas en los países occidentales también mostraron una mayor preferencia por salvar a más personas, independientemente de la composición del grupo.

Los investigadores creen que esta división podría ser el mayor desafío para el desarrollo de pautas globales sobre cómo deben actuar los coches autónomos.

«Debido a que la preferencia por salvar a muchos y la preferencia por salvar a los jóvenes son sin duda las más importantes que deben considerar los formuladores de políticas, esta división entre culturas individualistas y colectivas puede ser un obstáculo importante para la ética universal de la automatización», escriben.

El estado económico de un país predice qué vidas son más «importantes»

Junto con las diferencias culturales, el estudio encontró que la economía también juega un papel importante. Por ejemplo, el nivel de desigualdad económica de un país es un predictor de hasta qué punto las personas prefieren evitar atropellar a las personas de un estatus más alto en comparación con un estatus más bajo.

Eso significa que las personas de países con alta desigualdad, basadas en el coeficiente de Gini del país, la medida de desigualdad del Banco Mundial, serían más propensas a salvar a un ejecutivo de negocios que a una persona sin hogar.

Cuanto más bajo es el coeficiente de Gini, más cerca está el país de la igualdad. En la Suecia más igualitaria (con un coeficiente de Gini muy bajo, de 29.2) es menos probable el promedio global de perdonar a una persona de alto estatus sobre una persona de estatus bajo; mientras que en Angola (con un coeficiente de Gini alto de 42.7) se valora a las personas con un estatus alto sobre cualquier otra categoría.

«Los de países con menos igualdad económica entre ricos y pobres también tratan a los ricos y pobres de manera menos equitativa en la Máquina Moral», escriben los investigadores. “Esta relación puede explicarse por los encuentros regulares con la desigualdad que se filtra en las preferencias morales de las personas, o quizás porque las normas igualitarias más amplias afectan tanto a la desigualdad que un país está dispuesto a tolerar a nivel social la desigualdad que los participantes respaldan en sus juicios de máquina moral”.

En una nota similar, el PIB per cápita de un país, así como la fortaleza de las instituciones, se correlacionan con la preferencia de evitar a las personas que siguen la ley, cuando se trata de posibles accidentes.

Por otro lado, los de los países más pobres tienden a ser más tolerantes con los peatones que caminan por la calle.

En definitiva, la cultura debe informar la ética de la automatización

Si bien existe un acuerdo de referencia sobre la ética de las máquinas en lo que respecta a la edad, el número de personas y la vida humana, las diferencias matizadas entre los grupos culturales son más importantes de entender, y con frecuencia no son tan claras como lo individual frente a lo colectivo. Por ejemplo, los países en el clúster Sur tienden a tener una fuerte preferencia por salvar a las mujeres por encima de los hombres y a las personas en buena forma física que a las no aptas.

Los investigadores creen que los fabricantes de automóviles y los políticos deberán tener en cuenta todas estas variaciones cuando formulen sistemas de toma de decisiones y reglamentos de construcción. Y eso es importante:

«Si bien las preferencias éticas del público no deben ser necesariamente el árbitro principal de la política, la disposición de la gente a comprar vehículos autónomos y tolerarlos en las carreteras dependerá de la conveniencia de las reglas éticas que se adopten», escriben los investigadores.

A pesar de todas estas variaciones entre diferentes culturas, el equipo del MIT «Moral Machine» aún cree que debemos tener una conversación global e inclusiva acerca de cuál es nuestra ética cuando se trata de la toma de decisiones de la automatización, especialmente porque esta realidad se está acercando rápidamente.

«Nunca en la historia de la humanidad hemos permitido que una máquina decida de forma autónoma quién debería vivir y quién debería morir, en una fracción de segundo, sin supervisión en tiempo real. Vamos a cruzar ese puente en cualquier momento y no ocurrirá en un teatro distante de operaciones militares; ocurrirá en ese aspecto más mundano de nuestras vidas, el transporte cotidiano. Antes de permitir que nuestros autos tomen decisiones éticas, necesitamos tener una conversación global para expresar nuestras preferencias a las compañías que diseñarán los algoritmos morales, y a los políticos que los regularán».


Cargando noticia...