El uso ético de la inteligencia artificial (IA) resulta fundamental para ganar la confianza de los consumidores, según refleja un nuevo estudio del Instituto de Investigación de Capgemini.
Los consumidores, empleados y la ciudadanía en general vigilan de cerca el avance de las empresas para aprovechar el potencial de la IA y se muestran dispuestos a premiar o castigar sus comportamientos. Los encuestados señalan que serían más fieles, comprarían más y serían defensores de la marca si perciben que sus interacciones mediante funciones de IA con las empresas son éticas.
Para la realización del estudio, bajo el título Why addressing ethical questions in AI will benefit organizations, se consultó a 1.580 directivos de grandes empresas en diez países y a más de 4.400 consumidores en seis países. Estas son las principales conclusiones:
Las empresas que utilicen la IA de forma ética se verán recompensadas por una respuesta más favorable de los consumidores: El 62% de los consumidores confiaría más en una empresa que hace un uso ético de la IA para interactuar con ellos; el 61% compartiría las experiencias positivas con la compañía entre familiares y amigos; el 59% sería más fiel a la empresa; y el 55% compraría más productos, y daría mejores calificaciones y opiniones positivas en las redes sociales. Por el contrario, si las interacciones de los consumidores con la IA suscitan inquietudes éticas, se pone en riesgo tanto la reputación como los resultados de negocio de la empresa: el 41% de los individuos señala que presentaría una reclamación, el 36% exigiría una explicación y el 34% dejaría de relacionarse con la empresa.
Las empresas han experimentado problemas éticos relacionados con sistemas de IA: Directivos de nueve de cada diez empresas tienen constancia de casos de uso ético cuestionable de la IA en los 2 o 3 últimos años; por ejemplo, en referencia a la recopilación de datos personales de pacientes sin consentimiento, en el sector sanitario, o la dependencia excesiva de decisiones tomadas de forma automatizada y sin comunicarlo al cliente, en banca y seguros. Entre los motivos que originan estas situaciones, los directivos apuntan la presión por implantar con urgencia la IA, la falta de consideración de la ética durante el desarrollo y diseño de los sistemas de IA, o la falta de recursos destinados a sistemas éticos de IA específicos (equipo, presupuesto, tecnología…).
A los consumidores, empleados y ciudadanos les preocupa la cuestión ética de la IA y desean alguna forma de regulación: Cerca de la mitad de los encuestados (47%) considera que en los últimos 2 o 3 años se ha visto expuesto a dos o más casos de uso éticamente cuestionable de IA. La mayor parte (75%) quiere más transparencia cuando un servicio que utilice o contrate se apoye en IA y saber si la IA le trata de forma justa (73%). Más de las tres cuartas partes (76%) de los consumidores considera que debería haber más regulación sobre el uso de la IA por parte de las empresas.
Las empresas comienzan a darse cuenta de la importancia del uso ético de la IA: el 51% de los directivos considera que es importante garantizar que los sistemas sean éticos y transparentes. Además, las empresas están tomando medidas cuando detectan usos cuestionables de IA. Según el informe, un 41% de altos ejecutivos afirma haber abandonado o retirado una solución de inteligencia artificial cuando se han planteado inquietudes éticas.
“Numerosas organizaciones se encuentran en una encrucijada en su uso de la IA. Consumidores, empleados y ciudadanos están cada vez más dispuestos a interactuar con la tecnología, pero son conscientes de las posibles consecuencias éticas. Este estudio nos muestra que las organizaciones deben establecer prácticas y sistemas éticos para el uso de la IA para conseguir la confianza del público. No se trata solo de cumplir la normativa, también puede generar un beneficio significativo en términos de fidelidad, generación de buenas opiniones e implicación y creación de vínculos”, comentada Anne-Laure Thieullent, responsable de IA y Analítica de Capgemini. “Para conseguirlo, las empresas deben dedicar esfuerzos al establecimiento de estructuras de gobierno adecuadas; no solo deben elaborar un código de conducta basado en sus propios valores, sino, además, incorporar principios éticos en la fase de desarrollo (ethics-by-desing) y, sobre todo, informar al público sobre cómo interactúa con la IA y capacitarle para expresar su postura al respecto”.
Las organizaciones deben priorizar una estrategia de ética en sus sistemas de IA: Para hacer frente a la inquietud que esta tecnología suscita entre los consumidores y obtener los beneficios en términos de confianza que genera hacer un uso ético de ella, las empresas tienen que focalizarse en que todos sus sistemas o procesos viren a este cometido. En su investigación, Capgemini recomienda una aproximación triple para construir una estrategia de ética en IA que abrace a todos los niveles:
- De cara a la alta dirección y a aquellas personas con responsabilidad en asuntos éticos: Establecer fundamentos sólidos a través de una estrategia específica y un código de conducta de IA; desarrollar políticas que definan los límites de un uso aceptable de la IA de la compañía y su aplicación; crear estructuras de gobierno éticas y garantizar la asunción de responsabilidades; y construir equipos diversos que inculquen y aseguren la sensibilidad hacia el amplio espectro de cuestiones éticas.
- De cara a los departamentos con relación directa con clientes y empleados (como recursos humanos, marketing y servicio al cliente): Asegurar el uso ético de la IA; educar e informar a los usuarios para generar confianza en los sistemas de IA; capacitar a los usuarios dándoles más herramientas de control y reclamación; comunicar de forma proactiva, internamente y externamente, casos cuestionables en torno a la IA para construir confianza.
- De cara a los responsables de TI, AI y analítica de datos y sus equipos: Buscar la manera de que los sistemas de AI sean lo más transparentes y comprensibles posibles para ganar la confianza de los usuarios; hacer una gestión correcta de los datos y reducir los posibles sesgos en ellos; hacer seguimiento continuado de su rigor y precisión; y aprovechar las herramientas tecnológicas para incorporar los principios éticos en las soluciones o funciones de IA.
Por su parte, Luciano Floridi, director de Digital Ethics Labs, del Oxford Internet Institute, explica: “La forma básica de ganar confianza, especialmente en las interacciones con la IA, puede resumirse en tres palabras: transparencia, responsabilidad y capacitación. Transparencia, para que las personas puedan ver qué haces; responsabilidad, porque asumes la responsabilidad de lo que haces; y capacitación, porque proporcionas las herramientas para que el consumidor o el empleado comunique que lo que haces no es correcto o adecuado [empoderamiento]”.
El informe puede descargarse aquí.
________________________
Metodología del estudio
Para el estudio se consultó a más de 1.580 directivos de grandes organizaciones (con una facturación anual de más de 1.000 millones de dólares) en diez países (China, Francia, Alemania, India, Italia, Países Bajos, España, Suecia, Reino Unido y Estados Unidos). Los ejecutivos entrevistados forman parte de tres ámbitos: dirección general, estrategia y asuntos corporativos; TI, AI, ciencia de datos y analítica; recursos humanos y marketing. Asimismo, se realizó una encuesta a más de 4.400 consumidores en seis países (Estados Unidos, China, Reino Unido, Francia, Alemania y Países Bajos) que han mantenido alguna interacción con funciones de IA en el pasado para que pudieran ofrecer su opinión sobre aspectos de ética, confianza y transparencia al respecto. El Instituto de Investigación de Capgemini también realizó entrevistas en profundidad a más de 20 académicos, expertos de la industria y emprendedores.