Las empresas que han implementado la IA reconocen que el éxito se haya en la analítica que hay por detrás

El 70% de las empresas forma en ética a sus desarrolladores de Inteligencia Artificial

70-por-ciento-empresas-forma-etica-desarrolladores-inteligencia-artificial

©BigStock

Actualizado 18 | 11 | 2018 07:00

El 70% de las grandes empresas mundiales que actualmente utilizan Inteligencia Artificial (IA) forma en ética a sus especialistas en la materia, según un informe de SAS, que también desvela que el 92% de las empresas considera esencial capacitar a sus tecnólogos en ética y que más del 63% cuenta con comités de ética para revisar el buen uso de la IA.

La compañía de analítica remarca que del total de las organizaciones mundiales encuestadas, el 72% aplica en la actualidad Inteligencia Artificial (IA) en una o más áreas de negocio, por lo que es necesario “poner en relieve la importancia de contar con un marco ético sólido en torno al uso de la IA, dado el impacto real que tiene ya en la vida de las personas”.

Según el informe ‘Impulso, madurez y modelos de éxito de la Inteligencia Artificial’, las empresas reconocen la fuerte conexión entre el uso de la analítica y el éxito de la IA. En concreto, el 79% del total de las empresas que utilizan IA afirma que la analítica desempeña un papel importante o principal en los esfuerzos de la IA de su organización, en comparación con sólo el 14% de los que aún no se ha beneficiado del uso de esta tecnología en su empresa.

“Las empresas que han implementado la IA reconocen que el éxito se haya en la analítica que hay por detrás”, ha afirmado el vicepresidente ejecutivo y director de Operaciones y Tecnología de SAS, Oliver Schabenberger, quien ha añadido que, para ellas, “la analítica ha alcanzado un papel central en la IA”.

El informe también indica que el 74% de las organizaciones cuenta con una supervisión rigurosa con, al menos, una revisión o evaluación semanal de los resultados que están obteniendo de la IA. Además, el 43% asegura que su organización tiene un proceso para reducir o anular los resultados que se consideran cuestionables durante la revisión.

Aun así, el informe de SAS afirma que los procesos de supervisión tienen todavía un largo camino por recorrer hasta correlacionarse con los avances de la tecnología de IA, al mismo tiempo que remarca que esta supervisión de la IA y la aplicación de la ética por parte de las empresas se debe a las posibles repercusiones que puede tener un resultado defectuoso.

De las organizaciones que ya han implementado la IA o que planean hacerlo, el 60% afirma estar preocupada por el impacto de las decisiones impulsadas por la IA en la relación con los clientes, como, por ejemplo, que sus acciones no muestren suficiente empatía o que los clientes confíen menos en ellas.

“Las organizaciones han comenzado a abordar los problemas que se sabe que puede causar la IA, tales como el trato sesgado e injusto de las personas. Estos son pasos positivos, pero, sin embargo, las organizaciones necesitan ir más allá de los códigos de ética de la IA que están en el Juramento Hipocrático para no hacer daño”, ha subrayado el responsable de IA en Accenture Applied Intelligence, Rumman Chowdhury.

En concreto, ha afirmado que deben proporcionar directrices prescriptivas, específicas y técnicas para desarrollar sistemas de IA que sean seguros, transparentes, explicables y responsables, a fin de evitar consecuencias imprevistas y problemas de cumplimiento que puedan ser perjudiciales para las personas, las empresas y la sociedad.