Los riesgos en la inteligencia artificial
FICO publicó recientemente su informe “Una Inteligencia Artificial Responsable: 2021” de la compañía de inteligencia de mercado Corinium, el cual muestra que, pese a la mayor demanda y uso de herramientas de IA, casi dos tercios (65 %) de los participantes no pueden explicar la manera en que los modelos de IA toman decisiones y realizan predicciones.
El estudio encontró que la falta de consciencia sobre el uso responsable de la IA resulta preocupante, ya que el 39 % de los miembros del consejo de administración y el 33% de los equipos ejecutivos, tienen un conocimiento limitado acerca de la ética en la IA.
Conducido por Corinium y patrocinado por FICO, el estudio “Una Inteligencia Artificial Responsable: 2021” consistió en entrevistar a 100 ejecutivos de datos y análisis de nivel C; así como a líderes de opinión del MIT, AI Truth, The Alan Turing Institute, el Fondo Económico Mundial y FinRegLab, para conocer cómo las organizaciones están implementando la IA, y si la están utilizando de forma ética, transparente, segura y en beneficio de sus clientes.
Mientras que el personal de cumplimiento (80 %) y el equipo de TI y análisis de datos (70 %) tienen un mayor conocimiento de la ética en la IA y del uso responsable de IA, el resto de la organización tiene un conocimiento limitado. Por lo tanto, a la mayoría de los participantes (73 %) se les ha dificultado obtener apoyo de los ejecutivos para priorizar la ética en la IA y las prácticas responsables de la misma.
“A lo largo de los últimos 15 meses, más y más empresas han invertido en herramientas de IA; sin embargo, no han elevado la importancia de la gobernanza y responsabilidad de la IA a nivel directivo”, dijo Scott Zoldi, director de análisis en FICO. “Las organizaciones están utilizando cada vez más la IA para automatizar procesos esenciales que, en ciertos casos, toman decisiones que afectan a sus clientes y a otras partes interesadas. Es necesario que los líderes y los consejos directivos impongan una gobernanza auditable e inmutable de los modelos de IA, y promuevan la supervisión de los modelos de producto para asegurar que las decisiones sean responsables, justas y transparentes”.
¿Quiénes son los responsables?
Por otra parte, casi la mitad (49 %) de los participantes señalaron que han asignado un mayor número de recursos a los proyectos de IA en los últimos 12 meses, seguido por la productividad del equipo (46 %) y la capacidad predictiva de los modelos de IA (41 %). En contraste, solo el 39 % ha dirigido más recursos a la gobernanza de la IA durante el desarrollo de los modelos, y el 28 % ha priorizado el mantenimiento y supervisión constante de los modelos de IA.
A pesar de la adopción de la IA, sigue habiendo falta de conocimiento sobre este tema. El estudio muestra que no hay consenso en los ejecutivos respecto a las responsabilidades de la compañía en materia de IA.
La mayoría de los participantes (55 %) coinciden en que los sistemas de IA para el consumo de datos deben cumplir con normas éticas básicas y que los sistemas utilizados para las operaciones back-office también deben ser explicables. Sin embargo, esto puede reflejar, en parte, el desafío de lograr que los empleados utilicen tecnologías nuevas, así como cuestiones éticas mayores.
Aún más preocupante, cerca de la mitad (43 %) de los participantes afirman no tener más responsabilidad que cumplir las normas sobre la gestión ética de los sistemas de IA, cuyas decisiones pueden afectar de manera indirecta el sustento de las personas —p. ej., los modelos de segmentación de audiencia, los modelos de reconocimiento facial y los sistemas de recomendaciones—.
“La única manera de generalizar el uso de la IA dentro de la economía digital es que las empresas la integren en el nivel operativo de sus empresas”, dijo Cortnie Abercrombie, fundadora y CEO de AI Truth. “Los participantes clave, como los encargados de tomar decisiones, los miembros del consejo y los clientes, entre otros, necesitan saber cómo se utiliza la IA dentro de sus empresas, los posibles riesgos y los sistemas que ayudan a gobernarla y supervisarla. Los desarrolladores de IA son fundamentales para ayudar a educar a las partes interesadas y exhortarlas a verificar los procesos de los modelos de IA”.
Combatir la imparcialidad de la IA
¿Qué pueden hacer las empresas para cambiar esta situación? Combatir la imparcialidad de los modelos de IA es un primer paso esencial, pero muchas empresas no lo hacen de forma eficaz: el 80 % de los ejecutivos enfrentan dificultades para establecer procesos que garanticen el uso responsable de la IA.
En la actualidad, solo una quinta parte de los participantes (20 %) supervisan activamente la imparcialidad y ética en sus modelos en desarrollo, mientras que menos de una cuarta parte (22 %) afirman que su organización cuenta con un consejo de ética en la IA para considerar las cuestiones de imparcialidad y ética en la IA. Uno de cada tres (33 %) cuenta con un equipo de verificación para evaluar los modelos recién desarrollados, y solo el 38 % ha integrado medidas de mitigación de imparcialidad en sus procesos de desarrollo de modelos.
Sin embargo, evaluar la imparcialidad de los resultados del modelo es la salvaguardia más popular en la comunidad empresarial: el 59 % de los participantes afirman que la utilizan para aislar y evaluar las funciones latentes del modelo y detectar imparcialidades; la mitad (50 %) asegura que cuenta con una definición matemática codificada para la imparcialidad de los datos, y que revisa activamente las fuentes de datos desestructurados para detectar imparcialidades.
Las empresas reconocen que las cosas deben cambiar: la gran mayoría (90 %) coincide en que los procesos ineficientes de supervisión de modelos representan un obstáculo para la adopción de la IA. Por fortuna, cerca de dos tercios (63 %) de los participantes, consideran que la ética en la IA y el uso responsable de la IA serán un elemento central de la estrategia de su organización dentro de dos años.
Educar a las partes interesadas sobre los riesgos de la IA y la importancia de cumplir con las regulaciones de esta, son dos medidas críticas para abordar los “puntos ciegos” de las compañías respecto al uso responsable de la IA. Asimismo, el informe presenta varias mejores prácticas que ayudarán a las organizaciones a construir un camino hacia el uso responsable de la IA, algunas de las cuales son:
- Establecer prácticas que protejan a la empresa contra las amenazas a su reputación por el uso irresponsable de la IA.
- Encontrar un equilibrio entre la necesidad de ser responsable y la necesidad de lanzar innovaciones al mercado rápidamente.
- Obtener el apoyo de los directivos para priorizar la ética en la IA y el uso responsable de la misma.
- Desarrollar políticas que puedan aplicarse a futuro, en anticipación a normas más estrictas, sobre la IA.
- Contar con los recursos necesarios para asegurar que los sistemas de IA se desarrollen y gestionen de forma responsable.
“La comunidad empresarial está comprometida a impulsar la transformación a través de la automatización basada en la IA. Sin embargo, los directores y los consejos de administración necesitan estar conscientes de los riesgos asociados con la tecnología y conocer las mejoras prácticas para mitigarlos. La IA tiene el poder de cambiar el mundo, pero, como bien dice la famosa frase: ‘Un gran poder va de la mano con una gran responsabilidad’”, concluyó Zoldi.