Tras varios años de tratar (y siempre fracasar) de estar a la altura del despliegue publicitario, la inteligencia artificial fue profundamente doblegada en el 2021 por la opinión pública. Por fortuna, los científicos de datos están reconociendo la fragilidad del poder de la toma de decisiones de la IA y han creado controles compensatorios. Estos incluyen la IA Auditable y la IA Humilde, y mis predicciones sobre estas para el 2022 son que las veremos unirse a la IA Explicable y la IA Ética bajo el paraguas de la IA Responsable, el estándar de oro que debiera utilizarse para desarrollar sistemas de inteligencia artificial confiables y seguros.
Pero primero revisemos los conceptos de la IA Auditable y la IA Humilde, los cuales se predice que se utilizarán ampliamente en el 2022.
La inteligencia artificial se ha convertido en un problema real
Recapitulemos un par de puntos sobre lo que sucedió con la IA en el 2021. La adopción de la IA se disparó a lo largo de la pandemia. Una encuesta de PwC encontró que el 86 % de las compañías encuestadas afirmaron que la IA se convirtió en una “tecnología de uso general” en su compañía en el 2021. Algunas de las fallas de la IA fueron dolorosamente aparentes en el 2021 en una infinidad de artículos, podcasts y conversaciones negativos. El futurista, Bernard Marr, creó una conversación concisa sobre los impactos negativos de la IA, incluyendo:
El 15 de septiembre de 2021 el mundo avanzó significativamente hacia lograr una IA Responsable con el lanzamiento de IEEE 7000, el primer estándar que, tal como lo describe Politico AI, “enseñará a las compañías tecnológicas a desarrollar tecnología que generará valor humano y social, en vez de solo dinero”.
Sarah Spiekermann, de la Universidad de Economía y Negocios de Viena, quien participó en el esfuerzo de IEEE 7000, afirmó en Politico que el estándar determinará que una IA “buena” será aquella que brinde a las compañías control sobre:
Considero que la transparencia y la ética desde el diseño es el único camino que seguir y con el IEEE 7000, parece que este objetivo podría cumplirse en el futuro próximo.
La IA Auditable y la IA Humilde
Para desarrollar sistemas de IA que cumplan con la implementación de los estándares de la IA Responsable como el IEEE 7000, dos ramas nuevas de la IA se generalizarán en el 2022.
Aquí, mi predicción es que las aspiraciones de lograr una IA Responsable dejarán de ser promesas vacías y se convertirán en medidas de gobernanza de desarrollo de modelos que sean oficiales, se transcriban programáticamente y estén respaldados por la tecnología de cadena de bloques. De igual importancía, la IA Auditable ofrece pruebas de su adherencia a los estándares de desarrollo de modelos de la IA Responsable y apoya directamente su función conectada, la IA Humilde.
En otras palabras, La IA Humilde nos ayuda a confiar más en cada puntuación que produce y el consumidor que afecta, no solo en la precisión de la puntuación misma en un grupo completo de consumidores.
Pese a que he escrito artículos de blog sobre la IA Humilde en el pasado, observo un movimiento que se aleja por completo de los modelos complejos para determinar con mayor exactitud cuándo utilizar un modelo más complejo o un modelo menos complejo que tenga mejor evidencia de apoyo. Pienso que en el 2022 los modelos se analizarán y evaluarán por cada transacción con puntuaciones de confianza asignadas. Esto proporcionará a las personas una guía explícita sobre cómo, cuándo y si deben utilizarse los resultados de un modelo específico en la toma de decisiones, en particular si la inteligencia artificial muestra que el modelo es más incierto respecto a las decisiones tomadas sobre algún tipo de transacciones o clientes.
La capacidad de determinar si un modelo es adecuado variará entre los ejemplos calificados; p. ej., para algunas clientes el modelo es muy cierto y tiene gran confianza estadística, pero para otros no. Este es un componente fundamental de la IA Responsable, tal que cuando la confianza de un modelo es insuficiente, esos clientes pueden ser calificados por un modelo alternativo que tenga mejor confianza estadística y, por lo tanto, recibir un resultado más justo. Esto se alinea directamente con el IEEE 7000 y aprovecha el hecho de que la toma de decisiones del modelo de IA puede ser más o menos cierta para diferentes personas. La IA Responsable requiere que esa incertidumbre se refleje en las decisiones.
La IA Auditable y la IA Humilde son simbólicas. Cuando se desarrolle de forma adecuada, la IA Auditable establecerá el criterio y las medidas de incertidumbre que trasladarán la toma de decisiones a los modelos alternativos, una medida consistente con el enfoque de la IA Humilde. El criterio para utilizar los modelos de la IA Humilde y los modelos alternativos debe establecerse durante el periodo de desarrollo del modelo con base en las fortalezas, debilidades y transparencia derivadas durante el desarrollo y transcribirse en el registro de la IA Auditable.
Por último, la IA Auditable y la IA Humilde ayudarán a incrementar la confianza en las decisiones generadas por los sistemas de inteligencia artificial —el mejor catalizador para ayudar a que esta tecnología se recupere y se gane la confianza de los medios—.
Este acuerdo permite una escala rápida al tiempo que reduce el consumo de energía y…
Las líneas de diálogo entre gobierno, industria y academia se centraron en Inversión Tecnológica en…
Por Rafael Hirata, Jefe de Innovación y Desarrollo de Negocios Digitales, responsable de Servicios de…
Según Everest Group: “Appian tiene como objetivo ofrecer automatización y orquestación integral de procesos a…
Por Uriel Fraire, Regional Sales Manager Mexico de Universal Robots.
Por: Ivan Sánchez, VP Sales LATAM, Infoblox.