En la actualidad, la tecnología de inteligencia artificial (IA) se encuentra detrás de las decisiones que afectan profundamente a todas las personas. Aunque esto representa grandes oportunidades, también aumenta los riesgos.
Esta situación ha dado lugar a un mayor enfoque en la práctica de la IA responsable, que implica cumplir una serie de principios y normas de desarrollo de modelos de IA corporativos para operativizar implementaciones de IA que produzcan resultados de negocio de alto impacto dentro de fronteras éticas y legales importantes. Se trata de la IA explicable, la IA ética, la IA robusta y la IA auditable. Para explicar a profundidad cada uno de estos principios, en este artículo nos enfocaremos en los primeros dos de ellos, y la semana entrante los dos siguientes.
Principio 1: IA explicable
Las redes neuronales y otros métodos de machine learning pueden hallar relaciones no lineales complejas en los datos, lo que conduce a una gran capacidad predictiva –que es uno de los componentes de la IA–. Pero, aunque las ecuaciones matemáticas de los algoritmos de machine learning de “caja negra” suelen ser sencillas, a menudo es difícil derivar una interpretación humanamente comprensible de las soluciones que generan. La capacidad explicativa del modelo debe ser el objetivo principal en las implementaciones de la IA responsable.
La capacidad explicativa del modelo se enfoca en ofrecer una interpretación humanamente comprensible de las características latentes que los modelos de machine learning aprenden, así como en el momento de la puntuación, cuando los clientes se ven afectados por el machine learning dentro del sistema de toma de decisiones de la IA en general.
Una IA explicable debe facilitar que los humanos respondan a preguntas importantes, tales como:
La última pregunta ilustra el concepto de la IA humilde, donde los científicos de datos determinan la aptitud del desempeño de un modelo en situaciones diversas, o en circunstancias en las que no funcionará, como cuando hay baja densidad en los datos históricos de entrenamiento.
Necesitamos entender mejor los modelos de IA porque, cuando utilizamos las puntuaciones que un modelo produce, asumimos que estas son igualmente válidas para todos los clientes y todos los escenarios de puntuación, y éste no siempre es el caso. Esta situación puede llevar fácilmente a que se tomen decisiones importantes basadas en una cobertura de información imperfecta en los modelos de IA. La capacidad explicativa es fundamental.
Especialmente en los entornos cambiantes, las características latentes deben revisarse continuamente para detectar posibles sesgos. En FICO, hemos desarrollado una técnica de machine learning llamada características latentes interpretables para ayudar a superar este desafío, ya que aumenta la transparencia y la responsabilidad. Utilizar la IA de manera responsable es saber cuándo un modelo no es eficaz o incluso podría ser perjudicial.
Principio 2: IA ética
El machine learning identifica relaciones entre los datos para ajustarse a una función objetivo específica (o meta). Con frecuencia, formará proxies para las entradas evitadas, y estos pueden mostrar sesgos. Desde el punto de vista de un científico de datos, la IA ética se logra al tomar precauciones para exponer lo que el modelo subyacente de machine learning ha aprendido como características latentes, y evaluar si éstas pudieran atribuir sesgos.
Un proceso de desarrollo riguroso, en conjunto con la visibilidad de las características latentes, ayuda a garantizar que los modelos analíticos funcionen de manera ética. Las características latentes deben revisarse continuamente para identificar sesgos en los entornos cambiantes.
Los modelos de IA ética deben evaluarse y los sesgos deben eliminarse. Las arquitecturas de machine learning interpretables permiten extraer las relaciones no lineales que suelen estar ocultas en el funcionamiento interno de la mayoría de los modelos de machine learning. La participación humana en el proceso garantiza que se supervise el funcionamiento de estas características latentes, que se conduzcan pruebas específicas de sesgos en las características latentes entre diferentes grupos y que se implementen metodologías para prohibir los sesgos atribuidos detectados y el reajuste de los modelos de machine learning. Es fundamental recordar constantemente que los datos en los que se entrenó el modelo de IA por lo general están implícitamente llenos de sesgos sociales.
Consideremos estas preguntas importantes:
Al desarrollar modelos de IA ética, el sesgo y la discriminación se evalúan y eliminan, y deben reevaluarse continuamente una vez que el modelo esté en operación. Un proceso de desarrollo riguroso, aunado a la visibilidad de las características latentes, ayuda a garantizar que los modelos analíticos funcionen de manera ética. Las características latentes deben revisarse continuamente para identificar cambios en el sesgo.
VM, IA/ML y cargas de trabajo de la base de datos agregadas al soporte de…
Por Julio Campoy, vicepresidente Broad Markets de Appian en Iberia & Latam.
Las organizaciones están invirtiendo fuertemente en IA, con el 62% de las empresas asignando del…
Más de 360 estudiantes impactados a través de MasterClasses; convenios de colaboración actuales y en…
Con el precio más bajo del mercado frente a soluciones similares, Zoho One Essentials brinda…
Por Dmitri Zaroubine, Director de Ingeniería de Sistemas de Veeam para Latinoamérica-