Predicciones sobre IA y GenAI para 2025: La era dorada de la IA, y cómo conservar a la gallina de los huevos de oro

Por Scott Zoldi, director de Analítica (CAO) de FICO.
No cabe la menor duda: el 2025 se siente como si entráramos a la era dorada de la inteligencia artificial (IA), ya que las enormes inversiones de las empresas en IA y en IA Generativa (GenAI) están produciendo ganancias reales en productividad e ingresos. Entonces, ¿cómo podemos lograr que la gallina de los huevos de oro siga poniendo huevos en la era dorada de la IA? En 2025, pienso que las compañías, revitalizadas por las motivaciones adecuadas y empoderadas con las herramientas correctas, obtendrán resultados confiables y repetibles con la IA y la GenAI si operativizan estas tecnologías y demuestran su credibilidad. He aquí mis predicciones sobre AI y GenAI para este nuevo año:
Las compañías descubrirán que no toda la IA es GenAI
A medida que la era dorada de la IA se consolide, las compañías asumirán con seriedad la capacidad de maximizar el valor empresarial de sus inversiones en IA. Después de analizar los problemas de negocio que desean resolver, las empresas aplicarán su experiencia y aprendizajes en IA para determinar qué oportunidades de negocio son las más adecuadas para la GenAI y cuáles son mejores para las técnicas de IA tradicionales y el machine learning interpretable, especialmente en las áreas sumamente reguladas y la toma de decisiones críticas. De hecho, más del 80% de todos los sistemas de IA en producción actualmente no son de IA Generativa.
Entonces, pese a que las organizaciones ahora cuentan con un arsenal proverbial de capacidades de IA, no deben intentar enroscar un tornillo con un martillo. Elegir las herramientas adecuadas de IA requiere científicos de datos que conozcan a detalle los requisitos empresariales y operativos y que puedan evaluar las fortalezas o debilidades relativas de la IA o la GenAI. Los procesos “Human on the loop”, en los cuales las personas participan en varios aspectos de la organización, serán clave para definir si un problema empresarial necesita decisiones determinantes, del machine leraning interpretable, capacidad de auditoría u otros requisitos de implementación. Elegir correctamente entre la IA tradicional y la GenAI será fundamental para el éxito de las inversiones en IA.
Operativizar la IA es un reto… pero se volverá más sencillo
“Operativización” no es precisamente una palabra fácil de pronunciar. Sin embargo, este concepto, que significa “convertir ideas conceptuales abstractas en observaciones medibles”, puede lograrse de manera sistemática si los sistemas de IA y GenAI se implementan de forma repetible y medible a través de una combinación optimizada de personas, procesos y tecnología.
Muchas empresas no saben cómo operativizar la IA ni por dónde empezar a hacerlo. En mi puesto en FICO, he desarrollado cinco principios de operativización que forman la estructura de cualquier implementación de IA:
- Comenzar con un equipo de primer nivel: La implementación de la IA debe diseñarse y ejecutarse por los mejores profesionales de ciencia de los datos; no sólo por aquellos con credenciales académicas, sino con experiencia real en la aplicación de la IA para resolver problemas empresariales, que siempre son más complejos de lo que parecen a simple vista.
- Inventar la IA para el sector o necesidad específica: Además del equipo de ciencia de los datos, toda la organización debe estar enfocada en utilizar soluciones de IA para resolver problemas empresariales críticos. Esto incluye cuantificar primero la necesidad empresarial y, en ocasiones, inventar nuevos algoritmos para atenderla.
- Desarrollar algoritmos de IA para una implementación eficiente del software: Una implementación de IA exitosa requiere que los científicos de machine leraning/IA participen en el proceso de diseño del software, definan los requisitos y conozcan las limitaciones que se aplican a sus algoritmos.
- Ofrezcer una ejecución de baja latencia y alto rendimiento: Los recursos de computación en la nube bien diseñados pueden operativizar los sistemas de toma de decisiones basados en IA para satisfacer las necesidades empresariales. El rendimiento en tiempo real exige conocimiento absoluto de toda la cadena de flujo de datos, preprocesamiento, análisis de datos en tiempo real, almacenamiento NoSQL, redundancia del sistema y otros activos.
- Busque incansablemente una IA Responsable: Para que la inteligencia artificial genere valor empresarial, debe ser ética, explicable y auditable. Esos son los conceptos clave de la IA Responsable: un conjunto de principios y prácticas que permiten operativizar la implementación de la inteligencia artificial para lograr resultados empresariales de alto impacto dentro de límites éticos y legales importantes.
La responsabilidad y la capacidad explicativa son fundamentales para la IA Responsable y pueden alcanzarse mediante el uso de una tecnología de blockchain inmutable, que codifique todos los aspectos de la implementación del modelo de IA. La misma gobernabilidad de IA con blockchain puede emplearse para definir métricas operativas y supervisar la IA en producción, lo que permite obtener valor fuera del laboratorio de ciencia de los datos.
Aumentarán los casos de uso de GenAI específicos para el dominio de datos
Las compañías que verdaderamente desean utilizar modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés) y otras técnicas generativas de manera responsable y ética lo harán desde una perspectiva de IA Responsable, empezando por el dominio de sus propios datos—. Siempre he manifestado esta opinión y me complace que los investigadores de MIT y McKinsey & Co. lo encuentran empíricamente cierto, tal como lo afirman de manera categórica en el Harvard Business Review: “Para que las compañías utilicen bien la IA, necesitan datos precisos, pertinentes y bien organizados”.
En 2025, los programas de GenAI se basarán en datos seleccionados activamente que serán relevantes para dominios empresariales específicos. Las compañías seleccionarán y limpiarán los datos que se utilizarán para entrenar los LLM y eliminarán las grandes cantidades de datos que no deben utilizarse. Este es el primer paso hacia el uso responsable y la generación de valor empresarial, ya que los datos de entrenamiento deben ser representativos de las decisiones que se tomarán en función de ellos. Las empresas se diferenciarán por sus estrategias de datos en la creación de los LLM, ya que, después de todo, un LLM no es más que un reflejo de los datos con los cuales se desarrolló.
Las compañías crearán sus propios modelos de lenguaje pequeños y enfocados
Por otra parte, en 2025 habrá más compañías que desarrollarán sus propios modelos de lenguaje pequeños (SLM, por sus siglas en inglés). También surgirán modelos de lenguaje enfocados (FLM, por sus siglas en inglés) capaces de abordar el aspecto más complejo de los LLM mediante un corpus de datos por dominio específico y anclajes de conocimiento relevantes para asegurar que las respuestas basadas en tareas de los FLM estén fundamentadas en la realidad. Estos mismos FLM ayudarán a legitimar las aplicaciones de Agentic IA, que aún están en sus primeras etapas, pero requieren modelos LLM sumamente especializados para tareas específicas que operen con altos niveles de precisión y control.
El uso generalizado de los FLM puede generar otro resultado positivo: reducir el impacto ambiental de la GenAI. Según estimaciones de la industria, una sola consulta en ChatGPT consume entre 10 y 50 veces más energía que una búsqueda en Google. En un nivel más alto, el informe más reciente de la ONU sobre la Economía Digital sugiere que los centros de datos operados por Google, Amazon, Meta, Apple y Microsoft (GAMAM) consumieron más de 90 TWh (teravatios-hora, o 1,000 gigavatios-hora [GWh]) de energía, más que países enteros como Finlandia, Bélgica, Chile o Suiza. A medida que las empresas buscan formas de cumplir sus objetivos de sostenibilidad más allá de la compra de créditos de carbono, los FLM pueden generar un impacto significativo mientras producen mejores resultados para las empresas.
Las puntuaciones de confianza en la IA fomentarán la credibilidad en la GenAI
Las puntuaciones de confianza en la IA, tales como las relacionadas con los FLM, fomentarán la confianza en la GenAI. Esta puntuación de confianza en IA secundaria, independiente y basada en el riesgo, además de las estrategias basadas en ella, permite operativizar la GenAI a escala con una precisión medible.
Las puntuaciones de confianza en la IA reflejan tres aspectos:
- La probabilidad de que los datos contextuales clave (como la documentación de un producto) con los cuales se entrenó el FLM para una tarea específica se utilicen para proporcionar la respuesta.
- El modelo de confianza en IA da certeza en que el resultado del FLM esté basado en una relevancia estadística suficiente. Los LLM funcionan con distribuciones de probabilidad y, si no hay suficientes datos de entrenamiento para crear una distribución estadísticamente significativa o una serie de alternativas viables, el modelo de confianza en IA no confiará en la respuesta.
- Alineación con los anclajes de conocimiento, es decir, alineación con hechos verificables en lugar de sólo datos. La distinción entre “la verdad” y “los datos” es uno de los desafíos más persistentes de la tecnología LLM y de la IA en general.
Las puntuaciones de confianza en la IA pueden integrarse en un sistema de gestión de riesgos adecuado, a fin de que las empresas puedan decidir si confiarán en la respuesta de un FLM, lo que representa una verdadera estrategia de operatividad.
Mirar hacia adelante y hacía atrás
Estoy entusiasmado por ver cómo se desarrollan mis predicciones sobre IA y GenAI en esta era dorada de la inteligencia artificial. Al mirar atrás, mis predicciones sobre IA del 2024 fueron bastante acertadas, aquí algunas de ellas:
- La IA auditable hará que la rendición de cuentas sea atractiva: Sí – la idea de usar blockchain para gestionar el desarrollo de los modelos logró una buena visibilidad y avance en 2024.
- Lo pequeño será hermoso: Sí – han surgido nuevos enfoques más pequeños en torno a la funcionalidad de los LLM, tales como los FLM, que ayudan a reducir la complejidad de los LLM.
- Los humanos se reafirmarán: Sí – a medida que los errores de los chatbots y otras aplicaciones de GenAI fueron más evidentes en 2024, lo que generó críticas, incluso Gartner proporcionó orientación sobre los casos en que no debe usarse la GenAI.