No cabe la menor duda: el 2025 se siente como si entráramos a la era dorada de la inteligencia artificial (IA), ya que las enormes inversiones de las empresas en IA y en IA Generativa (GenAI) están produciendo ganancias reales en productividad e ingresos. Entonces, ¿cómo podemos lograr que la gallina de los huevos de oro siga poniendo huevos en la era dorada de la IA? En 2025, pienso que las compañías, revitalizadas por las motivaciones adecuadas y empoderadas con las herramientas correctas, obtendrán resultados confiables y repetibles con la IA y la GenAI si operativizan estas tecnologías y demuestran su credibilidad. He aquí mis predicciones sobre AI y GenAI para este nuevo año:
Las compañías descubrirán que no toda la IA es GenAI
A medida que la era dorada de la IA se consolide, las compañías asumirán con seriedad la capacidad de maximizar el valor empresarial de sus inversiones en IA. Después de analizar los problemas de negocio que desean resolver, las empresas aplicarán su experiencia y aprendizajes en IA para determinar qué oportunidades de negocio son las más adecuadas para la GenAI y cuáles son mejores para las técnicas de IA tradicionales y el machine learning interpretable, especialmente en las áreas sumamente reguladas y la toma de decisiones críticas. De hecho, más del 80% de todos los sistemas de IA en producción actualmente no son de IA Generativa.
Entonces, pese a que las organizaciones ahora cuentan con un arsenal proverbial de capacidades de IA, no deben intentar enroscar un tornillo con un martillo. Elegir las herramientas adecuadas de IA requiere científicos de datos que conozcan a detalle los requisitos empresariales y operativos y que puedan evaluar las fortalezas o debilidades relativas de la IA o la GenAI. Los procesos “Human on the loop”, en los cuales las personas participan en varios aspectos de la organización, serán clave para definir si un problema empresarial necesita decisiones determinantes, del machine leraning interpretable, capacidad de auditoría u otros requisitos de implementación. Elegir correctamente entre la IA tradicional y la GenAI será fundamental para el éxito de las inversiones en IA.
Operativizar la IA es un reto… pero se volverá más sencillo
“Operativización” no es precisamente una palabra fácil de pronunciar. Sin embargo, este concepto, que significa “convertir ideas conceptuales abstractas en observaciones medibles”, puede lograrse de manera sistemática si los sistemas de IA y GenAI se implementan de forma repetible y medible a través de una combinación optimizada de personas, procesos y tecnología.
Muchas empresas no saben cómo operativizar la IA ni por dónde empezar a hacerlo. En mi puesto en FICO, he desarrollado cinco principios de operativización que forman la estructura de cualquier implementación de IA:
La responsabilidad y la capacidad explicativa son fundamentales para la IA Responsable y pueden alcanzarse mediante el uso de una tecnología de blockchain inmutable, que codifique todos los aspectos de la implementación del modelo de IA. La misma gobernabilidad de IA con blockchain puede emplearse para definir métricas operativas y supervisar la IA en producción, lo que permite obtener valor fuera del laboratorio de ciencia de los datos.
Aumentarán los casos de uso de GenAI específicos para el dominio de datos
Las compañías que verdaderamente desean utilizar modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés) y otras técnicas generativas de manera responsable y ética lo harán desde una perspectiva de IA Responsable, empezando por el dominio de sus propios datos—. Siempre he manifestado esta opinión y me complace que los investigadores de MIT y McKinsey & Co. lo encuentran empíricamente cierto, tal como lo afirman de manera categórica en el Harvard Business Review: “Para que las compañías utilicen bien la IA, necesitan datos precisos, pertinentes y bien organizados”.
En 2025, los programas de GenAI se basarán en datos seleccionados activamente que serán relevantes para dominios empresariales específicos. Las compañías seleccionarán y limpiarán los datos que se utilizarán para entrenar los LLM y eliminarán las grandes cantidades de datos que no deben utilizarse. Este es el primer paso hacia el uso responsable y la generación de valor empresarial, ya que los datos de entrenamiento deben ser representativos de las decisiones que se tomarán en función de ellos. Las empresas se diferenciarán por sus estrategias de datos en la creación de los LLM, ya que, después de todo, un LLM no es más que un reflejo de los datos con los cuales se desarrolló.
Las compañías crearán sus propios modelos de lenguaje pequeños y enfocados
Por otra parte, en 2025 habrá más compañías que desarrollarán sus propios modelos de lenguaje pequeños (SLM, por sus siglas en inglés). También surgirán modelos de lenguaje enfocados (FLM, por sus siglas en inglés) capaces de abordar el aspecto más complejo de los LLM mediante un corpus de datos por dominio específico y anclajes de conocimiento relevantes para asegurar que las respuestas basadas en tareas de los FLM estén fundamentadas en la realidad. Estos mismos FLM ayudarán a legitimar las aplicaciones de Agentic IA, que aún están en sus primeras etapas, pero requieren modelos LLM sumamente especializados para tareas específicas que operen con altos niveles de precisión y control.
El uso generalizado de los FLM puede generar otro resultado positivo: reducir el impacto ambiental de la GenAI. Según estimaciones de la industria, una sola consulta en ChatGPT consume entre 10 y 50 veces más energía que una búsqueda en Google. En un nivel más alto, el informe más reciente de la ONU sobre la Economía Digital sugiere que los centros de datos operados por Google, Amazon, Meta, Apple y Microsoft (GAMAM) consumieron más de 90 TWh (teravatios-hora, o 1,000 gigavatios-hora [GWh]) de energía, más que países enteros como Finlandia, Bélgica, Chile o Suiza. A medida que las empresas buscan formas de cumplir sus objetivos de sostenibilidad más allá de la compra de créditos de carbono, los FLM pueden generar un impacto significativo mientras producen mejores resultados para las empresas.
Las puntuaciones de confianza en la IA fomentarán la credibilidad en la GenAI
Las puntuaciones de confianza en la IA, tales como las relacionadas con los FLM, fomentarán la confianza en la GenAI. Esta puntuación de confianza en IA secundaria, independiente y basada en el riesgo, además de las estrategias basadas en ella, permite operativizar la GenAI a escala con una precisión medible.
Las puntuaciones de confianza en la IA reflejan tres aspectos:
Las puntuaciones de confianza en la IA pueden integrarse en un sistema de gestión de riesgos adecuado, a fin de que las empresas puedan decidir si confiarán en la respuesta de un FLM, lo que representa una verdadera estrategia de operatividad.
Mirar hacia adelante y hacía atrás
Estoy entusiasmado por ver cómo se desarrollan mis predicciones sobre IA y GenAI en esta era dorada de la inteligencia artificial. Al mirar atrás, mis predicciones sobre IA del 2024 fueron bastante acertadas, aquí algunas de ellas:
La compañía anunció que ha sido nombrada líder en la evaluación de proveedores de servicios…
Con mecánicas similares a las de los casinos, las loot boxes son un riesgo para…
La adquisición amplía las capacidades de LexisNexis Risk Solutions en soluciones de riesgo y fraude…
Como en todo el mundo, el cibercrimen sigue a la caza de vulnerabilidades. Los riesgos…
Por Douglas Wallace, Gerente de Ventas Distrital, América Latina y el Caribe (Excepto Brasil) en…
Walmart Chile y Takami en Colombia lo lograron con OnDemand de DispatchTrack.