¿La inteligencia artificial sustituirá al ser humano? ¿Podría volverse contra sus creadores? ¿Representa un peligro para la especie humana?
Éstas son solo algunas de las preguntas que han suscitado el debate público y han sacudido a los medios de comunicación desde el despliegue masivo de herramientas de IA generativa y las declaraciones sensacionalistas de algunos personajes públicos. Sin embargo, por muy interesantes que sean las especulaciones desde un punto de vista filosófico, la mayoría de los expertos coinciden en que son un tanto prematuras.
Es cierto que la inteligencia artificial tiene un enorme potencial. Es una tecnología que va a permitir automatizar un amplio abanico de tareas, crear nuevos servicios y, en definitiva, hacer más eficientes las economías. La IA generativa marca una nueva etapa en esta tendencia subyacente, cuyas múltiples aplicaciones apenas estamos empezando a explorar.
Sin embargo, no debemos perder de vista que, a pesar de sus notables prestaciones, los sistemas de IA son esencialmente máquinas, nada más que algoritmos integrados en procesadores capaces de asimilar grandes cantidades de datos.
Se nos ha dicho que estas nuevas herramientas serán capaces de superar la prueba de Turing. Probablemente sea cierto, pero ese test -que anteriormente se creía capaz de trazar la línea divisoria entre la inteligencia humana y la inteligencia artificial- hace tiempo que dejó de tener un valor real. Estas máquinas son incapaces de inteligencia humana, en el sentido más amplio del término (es decir, que implique sensibilidad, adaptación al contexto, empatía…), reflexividad y conciencia, y probablemente lo serán por mucho tiempo. Uno no puede evitar pensar que quienes imaginan que estas herramientas tendrán pronto esas características se están dejando influir demasiado por la ciencia ficción y por figuras míticas como Prometeo o el gólem, que siempre han ejercido cierta fascinación sobre nosotros.
Si adoptamos un punto de vista más prosaico, nos damos cuenta de que las cuestiones éticas planteadas por la creciente importancia de la inteligencia artificial no son nada nuevo y que la llegada de ChatGPT y otras herramientas simplemente las ha hecho más apremiantes. Aparte del tema del empleo, estas cuestiones se refieren, por una parte, a la discriminación creada o amplificada por la IA y los datos de entrenamiento que utiliza y, por otra, a la propagación de información errónea (ya sea deliberadamente o como resultado de “alucinaciones de la IA”). Sin embargo, estos dos temas preocupan desde hace tiempo a investigadores de algoritmos, legisladores y empresas del sector, que ya han empezado a aplicar soluciones técnicas y jurídicas para contrarrestar los riesgos.
Veamos, en primer lugar, las soluciones técnicas. Los principios éticos se están incorporando al propio desarrollo de las herramientas de IA. En Thales, llevamos tiempo comprometidos a no construir “cajas negras” cuando diseñamos sistemas de inteligencia artificial. Hemos establecido directrices que garantizan que los sistemas sean transparentes y explicables. También nos esforzamos por minimizar los prejuicios (sobre todo de género y apariencia física) en el diseño de nuestros algoritmos, a través de los datos de entrenamiento que utilizamos y la composición de nuestros equipos.
En segundo lugar, las soluciones jurídicas. Aquí, la Unión Europea ha tomado indiscutiblemente la delantera. La Comisión Europea y el Parlamento Europeo llevan más de dos años trabajando en un proyecto de reglamento destinado a limitar por ley los usos más peligrosos de la inteligencia artificial.
Sin embargo, es también a través de la educación y de un verdadero cambio social como lograremos protegernos de los riesgos inherentes al mal uso de la IA. Juntos, debemos conseguir apartarnos del tipo de cultura de la inmediatez que ha florecido con la llegada de la tecnología digital, y que probablemente se verá exacerbada por la difusión masiva de estas nuevas herramientas.
Como sabemos, la IA generativa permite producir fácilmente contenidos altamente virales, pero no necesariamente confiables. Existe el riesgo de que amplifique las deficiencias ampliamente reconocidas en el funcionamiento de las redes sociales, sobre todo en su promoción de contenidos cuestionables y divisivos, y en la forma en que provocan reacciones y enfrentamientos instantáneos.
Además, estos sistemas, al acostumbrarnos a obtener respuestas “listas para usar”, sin tener que buscar, autentificar o contrastar fuentes, nos vuelven intelectualmente perezosos. Corren el riesgo de agravar la situación al debilitar nuestro pensamiento crítico.
Por tanto, aunque no sería razonable empezar a enarbolar la bandera roja de un peligro existencial para la raza humana, sí es necesario emitir una señal de alarma. Hay que buscar fórmulas para acabar con esa nociva propensión a la inmediatez que lleva casi dos décadas contaminando la democracia y creando un caldo de cultivo para las teorías de la conspiración.
“Piénselo durante 30 segundos ” es el fantástico título de un curso de formación creado por el centro quebequense de educación en medios de comunicación e información. Tomarse el tiempo necesario para contextualizar y evaluar la credibilidad de un contenido, y mantener un diálogo constructivo en lugar de reaccionar inmediatamente, son los pilares de una vida digital sana. Tenemos que asegurarnos de que su enseñanza -tanto en la teoría como en la práctica- sea una prioridad absoluta en los sistemas educativos de todo el mundo.
Si abordamos este desafío, por fin podremos aprovechar el tremendo potencial que tiene esta tecnología para hacer avanzar la ciencia, la medicina, la productividad y la educación.
Por Anthony Cusimano, Director de Marketing Técnico en Object First.
Solo seis de cada diez organizaciones cuentan con soluciones tecnológicas de prevención del fraude en…
Los equipos de TI se benefician de la simplicidad de despliegue, gestión y la capacidad…
La marca Xerox será visible en el AMR24 en el Gran Premio de Las Vegas.
Yalo observa que la IA es una herramienta transformadora que está cambiando el juego para…
Más de 1 millón de dominios registrados podrían ser vulnerables diariamente