Las buenas prácticas promueven la IA responsable
Daniel Sibille, director senior de Compliance para Oracle Latinoamérica.
La llegada de la IA Generativa cambió nuestra vida para siempre y ha generado revuelo porque logra realizar acciones que tomaban horas o días, en segundos. A diferencia de lo que se suele creer, la IA no es una tecnología que nació con ChatGPT, pero este llegó como la demostración pública de lo que las organizaciones y empresas llevan años trabajando.
De acuerdo con el estudio “Explorando la IA como motor de cambio en la frontera digital latinoamericana” de NTT Data y MIT Technology Review la adopción de la IA en empresas latinoamericanas pasó de 58% en 2020 a 71% en 2023. En el mismo estudio, pero de 2021, el 3% de las empresas encuestadas afirmó que la IA no impactaría en sus negocios, sin embargo, para 2023 esta categoría desapareció ya que el porcentaje fue de cero. Tal es el impacto que ha generado la IA en las empresas que 40% de ellas en la región tiene al menos a una persona o en el mejor de los casos un equipo dedicado a proyectos de inteligencia artificial.
El uso de la IA tiene el potencial de aportar muchos beneficios, como una mayor eficiencia, precisión mejorada y toma de decisiones más rápida. Sin embargo, su uso también plantea importantes problemas éticos y sociales, preocupaciones como el potencial de discriminación, pérdida de empleos y la concentración de poder y riqueza en manos de unas cuantas grandes empresas. Es esencial, por tanto, adoptar un enfoque ético y transparente para su desarrollo e implementación. Este enfoque incluye garantizar que los sistemas de IA estén diseñados y entrenados de una manera que evite prejuicios y discriminación y están sujetos a una supervisión y regulación adecuadas.
Para garantizar la ética en la IA, es crucial incorporar el principio del consentimiento informado en la recolección de datos. Los usuarios deben estar conscientes y de acuerdo con cómo se utilizan sus datos, reforzando así la transparencia y la confianza en estos sistemas. Además, la educación y concienciación del público sobre la IA no solo es vital para la fuerza laboral, sino también para que la sociedad en su conjunto comprenda y se involucre con esta tecnología de manera informada y crítica.
En relación con la responsabilidad y la rendición de cuentas, es fundamental establecer mecanismos claros que permitan a los desarrolladores y usuarios de sistemas de IA ser responsables de sus acciones y decisiones. Esto incluye tener procedimientos claros para manejar situaciones de mal funcionamiento o uso indebido de la tecnología.
Otra consideración importante es el impacto ambiental y la sostenibilidad de los sistemas de IA. Con el creciente uso de recursos para operar y mantener estas tecnologías, es esencial abordar su huella ecológica y buscar maneras de minimizar su impacto en el medio ambiente.
La colaboración internacional juega un papel crucial en el desarrollo de normas y regulaciones éticas para la IA, considerando que es una tecnología que trasciende fronteras y culturas. Las empresas, especialmente las grandes tecnológicas, deben tomar la iniciativa no solo para el uso interno de la IA, sino también para acompañar a clientes que ya están incorporando rápidamente esta tecnología. Es esencial alinear el uso de la IA a los valores corporativos, la ciberseguridad y trabajar en los lineamientos que nos entreguen las políticas públicas, directrices que se están discutiendo pero que requieren revisión constante.