Por Valentina Camuglia*
En el constante avance de la tecnología, la inteligencia artificial (“IA”) ha emergido como un campo crucial que impulsa la innovación en diversas industrias. Desde la automatización de tareas hasta la toma de decisiones complejas, la IA está transformando la forma en que interactuamos con la tecnología y el mundo que nos rodea.
El Departamento de Ciencia, Innovación y Tecnología del Reino Unido ha dado un paso significativo al presentar el 12 de febrero el white paper “Introducción al aseguramiento de la IA”,[1] proporcionando una visión exhaustiva y completa de los métodos de garantía y las normas técnicas internacionales para la creación y aplicación ética de sistemas de IA.[2]
¿Qué implica esta “garantía de la IA”? Esencialmente, se trata de establecer un marco sólido para asegurar que los sistemas de inteligencia artificial sean confiables, transparentes y éticos.
El white paper se inspira en el marco de gobernanza de la IA del Reino Unido; su precedente de 2023 que ha tratado de crear “un enfoque pro-innovación para la regulación de la IA”.[3] Los cincos principios universales definidos en este white paper, que van desde seguridad hasta rendición de cuentas, guían el desarrollo ético de las tecnologías de la IA.
El primer principio, transparencia y explicabilidad adecuadas, describe cómo los sistemas de IA deben ser transparentes en su funcionamiento y explicables para los usuarios y partes interesadas. Comprender cómo toman decisiones es fundamental para la confianza y la rendición de cuentas.
El segundo principio, equidad, menciona cómo la IA no debe perpetuar sesgos o discriminación. El white paper enfatiza la necesidad de garantizar que los sistemas de IA sean justos y no favorezcan a ningún grupo en detrimento de otro.
El tercer principio, seguridad, protección y robustez, detalla que la confiabilidad y la seguridad de los sistemas de IA son esenciales. El marco de gobernanza busca establecer estándares para proteger contra fallas y riesgos.
El cuarto principio, rendición de cuentas y gobernanza, delinea cómo los creadores y usuarios de IA deben asumir la responsabilidad de su uso. La rendición de cuentas y una sólida gobernanza son fundamentales para garantizar prácticas éticas.
El quinto y último principio, impunidad y reparación, explica que, ante el surgimiento de problemas o errores, deben existir mecanismos para impugnar decisiones de IA y proporcionar una reparación cuando sea necesario.
La guía no se limita a principios abstractos. Va un poco más allá y profundiza en herramientas prácticas para lograr estos objetivos, pudiéndose destacar mecanismos de garantía y estándares técnicos globales. Estas herramientas son esenciales para asegurar que los sistemas de IA sean confiables, éticos y seguros.
La garantía de la IA desempeñará un papel crítico en la implementación y operacionalización de los cinco principios descriptos. Los principios identifican objetivos específicos (el “qué”) que los sistemas de IA deben lograr, independientemente del sector en el que se desplieguen. En cambio, las técnicas y estándares de garantía de IA (comúnmente denominados “herramientas para una IA confiable”) pueden ayudar a la industria y a los reguladores a comprender “cómo” operacionalizar estos principios en la práctica, proporcionando procesos, métricas y marcos acordados para apoyarlos en el logro de estos objetivos.
El marco regulatorio del Reino Unido se estructura de la siguiente manera:
El enfoque del Reino Unido en la gobernanza de la IA se centra en los resultados en lugar de la tecnología en sí misma, y reconoce que los riesgos potenciales de la IA dependerán del contexto de su aplicación. Para llevar a cabo este enfoque basado en resultados, los reguladores existentes serán responsables de interpretar e implementar los principios regulatorios en sus respectivos sectores y establecer pautas claras sobre cómo lograr estos resultados dentro de un sector en particular.
La garantía de IA es un aspecto clave de la gobernanza y regulación de la IA, ya que proporciona procesos para hacer y evaluar afirmaciones verificables, lo que hace que las organizaciones sean responsables. A través de la garantía de IA, las organizaciones pueden medir si los sistemas son confiables y demostrarlo al gobierno, los reguladores y el mercado, obteniendo así una ventaja competitiva al construir la confianza del cliente y gestionar el riesgo reputacional. Además, las técnicas de garantía también pueden ayudar a identificar y mitigar los problemas relacionados con la IA para evitar la mala publicidad y riesgos comerciales mayores.
Además, para respaldar el comercio transfronterizo en IA, se necesitará un ecosistema bien desarrollado de enfoques de garantía de IA, herramientas, sistemas y estándares técnicos que garanticen la interoperabilidad internacional entre diferentes regímenes regulatorios. Las empresas del Reino Unido deben demostrar la gestión de riesgos y el cumplimiento de formas que sean entendidas por los socios comerciales y consumidores en otras jurisdicciones.
A fin de cubrir el espectro completo del aseguramiento de la IA, el white paper propone desde evaluaciones cualitativas hasta auditorías de sesgo. El foco central de la nueva publicación es el “aseguramiento de la IA”, por ello se establecen y abordan diversas técnicas que evalúan los sistemas de IA a lo largo de su ciclo de vida; Desde evaluaciones cualitativas para identificar riesgos potenciales e impactos sociales hasta evaluaciones cuantitativas para medir el desempeño y el cumplimiento legal.
En mi opinión, los principales puntos a resaltar son, en primer lugar, las herramientas para una IA confiable, destacándose los mecanismos de garantía y estándares técnicos globales. Estos son fundamentales para establecer una base sólida en la creación y aplicación de sistemas de IA. La confiabilidad de la IA implica no solo su precisión, sino también su capacidad para funcionar de manera coherente y predecible. En segundo lugar, la evaluación de riesgos. La IA no está exenta de riesgos. Desde sesgos hasta daños a la reputación, su aseguramiento abarca técnicas clave, como la evaluación de riesgos y la auditoría de sesgos. La evaluación de riesgos es crucial para comprender las posibles consecuencias de los sistemas de IA y tomar medidas preventivas. En último lugar, el ciclo de vida de la IA. Se deben evaluar los sistemas desde la concepción hasta la implementación, incluyendo evaluaciones cualitativas y cuantitativas para medir desempeño y cumplimiento legal.
El documento, menciona varios riesgos potenciales e impactos sociales que pueden surgir del uso de la IA. Estos pueden incluir algoritmos con sesgos y discriminación si no se entrenan adecuadamente o si se basan en conjuntos de datos sesgados, como también violaciones de la privacidad y la seguridad de los datos. Todo esto podría afectar la confianza del público en el uso de la tecnología.
En el contexto específico del Reino Unido, la referencia también destaca cómo garantizar gobernanza responsable a partir de:
Evaluación de conformidad: El white paper ofrece recomendaciones específicas para las organizaciones del Reino Unido, destacando la importancia de demostrar procesos de gobernanza interna mediante la evaluación de la conformidad con reglas como las normas ISO/IEC 42001 (Sistema de Gestión de la IA). Esto implica seguir estándares reconocidos con el fin de asegurar que los procesos de desarrollo e implementación de la IA cumplan con criterios éticos y de gobernanza.
Evaluación de impacto algorítmica: Se enfatiza la importancia de comprender riesgos potenciales al adquirir sistemas de IA mediante una evaluación de impacto algorítmica acreditada por un organismo de evaluación de su conformidad. Esta evaluación permite identificar y abordar posibles implicaciones éticas y sociales de los algoritmos utilizados.
Auditoría de cumplimiento: Con el fin de garantizar el cumplimiento de regulaciones de protección de datos, se sugiere llevar a cabo auditorías de cumplimiento a cargo de proveedores externos de garantía. Estas auditorías aseguran que los sistemas de IA manejen adecuadamente la información y cumplan con los estándares legales y éticos.
En conclusión, el nuevo white paper del Reino Unido sobre la garantía de la IA no solo es un compendio de principios abstractos, sino que proporciona una guía exhaustiva para las organizaciones que buscan desarrollar e implementar sistemas de IA éticos. Con un enfoque proactivo en la gobernanza y la evaluación de riesgos, esta iniciativa establece un marco sólido para un futuro en el que la IA coexiste de manera ética y responsable en nuestra sociedad en constante evolución.
Este documento no se limita a teorías filosóficas; es una herramienta práctica para los creadores y usuarios de sistemas de IA. Al destacar la importancia de la transparencia, la equidad, la seguridad y la rendición de cuentas, el white paper se convierte en un faro que guía el desarrollo tecnológico hacia un horizonte más justo y seguro.
En un mundo que se encuentra en constante cambio, donde la IA se integra cada vez más en nuestras vidas cotidianas, destaco el rol clave de la iniciativa británica en recordarnos que la innovación debe ir siempre de la mano con la responsabilidad. Así, la IA coexistirá de manera armoniosa con nuestra sociedad, beneficiando a la población sin comprometer nuestros valores fundamentales.
* Estudiante de abogacía en la Universidad de San Andrés
[1] Introducción al aseguramiento de la inteligencia artificial, Departamento de Ciencia, Innovación y Tecnología del Reino Unido (2024).
[2] Referencia a los principios y formas de garantizar gobernanza responsable de la IA.
[3] A pro-innovation approach to AI regulation, Departamento de Ciencia, Innovación y Tecnología del Reino Unido (2023).
Comments