El Instituto de Desarrollo Digital de América Latina y Caribe organiza una charla magistral (#CharlasIDD) con Gonzalo López-Barajas, Gerente Políticas Públicas e Internet en Telefónica, para analizar la nueva ley europea que regirá los usos de la Inteligencia Artificial (IA).
¿De dónde surge la iniciativa?
La Unión Europea comenzó a hablar de opciones para regular la Inteligencia Artificial a finales del año 2018. Fue entonces cuando presentó por primera vez una estrategia de IA y acordó un plan coordinado con los Estados miembros. Un año después, la Comisión Europea
estableció entre sus prioridades para 2019-2024 conseguir una Europa preparada para el mundo digital, donde se incluía el debate sobre una inteligencia artificial humana y ética.
En 2019, la Comisión publicó las Directrices éticas para una Inteligencia Artificial de confianza y en 2020 vio la luz el Libro Blanco sobre Inteligencia Artificial, una estrategia industrial de la IA para que Europa adopte y lidere el desarrollo de esta tecnología, a la vez que propone un marco legislativo que impulse la confianza en la IA respetando los derechos fundamentales y la ética de Europa.
El punto álgido de la regulación de esta tecnología llega en marzo de 2021 con la publicación de la Ley de Inteligencia Artificial, una propuesta para regular los usos de la IA con el fin de abordar adecuadamente los beneficios y riesgos de su uso.
Este movimiento es pionero en el desarrollo de un marco normativo para la IA a escala mundial. Tal y como explicaba Margarethe Vestager, vicepresidenta de la Comisión Europea: “Adoptamos una propuesta histórica de esta Comisión: nuestro primer marco jurídico para la Inteligencia Artificial…. Hoy nos proponemos convertir a Europa en un referente mundial en el desarrollo de una Inteligencia Artificial segura, fiable y centrada en el ser humano, y en el uso de la misma”.
Telefónica ha participado activamente en todos los procesos de consulta que han acompañado estos desarrollos regulatorios, desde la contribución a las directrices éticas, al seguimiento del Libro Blanco , entre otras aportaciones.
Definición de IA, ámbito de aplicación y categorías
Para conocer la propuesta normativa, es indispensable entender qué se entiende por IA para saber qué estamos regulando y cuál es su alcance.
Se entiende por IA el software que se desarrolla empleando una o varias de las siguientes técnicas: estrategias de aprendizaje automático/profundo, lógica y conocimiento, estadísticas/bayesiana. Este uso puede generar información de salida -como contenidos, predicciones, recomendaciones o decisiones- para un conjunto determinado de objetivos definidos por seres humanos e influir en los entornos con los que interactúa.
Esta explicación ofrece un enfoque muy amplio para definir una tecnología que será decisiva para el desarrollo de la Unión Europa. Por ello, sería necesario proporcionar una definición más precisa para que no queden regulados sistemas para los que su adopción supondría una barrera determinante y no obtendríamos beneficio de su introducción en el alcance normativo.
Sin embargo, una ventaja muy significativa de la propuesta es su ámbito de aplicación, que sigue la estela de otros desarrollos normativos anteriores, como el Reglamento General de Protección de Datos, o en marcha -como el Digital Services Act y el Digital Markets Act-. De este modo, la nueva propuesta afectará a todos los agentes que ofrezcan sistemas de IA que impacten a personas ubicadas en la Unión Europea, independientemente de que estos agentes estén establecidos o no dentro de sus fronteras.
“Europa cuenta con normas claras para proporcionar seguridad jurídica y protección al consumidor en lo que respecta a los bienes y servicios. Hoy somos la primera jurisdicción del mundo que propone un marco jurídico completo para hacer lo mismo con la IA», Thierry Breton.
En cuanto al enfoque regulatorio, nos encontramos con una propuesta basada en el riesgo, es decir, dependiendo del impacto que pueda tener el uso del sistema del IA en las personas, encontraremos obligaciones distintas clasificadas en cuatro niveles principales:
- Riesgo inaceptable, entre los que se enmarcarían prácticas como: puntuación social, vigilancia masiva, manipulación del comportamiento causando daños, etc. Estos usos quedarían prohibidos salvo aquellos autorizados por la ley por motivos de seguridad nacional.
- Alto riesgo, donde se incluyen: el acceso a empleo, educación y servicios públicos, componentes de seguridad de vehículos, aplicación de la ley, etc. En este caso sería preciso una evaluación de conformidad (propia o por una tercera parte).
- Riesgo limitado, engloba prácticas como la suplantación de personalidad, chatbots, reconocimiento de emociones, Deep fakes, categorizaciones biométricas, etc. Para esta categoría existe una obligación de transparencia, por lo que será preciso informar de que se está interactuando con un sistema de IA (salvo que sea evidente) y etiquetar “deep fakes”.
- Riesgo mínimo, para el resto de usos. Deben fomentar la adopción de códigos de conducta y voluntarios, incluyendo las obligaciones de transparencia.
La posición de Telefónica
Para que la UE tenga éxito y lidere el desarrollo, la adopción y el uso de una Inteligencia Artificial basada en valores europeos, debe ser prioritaria una aplicación fluida de la Ley de Inteligencia Artificial.
Telefónica es, desde hace unos años, un agente activo en el ecosistema de la Inteligencia Artificial (IA). Incorporamos esta tecnología en una amplia gama de servicios y actividades: desde nuestra unidad de negocio de Big Data LUCA, hasta en Aura (nuestro asistente virtual basado en IA) o en la mejora de la eficiencia de los procesos internos.
Conscientes del posible impacto de la IA en la economía, las personas o las sociedades, hemos sido pioneros abordando su complejidad en nuestro Manifiesto para un Nuevo Pacto Digital de 2018 y en el reciente Pacto Digital para volver a construir mejor nuestras sociedades y economías (2020), donde destacamos el uso ético de la tecnología como pilar fundamental de la confianza digital y sus implicaciones en los sistemas democráticos.
Con el fin de maximizar los beneficios potenciales de la IA generando confianza en su uso y adopción por parte de nuestros clientes y minimizando los riesgos, Telefónica ha liderado, dentro del sector privado, la definición de unos principios éticos para la IA de aplicación en la compañía. Estos principios son aplicables no solo al diseño, desarrollo y uso de productos y servicios por parte de los empleados de la compañía, sino también por proveedores y terceras partes.
Estas iniciativas están alineadas con la propuesta de la Unión Europea y con el compromiso de Telefónica para conseguir un uso ético, seguro y confiable de la tecnología.