Esta semana se ha dado un paso sin precedentes. El Parlamento Europeo ha aprobado la primera propuesta de Regulación de la Inteligencia Artificial hasta la fecha. Este no es el final del camino y ahora comenzarán las negociaciones interinstitucionales de la UE para llegar a un acuerdo sobre el texto final.
Este Reglamento establecerá una norma de referencia a nivel global. Su objetivo es promover la adopción de una inteligencia artificial centrada en el ser humano y confiable, así como garantizar un alto nivel de protección de la salud, la seguridad, los derechos fundamentales, la democracia, el Estado de Derecho y el medio ambiente frente a potenciales efectos nocivos de la aplicación de la inteligencia artificial.
Sin embargo, su planteamiento es controvertido en tanto regula no sólo el impacto de la tecnología o su uso, sino también la propia tecnología, al incluir la IA fundacional o generativa, lo que puede obstaculizar la innovación.
La llegada de la IA Generativa y su impacto en los modelos de gobernanza actuales
La rápida adopción de ChatGPT y la polémica que ha generado pueden ser una de las razones subyacentes a la rápida reacción de la UE en su propuesta de AI Act. Estas herramientas de IA se utilizarán cada vez más en una variedad de funciones empresariales y su impacto social ha suscitado una creciente preocupación.
En el sector privado, algunos altos representantes de la industria de la IA, como Sam Altman, director general de OpenAI, y Dennis Hassabis, director general de Google Deepmind, declararon que «mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto a otros riesgos a escala social, como las pandemias y la guerra nuclear«.
Mientras que otros cuestionan esta visión. Marc Andreessen, empresario innovador y co-creador del primer navegador web Mosaïc, que señaló hace más de 10 años «el software se está comiendo el mundo«, respondió en el post «¿Salvará la IA al mundo?«, al creciente debate sobre los riesgos de la IA.
Existe un acuerdo común sobre la necesidad de disminuir los riesgos potenciales de la IA. A pesar de ello, en Telefónica no estamos a favor de una cultura de la prohibición o regulación de las propias tecnologías. Los cambios normativos no siguen el ritmo de la rápida evolución tecnológica y cualquier regulación centrada en la tecnología quedará pronto obsoleta, y ello puede tener consecuencias negativas para la sociedad y la economía.
A su vez, creemos que la digitalización responsable debe sustentar la forma en que diseñamos y utilizamos la tecnología, incluida la IA generativa. Por ello, Telefónica incluye principios éticos y requisitos de transparencia en su modelo de gobernanza de la IA.
Próximos pasos de la Ley de Inteligencia Artificial para lograr un impacto social y económico positivo
En sus negociaciones, las instituciones de la UE no pueden permitirse perder de vista que la inteligencia artificial es una tecnología que tendrá un efecto transformador muy positivo en nuestra economía y nuestra sociedad. Es una tecnología que cambiará las reglas del juego y un motor de la competitividad regional y empresarial. La Ley sobre IA resultante debería pues también apoyar la innovación y mejorar el funcionamiento del mercado interior.
De hecho, en la era de los datos, la tecnología de Inteligencia Artificial se ha transformado en una palanca clave para la competitividad industrial, creando ventajas competitivas y convirtiéndose en una dimensión geoestratégica para los países. La IA puede promover la innovación en los servicios y los nuevos modelos de negocio, generar eficiencias y tener un impacto social positivo.
La cuestión clave es innovar con un enfoque centrado en las personas y en la generación de confianza. En el posicionamiento público de Telefónica mostramos nuestra experiencia y compromiso para mejorar la prosperidad, salvaguardando los derechos de las personas y nuestro modelo de sociedad.
Los tres pilares de la gobernanza: directrices mundiales, autorregulación y marco regulador
En nuestra opinión, los tres pilares de la gobernanza de la IA son el acuerdo de directrices globales, autorregulación y un marco normativo adecuado. Creemos que el ámbito de aplicación de la regulación de IA debe limitarse y complementarse con directrices regionales acordes a acuerdos globales y comportamientos responsables de los agentes públicos y privados basados en principios éticos desde el diseño.
Directrices regionales y mundiales
El alcance de la inteligencia artificial no se limita a las fronteras nacionales y, por lo tanto, requiere soluciones y enfoques regionales y globales para una mayor seguridad jurídica y una protección de los derechos de las personas. Necesitamos directrices y cooperación para fomentar una convergencia mundial de principios y prácticas éticas. Por ello, estamos de acuerdo con los nuevos avances en este sentido.
En Europa, el anuncio del Pacto por la IA, un compromiso voluntario de la industria para anticiparse a la Ley de IA, debería servir para dar seguridad a la aplicación de este reglamento, apoyar la innovación y mejorar el funcionamiento del mercado interior.
Además, se han aprobado iniciativas internacionales para abordar los retos y promover el uso ético de la inteligencia artificial. En mayo de 2023, los países del G7 acordaron dar prioridad a la colaboración para una gobernanza inclusiva de la IA. Los gobiernos subrayaron la importancia de adoptar enfoques prospectivos y basados en los riesgos para una IA confiable, en consonancia con los valores democráticos compartidos.
En la misma línea, durante la cuarta reunión ministerial del Consejo de Comercio y Tecnología (TTC) UE-EE.UU., celebrada el 31 de mayo de 2023, el TTC acordó incluir explícitamente los sistemas de inteligencia artificial generativa, como ChatGPT, en el ámbito de la hoja de ruta conjunta para una IA fiable. Margrethe Vestager, vicepresidenta Ejecutiva de la Comisión Europea, anunció que la UE y EE.UU. están trabajando juntos para desarrollar un Código de Conducta voluntario sobre IA antes de que entre en vigor una regulación formal. El objetivo es elaborar normas internacionales no vinculantes sobre auditorías de riesgos, transparencia y otros requisitos para las empresas que desarrollen sistemas de IA y animar a las empresas a adherirse voluntariamente.
Autorregulación
Además, la autorregulación presenta oportunidades relevantes. En primer lugar, el ritmo de desarrollo e innovación de la IA supera con creces la velocidad a la que se adoptan las normas, que a menudo tardan años. En segundo lugar, su complejidad dificulta la determinación de normas generales a priori aplicables a distintas situaciones, lo que podría inhibir la innovación. En tercer lugar, para aquellos usos que no se consideran de alto riesgo, la autorregulación es más eficiente desde el punto de vista financiero y administrativo. Y, por último, en ningún caso menoscaba la protección de los derechos, la salud, la democracia y la seguridad de las personas; al contrario, contribuye a mejorar los servicios digitales y a ampliar las oportunidades individuales y colectivas.
Telefónica ha aprobado unos principios éticos para la IA que se aplican en toda la compañía. Estos principios se aplican desde la fase de diseño y desarrollo, incluyendo el uso de productos y servicios por parte de los empleados de la compañía, así como de proveedores y terceros. La aplicación de estos principios se basa en un enfoque de «Responsabilidad por Diseño», que permite incorporar criterios éticos y sostenibles en toda la cadena de valor.
Marco normativo
El planteamiento del debate sobre la regulación de la inteligencia artificial requiere una visión holística que combine la cooperación internacional, la autorregulación, el establecimiento de políticas públicas adecuadas y un enfoque regulador basado en el riesgo. Todo ello con el doble objetivo de mitigar los riesgos y construir un marco centrado en el ser humano y en la confianza, para el desarrollo de la innovación y el crecimiento económico. Este planteamiento a su vez favorecería el uso ético de la tecnología y la asimilación tecnológica.