Search Menu

De los principios de IA a una IA responsable

La incorporación de la IA a las organizaciones es un fenómeno reciente. Necesitamos formar y concienciar a los profesionales que trabajan con ella para aprovechar las oportunidades y mitigar los riesgos.

Tiempo de lectura: 6 min

La inteligencia artificial tendrá un gran impacto  en nuestras sociedades y presentará tanto oportunidades [1],[2],[3] como riesgos  [4],[5],[6]. En resupuesta a esos riesgos, varias empresas activas en el ámbito de la Inteligencia Artificial han publicado sus para asegurarse de que sus  actividades relacionadas con esta tecnología permanecen en el lado «bueno». Google, IBM, Microsoft, Deutsche Telekom y Telefónica  están entre estas empresas.

Suscríbete al blog de Telefónica y entérate antes que nadie.





Sin embargo, una cosa es publicar una declaración de cómo se creará y aplicará la IA en una organización, y otra cosa es implementarlo en toda la organización, especialmente en el caso de entidades multinacionales de gran tamaño.

Aunque hay poca experiencia a la hora de ponerlo en marcha, existen varios recursos para empezar a trabajar, en particular el Programa de certificación ética para sistemas autónomos e inteligentes del IEEE y proveedores de soluciones, como Accenture e IBM, que están desarrollando ofertas de consultoría para ayudar a las organizaciones a implementar la IA de forma responsable.

En esta publicación, explicaremos cómo Telefónica trata el tema. Resumiendo, los Principios de IA de Telefónica son:

  • IA justa: el uso de IA no debe llevar a efectos discriminatorios sobre las personas en aspectos como la raza, el origen étnico, la religión, el género, la orientación sexual o cualquier otra condición personal. Al optimizar un algoritmo de aprendizaje automático para conseguir exactitud en términos de falsos positivos y negativos, se debe considerar el impacto del algoritmo en el dominio específico.
  • IA transparente y explicable: ser explícitos con el tipo de datos personales y no personales que utilizan los sistemas de IA, así como sobre la finalidad para la que se emplean estos datos. Cuando las personas interactúan directamente con un sistema de IA, este debe ser transparente para que los usuarios comprendan los datos que se utilizan. Cuando los sistemas de IA toman o apoyan decisiones, debe garantizarse un nivel de comprensión sobre cómo se ha llegado a las conclusiones adecuado al área de aplicación específica  (no es el mismo para la publicidad que para un diagnóstico médico).
  • IA centrada en las personas: la IA debe estar al servicio de la sociedad y generar beneficios tangibles para las personas. Los sistemas de IA siempre deben permanecer bajo control humano y deben guiarse por consideraciones basadas en valores. La IA usada en nuestros productos y servicios no debe, en ningún caso, provocar un impacto negativo en los derechos humanos o en el logro de los objetivos de desarrollo sostenible de la ONU.
  • Privacidad y seguridad por diseño: al crear sistemas de IA, que están alimentados por datos, la privacidad y los aspectos de seguridad son una parte inherente del ciclo de vida del sistema.
  • Los principios también deben aplicarse por extensión cuando se trabaja con socios y terceros.

La adopción de la IA en las organizaciones todavía es un fenómeno reciente,  por lo que actualmente no se recomienda un enfoque de «control por comité» para comprobar todos los principios, porque esto reprimiría el progreso en un área donde la rapidez es esencial. En su lugar, creemos que tenemos que concienciar y formar a todos los profesionales sobre los problemas potenciales a fin de resolver la mayoría de ellos, de manera local dentro de su área. En determinados casos, puede que necesitemos escalamiento, pero consideramos que el paso importante ahora es la difusión, la sensibilización y la formación.

Nuestro enfoque consiste en descomponer cada principio en un conjunto de preguntas para incorporarlas en nuestros productos y servicios estándar de metodologías de diseño. Por lo tanto, necesitamos capacitar a nuestros profesionales para poder responder a esas preguntas y, solo en caso de dudas, ofrecer un mecanismo de escalamiento. La siguiente tabla muestra las preguntas para cada principio y si esto se implementa mediante herramientas de formación o técnicas.

Dada la novedad de este campo, el soporte ofrecido en herramientas técnicas todavía es limitado. De este modo, formación es la única opción viable para responder a la mayoría de las preguntas. Algunas preguntas requieren formación específica relacionada con el aprendizaje y la IA, mientras que otras requieren una formación más general, por ejemplo, para calcular las repercusiones sociales de la aplicación. Actualmente, las herramientas disponibles están principalmente relacionadas con la comprobación de sesgos no deseados en conjuntos de datos, que pueden conducir a la discriminación y encontrar correlaciones «ocultas» entre variables sensibles (etnia, religión, etc.) y variables «normales» (código postal, nivel de educación). Por ahora, solo existen algunas herramientas disponibles, como las código abierto (IBM, Pymetrics, Aequitas) y otras en posesión de terceros (Accenture).

Para contribuir a este campo, Telefónica ha organizado un Reto para el uso responsable de la IA. El objetivo es 1) averiguar si las preocupaciones están limitadas a unos pocos casos muy visibles o si están ocurriendo en una escala mucho mayor y 2) desarrollar herramientas y algoritmos que ayuden a detectar y mitigar las preocupaciones. El reto está abierto desde el 13 de noviembre hasta el 15 de diciembre de 2018 y se informará a los ganadores antes del 31 de diciembre.

  • Una metodología completa para una «IA responsable por diseño» debe incluir, como mínimo:
  • Principios de IA: para indicar los valores, los compromisos y los límites
  • Preguntas (lista de comprobación), como se muestra en la tabla
  • Concienciación y formación para asegurar que todos los profesionales de IA comprendan los problemas en juego y capacitarlos para responder adecuadamente a las preguntas
  • Herramientas técnicas que permitan comprobar automáticamente ciertas características de los conjuntos de datos y los algoritmos
  • Gobernanza: que define quién es responsable de qué y establece el proceso de escalamiento

En esta primera fase, apoyamos una forma de gobernanza más laxa para que nuestros profesionales puedan aprender, conocer y comprender el impacto potencial de la IA mientras trabajan con ella. Esto fomenta la responsabilidad y es más atractivo que imponer límites mediante el control de los comités. Sin embargo, si se promulgase una regulación específica sobre IA, la organización estaría bien preparada para aplicarla, porque los conocimientos y hábitos ya estarán incorporados en la manera de trabajar.


Medios de comunicación

Contacta con nuestro departamento de comunicación o solicita material adicional.

Celebra con nosotros el Centenario de Telefónica
EMPIEZA LA AVENTURA
Exit mobile version