Search Menu

Resiliencia en la era de la inteligencia artificial

Por todos es sabido que la inteligencia artificial (IA) está transformando el mundo que conocemos a una velocidad vertiginosa, y ya es la tecnología de adopción más rápida de la historia, pero ¿qué papel juega la ciberseguridad en este nuevo mundo?

A medida que confiamos cada vez más en estas herramientas, las instituciones, empresas y personas que trabajamos día a día en ciberseguridad, estamos muy preocupados por las vulnerabilidades que, como cualquier otra tecnología, tiene la IA.

Suscríbete al blog de Telefónica y entérate antes que nadie.





Además, cuanto más poderosa es una herramienta digital, se vuelve más masiva y más atractiva para actores malintencionados. En este contexto, garantizar la seguridad de los sistemas de IA no es una opción, sino una necesidad urgente que cualquier organización debe plantearse antes y durante la implementación de cualquier proceso gobernado por inteligencia artificial.

Ciberseguridad en la IA, un matrimonio ideal

La IA necesita protección, sobre todo enfocada en evitar el robo de datos y la manipulación de los modelos y procesos que hay detrás de cada caso de uso.

La estructura y el diseño de cada aplicación basada en IA es complejo y esto puede hacer que muchas puertas se queden abiertas por desconocimiento. Además, los casos de uso para procesos críticos de compañías cada vez son más comunes y hay que tener mucho cuidado con que un ataque a la IA no interrumpa una actividad que puede dejar sin funcionamiento el core de un negocio o de una institución.

Ya se conocen multitud de ataques como los basados en deepfake para suplantación y fraude de personas o robo de modelos mediante ataques de extracción, donde los atacantes extraen modelos entrenados mediante consultas a través de APIs públicas, recreando su lógica para usos maliciosos.

¿Cuáles son las principales amenazas de ciberseguridad en la IA?

De manera genérica, hoy en día (porque los tipos de ataque también se multiplican cada día que pasa) podemos hablar de estas amenazas o tipos de ataque:

  • Ataques a la infraestructura, pluggins o agentes que soporta la IA: el clásico en ciberseguridad, como cualquier otra infraestructura conectada es susceptible de ataque (vulneración de accesos, ataques DDoS, malware, etc.).
  • Robo de datos y manipulación: Los modelos de IA están programados para consultar grandes cantidades de datos, y los datos siempre han sido un tesoro que conseguir por los ciberdelincuentes. Además, una modificación de los mismos puede manipular los resultados.
  • Robo de modelos de IA: conocer cómo está implementada una IA, puede ser una entrada para manipularla a favor del objetivo del cibercriminal y con ello conseguir extraer datos, evadir o modificar el comportamiento de la IA, etc.

Además, desde la OWASP (Open Web Application Security Project) ya se trabaja cada año en publicar también las vulnerabilidades más comunes y mitigaciones necesarias, para desarrollar y proteger aplicaciones de IA generativa y los modelos de lenguaje.

¿Qué podemos hacer para proteger la IA?

Lo que tenemos claro hoy en día es que hay que empezar a proteger este tipo de implementaciones desde etapas muy tempranas, el camino hacia la IA debe ser seguro por defecto.

Además, hay que ser muy consciente de que, dentro de las organizaciones, mayoritariamente hay dos mundos muy distintos que proteger: los usuarios que utilizan IA generativa y los departamentos que están creando sus propias aplicaciones de IA.

Si nos centramos en el mundo de la IA desarrollada internamente por las organizaciones para mejorar y automatizar procesos de negocios y corporativos es importante proteger las etapas de desarrollo y despliegue, así como proteger los datos con los que alimentamos esas IAs. En este mundo, tener control de las diferentes IAs que están siendo utilizadas (poder hacer descubrimientos automáticos incluso), saber qué usuarios las están utilizando, conocer los datos a los que están accediendo, proteger los modelos contra ataques conocidos y monitorizar de forma continua el comportamiento de los modelos en tiempo real, para detectar patrones maliciosos, es el do the basics de la protección de la IA.

Si nos centramos en el mundo de los usuarios que utilizan aplicaciones de IA generativa debemos poner especial atención en tener conocimiento de qué apps se utilizan y quiénes las usan, qué datos confidenciales se pueden estar compartiendo y qué políticas de autorización de uso de este tipo de aplicaciones va a tener la corporación. Tampoco nos podemos olvidar del pilar principal que deberíamos tener siempre presente en este mundo relacionado con la ciberseguridad: concienciación, concienciación y concienciación.

Conclusión

La inteligencia artificial es imparable y está transformando rápidamente el mundo, pero sus vulnerabilidades aumentan los riesgos de ataques, lo que su protección debe ser un punto importante a tratar antes de embarcarse en su uso o implementación en las organizaciones. Es esencial salvaguardar tanto los modelos como los datos, por ello, establecer políticas de uso de la IA, proteger la IA desde su desarrollo y monitorizar su uso continuo es la clave para un camino resiliente a la IA.

Compártelo en tus redes sociales


Medios de comunicación

Contacta con nuestro departamento de comunicación o solicita material adicional.

Suscríbete al blog de Telefónica

Por ejemplo, tunombre@dominio.com

Gracias por suscribirte, ¡sólo te queda un paso!

Exit mobile version