Explicación de la seguridad de la IA: cómo proteger la IA (AI Security)
La IA es el motor detrás de los procesos de desarrollo modernos, la automatización de la carga de trabajo y el análisis de big data. La seguridad de la IA es un componente clave de la ciberseguridad empresarial que se centra en defender la infraestructura de IA de los ciberataques.
Equipo de expertos de Wiz
11 minutos de lectura
¿Qué es la seguridad de la IA?
La seguridad de la IA es un componente clave de la ciberseguridad empresarial que se centra en defender la infraestructura de IA de los ciberataques. Centrarse en la seguridad de la IA es vital porque numerosas tecnologías de IA están entretejidas en la estructura de las organizaciones. La IA es el motor detrás de los procesos de desarrollo modernos, la automatización de la carga de trabajo y el análisis de big data . También se está convirtiendo cada vez más en un componente integral de muchos productos y servicios. Por ejemplo, una aplicación bancaria proporciona servicios financieros, pero las tecnologías impulsadas por IA, como los chatbots y los asistentes virtuales dentro de estas aplicaciones, proporcionan un factor X.
Se prevé que el mercado mundial de infraestructura de IA alcance más de 96 mil millones de dólares en 2027. Según McKinsey , hubo un aumento del 250 % en la adopción de IA entre 2017 y 2022, y los casos de uso más destacados incluyeron la optimización de las operaciones de servicio, la creación de nuevos productos basados en IA, el análisis de servicios al cliente y la segmentación de clientes. Desafortunadamente, todos y cada uno de estos casos de uso de IA son susceptibles a ciberataques y otras vulnerabilidades.
Eso es solo la punta del iceberg. Los ingenieros de datos y otros equipos ágiles aprovechan las soluciones GenAI, como los modelos de lenguaje grandes (LLM), para desarrollar aplicaciones a gran velocidad y escala. Muchos proveedores de servicios en la nube (CSP) ofrecen servicios de IA para respaldar este desarrollo. Es posible que haya oído hablar de servicios de IA como Azure Cognitive Services, Amazon Bedrock y Vertex AI de GCP o los haya utilizado. Si bien estos servicios y tecnologías permiten a los equipos desarrollar e implementar aplicaciones de IA más rápido, estos canales presentan numerosos riesgos. La conclusión es que la IA no es tan segura como muchos creen y requiere fortificaciones sólidas.
¿Qué tan (in)segura es la inteligencia artificial?
La narrativa que rodea a la IA suele centrarse en la ética y en la posibilidad de que la IA sustituya a la fuerza laboral humana. Sin embargo, Forrester afirma que los 11 millones de puestos de trabajo que la IA sustituirá en Estados Unidos en 2032 se verán compensados por otras nuevas oportunidades laborales. La complejidad, relativamente pasada por alto, se encuentra en la encrucijada de la IA y la ciberseguridad. Los actores de amenazas aprovechan la IA para distribuir malware e infectar códigos y conjuntos de datos. Las vulnerabilidades de la IA son un vector común de violaciones de datos, y los ciclos de vida de desarrollo de software (SDLC) que incorporan IA son cada vez más susceptibles a las vulnerabilidades.
La GenAI, en particular, plantea muchos riesgos. El potencial peligroso de la GenAI se ve en herramientas como WormGPT , que es similar a ChatGPT pero se centra en la realización de actividades delictivas. Afortunadamente, la aplicación de la IA en la ciberseguridad se está utilizando para protegerse de estas amenazas con la evolución de la seguridad de ChatGPT . El mercado de la IA en la ciberseguridad alcanzará los 60.600 millones de dólares en 2028, lo que demuestra que los equipos de seguridad humanos tendrán dificultades para identificar y remediar los ciberataques a gran escala facilitados por la IA sin utilizar la IA ellos mismos.
La inteligencia artificial en materia de ciberseguridad seguirá desempeñando un papel importante en la lucha contra las amenazas de seguridad impulsadas por la IA. Esto es importante porque los actores de amenazas utilizarán las indicaciones de LLM como un vector para manipular los modelos GenAI y revelar información confidencial. Es probable que los CSP adopten pronto por completo la revolución de la IA, lo que significa que los chatbots de IA facilitarán importantes decisiones relacionadas con la infraestructura y el desarrollo. El uso de chatbots como armas (como WormGPT o FraudGPT) sugiere que las empresas tendrán que enfrentarse a muchos desafíos impredecibles relacionados con la IA en materia de ciberseguridad.
Es importante recordar que la IA puede protegerse, pero no es intrínsecamente segura.
La mejor manera de abordar la seguridad de la IA es comprender a fondo los riesgos. Echemos un vistazo a los mayores riesgos de seguridad de la IA .
Aumento de la superficie de ataque
La integración de la IA, como GenAI, en los ciclos de vida del desarrollo de software cambia radicalmente la infraestructura de TI de una empresa e introduce muchos riesgos desconocidos. Esto supone, en esencia, una ampliación de la superficie de ataque. El principal desafío de seguridad de la IA es garantizar que toda la infraestructura de IA esté bajo la supervisión de los equipos de seguridad. La visibilidad completa de la infraestructura de IA puede ayudar a remediar las vulnerabilidades, reducir los riesgos y limitar la superficie de ataque.
Mayor probabilidad de violaciones y fugas de datos
Los riesgos de una superficie de ataque más amplia incluyen tiempo de inactividad, interrupciones, pérdidas de ganancias, daño a la reputación y otras consecuencias importantes a largo plazo. Según The Independent , 43 millones de registros confidenciales se vieron comprometidos solo en agosto de 2023. Una seguridad de IA deficiente puede comprometer sus joyas de la corona y agregarlo a las listas de víctimas de violaciones de datos.
Las credenciales robadas de ChatGPT y otros chatbots son el nuevo producto de moda en los mercados ilegales de la red oscura. Más de 100.000 cuentas de ChatGPT se vieron comprometidas entre 2022 y 2023, lo que pone de relieve un peligroso riesgo de seguridad para la IA que probablemente aumentará.
Tuberías de desarrollo vulnerables
Los procesos de IA tienden a ampliar el espectro de vulnerabilidades. Por ejemplo, el ámbito de la ciencia de datos, que abarca la ingeniería de datos y modelos, a menudo opera más allá de los límites tradicionales del desarrollo de aplicaciones, lo que genera nuevos riesgos de seguridad.
El proceso de recopilación, procesamiento y almacenamiento de datos es fundamental en el ámbito de la ingeniería de aprendizaje automático. La integración con las tareas de ingeniería de modelos exige protocolos de seguridad sólidos para proteger los datos de infracciones, robo de propiedad intelectual, ataques a la cadena de suministro y manipulación o envenenamiento de datos. Garantizar la integridad de los datos es fundamental para reducir las discrepancias deliberadas y accidentales.
Envenenamiento de datos
El envenenamiento de datos es la manipulación de los modelos GenAI. Implica la introducción de conjuntos de datos maliciosos para influir en los resultados y crear sesgos. El troyano Puzzle , un ataque diseñado por investigadores, es un ejemplo de cómo los actores de amenazas podrían influir e infectar conjuntos de datos de los que aprende un modelo GenAI para coreografiar cargas útiles maliciosas.
Inyecciones directas y rápidas
Las inyecciones directas de mensajes son un tipo de ataque en el que los actores de amenazas diseñan deliberadamente mensajes LLM con la intención de comprometer o exfiltrar datos confidenciales. Existen numerosos riesgos asociados con la inyección directa de mensajes, incluida la ejecución de código malicioso y la exposición de datos confidenciales.
Una inyección indirecta es cuando un actor de amenazas dirige un modelo GenAI hacia una fuente de datos no confiable para influenciar y manipular sus acciones. Los actores de amenazas pueden diseñar a medida esta fuente externa no confiable para inducir deliberadamente ciertas acciones e influir en las cargas útiles. Las repercusiones de las inyecciones indirectas incluyen la ejecución de código malicioso, fugas de datos y el suministro de información errónea e información maliciosa a los usuarios finales.
Abuso de alucinaciones
La IA siempre ha sido propensa a alucinar cierta información, y los innovadores de todo el mundo están trabajando para reducir la magnitud de las alucinaciones. Pero hasta que lo hagan, las alucinaciones de IA siguen planteando importantes riesgos de ciberseguridad. Los actores de amenazas están empezando a registrar y "legitimar" posibles alucinaciones de IA para que los usuarios finales reciban información influenciada por conjuntos de datos maliciosos e ilegítimos.
Ahora que conoce los mayores riesgos de seguridad de la IA, echemos un vistazo rápido a cómo las empresas pueden mitigarlos. Los marcos de ciberseguridad han sido durante mucho tiempo una herramienta poderosa para que las empresas se protejan de las amenazas crecientes, y estos marcos de seguridad de la IA brindan un conjunto consistente de estándares y mejores prácticas para remediar las amenazas y vulnerabilidades de seguridad:
El Top 10 de OWASP para LLM identifica y propone estándares para proteger las vulnerabilidades más críticas asociadas con los LLM, como inyecciones rápidas, vulnerabilidades de la cadena de suministro y robo de modelos.
Nuestro propio marco PEACH enfatiza el aislamiento de los usuarios a través del fortalecimiento de privilegios, el fortalecimiento del cifrado, el fortalecimiento de la autenticación, el fortalecimiento de la conectividad y la higiene (PEACH). El aislamiento de usuarios es un principio de diseño que divide sus entornos de nube en segmentos granulares con límites estrictos y controles de acceso estrictos.
Algunas recomendaciones sencillas y mejores prácticas de seguridad de IA
La clave para proteger su infraestructura de IA es diseñar y seguir un conjunto de prácticas recomendadas . A continuación, le presentamos 10 de las nuestras para ayudarlo a comenzar:
1. Elija un marco de aislamiento de inquilinos
El marco de aislamiento de inquilinos de PEACH fue diseñado para aplicaciones en la nube, pero los mismos principios se aplican a la seguridad de la IA. El aislamiento de inquilinos es una forma eficaz de combatir las complejidades de la integración de GenAI.
La arquitectura GenAI debe personalizarse cuidadosamente para garantizar que todos los componentes tengan límites de seguridad optimizados. Algunos componentes pueden necesitar límites de seguridad compartidos, otros pueden necesitar límites dedicados y, en el caso de algunos, puede depender de varios contextos.
3. Evaluar los contornos y complejidades de GenAI
Es fundamental mapear las implicaciones de integrar GenAI en los productos, servicios y procesos de su organización. Algunas consideraciones importantes son que las respuestas de sus modelos de IA a los usuarios finales sean privadas, precisas y construidas con conjuntos de datos legítimos.
4. No descuide las vulnerabilidades tradicionales que no dependen de la nube
Recuerde que GenAI no es diferente de otras aplicaciones multiusuario. Aún puede verse afectada por los desafíos tradicionales, como las vulnerabilidades de API y las fugas de datos. Asegúrese de que su organización no descuide las vulnerabilidades generales de la nube en su búsqueda por mitigar los desafíos específicos de la IA.
5. Garantizar un sandbox eficaz y eficiente
El sandboxing implica llevar las aplicaciones que incorporan GenAI a entornos de prueba aislados y ponerlas bajo análisis, y es una práctica poderosa para mitigar las vulnerabilidades de la IA. Sin embargo, asegúrese de que sus entornos sandbox estén configurados de manera óptima. Los entornos sandbox subóptimos y los procesos creados a toda prisa pueden exacerbar las vulnerabilidades de seguridad de la IA.
Una revisión del aislamiento de los inquilinos proporciona una topología integral de las interfaces de cara al cliente y los límites de seguridad internos. Esto puede ayudar a identificar vulnerabilidades de seguridad de la IA y optimizar aún más el aislamiento de los inquilinos para prevenir incidentes de ciberseguridad.
7. Priorizar la desinfección de los insumos
Establezca ciertas limitaciones en la entrada de datos del usuario en los sistemas GenAI para mitigar las vulnerabilidades de seguridad de la IA. Estas limitaciones no tienen por qué ser extremadamente complicadas. Por ejemplo, puede reemplazar los cuadros de texto con menús desplegables con opciones de entrada limitadas. El mayor desafío con la limpieza de datos de entrada será encontrar un equilibrio entre una seguridad sólida y una experiencia fluida para el usuario final.
8. Optimizar la gestión de las solicitudes
La gestión rápida es fundamental en las aplicaciones que incorporan GenAI. Las empresas deben supervisar y registrar las solicitudes de los usuarios finales y marcar con una bandera roja cualquier solicitud que parezca sospechosa. Por ejemplo, si una solicitud muestra algún signo de ejecución de código malicioso, se debe marcar con una bandera roja y abordar el problema.
9. Comprenda las implicaciones de seguridad de los comentarios de los clientes
Puede parecer un desafío de seguridad de IA de riesgo relativamente bajo, pero su postura y prácticas de seguridad de IA no deberían tener fallas. El hecho es que un cuadro de texto de comentarios puede permitir que los actores de amenazas introduzcan contenido malicioso en una aplicación que incorpora GenAI. Una práctica recomendada simple es reemplazar las opciones de comentarios de texto libre con campos desplegables.
10. Trabaje con expertos en seguridad de IA de buena reputación
La IA será fundamental para el próximo capítulo de los avances tecnológicos. Por eso, la seguridad de la IA es fundamental y no se puede considerar un asunto secundario. Trabajar con expertos en seguridad en la nube de confianza y altamente calificados es la mejor manera de fortalecer su postura en materia de IA y ciberseguridad.
Gestión de la postura de seguridad de IA (AI-SPM) : brinda a los equipos de seguridad y a los desarrolladores de IA visibilidad de sus procesos de IA al identificar cada recurso y tecnología en el proceso de IA, sin ningún agente.
Ampliación de DSPM a la IA: detecta automáticamente datos de entrenamiento confidenciales y lo ayuda a garantizar su seguridad, con nuevos controles de IA de DSPM listos para usar
Ampliación del análisis de rutas de ataque a la IA : contexto completo de la nube y la carga de trabajo en torno a la cadena de IA que ayuda a las organizaciones a eliminar de forma proactiva las rutas de ataque en el entorno
Panel de seguridad de IA: proporciona una descripción general de los principales problemas de seguridad de IA con una cola priorizada de riesgos para que los desarrolladores puedan concentrarse rápidamente en el más crítico.
Wiz también ofrece soporte de seguridad de IA para usuarios de Amazon SageMaker y Vertex AI que pueden ayudar a monitorear y mitigar los riesgos de seguridad asociados con la gestión de modelos de IA/ML. Las funciones personalizadas de Wiz para las integraciones de Vertex AI y Amazon SageMaker incluyen entornos de sandbox robustos, visibilidad completa en todas las aplicaciones de la nube, protección de los procesos de IA e implementación ágil de modelos de ML en producción. Obtenga una demostración para explorar cómo puede aprovechar todas las capacidades de la IA sin preocuparse por la seguridad.
Wiz también se enorgullece de ser miembro fundador de la Coalición para una IA Segura . Al unir fuerzas con otros pioneros en el campo, Wiz se compromete a promover la misión de la coalición de desarrollar una IA segura y ética. Como miembro fundador, Wiz desempeña un papel crucial en la definición de la dirección estratégica de la coalición, contribuyendo al desarrollo de políticas y promoviendo soluciones innovadoras que mejoren la seguridad y la integridad de las tecnologías de IA.
Desarrollar aplicaciones de IA de forma segura
Descubra por qué los CISO de las organizaciones de más rápido crecimiento eligen Wiz para proteger la infraestructura de IA de su organización.