Ciberseguridad en Sistemas de IA
La protección de los sistemas de inteligencia artificial presenta desafíos únicos que difieren de los enfoques tradicionales de ciberseguridad. Los sistemas de IA son vulnerables a ataques adversarios, envenenamiento de datos y robo de modelos, todos los cuales pueden afectar significativamente las operaciones empresariales y la integridad de los datos. Este curso explora las prácticas clave de ciberseguridad para sistemas de IA, abarcando el aprendizaje automático adversario, la seguridad de los datos en las tuberías de aprendizaje automático y los requisitos de cumplimiento para un despliegue robusto de IA.
Esta formación impartida por un instructor, en vivo (en línea o in situ), está dirigida a profesionales de IA y ciberseguridad de nivel intermedio que deseen comprender y abordar las vulnerabilidades de seguridad específicas de los modelos y sistemas de IA, especialmente en industrias altamente reguladas como las finanzas, la gobernanza de datos y la consultoría.
Al finalizar esta formación, los participantes serán capaces de:
- Comprender los tipos de ataques adversarios dirigidos a sistemas de IA y los métodos para defenderse de ellos.
- Implementar técnicas de endurecimiento de modelos para proteger las tuberías de aprendizaje automático.
- Asegurar la seguridad e integridad de los datos en los modelos de aprendizaje automático.
- Navegar por los requisitos de cumplimiento normativo relacionados con la seguridad de la IA.
Formato del curso
- Clase magistral interactiva y debate.
- Numerosos ejercicios y prácticas.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
- Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para organizarlo.
Temario del curso
Introducción a los desafíos de seguridad en IA
- Comprensión de los riesgos de seguridad únicos de los sistemas de IA
- Comparación entre la ciberseguridad tradicional y la ciberseguridad para IA
- Visión general de las superficies de ataque en los modelos de IA
Aprendizaje automático adversario
- Tipos de ataques adversarios: evasión, envenenamiento y extracción
- Implementación de defensas y contramedidas adversarias
- Estudios de caso sobre ataques adversarios en diferentes industrias
Técnicas de endurecimiento de modelos
- Introducción a la robustez y el endurecimiento de modelos
- Técnicas para reducir la vulnerabilidad de los modelos ante ataques
- Práctica con destilación defensiva y otros métodos de endurecimiento
Seguridad de los datos en el aprendizaje automático
- Protección de las tuberías de datos para entrenamiento e inferencia
- Prevención de fugas de datos y ataques de inversión de modelos
- Mejores prácticas para la gestión de datos sensibles en sistemas de IA
Cumplimiento normativo y requisitos regulatorios en seguridad de IA
- Comprensión de las normativas sobre IA y seguridad de datos
- Cumplimiento del GDPR, CCPA y otras leyes de protección de datos
- Desarrollo de modelos de IA seguros y conformes con la normativa
Monitoreo y mantenimiento de la seguridad de los sistemas de IA
- Implementación de monitoreo continuo para sistemas de IA
- Registro y auditoría de seguridad en aprendizaje automático
- Respuesta ante incidentes y brechas de seguridad en IA
Tendencias futuras en ciberseguridad de IA
- Técnicas emergentes en la protección de IA y aprendizaje automático
- Oportunidades de innovación en ciberseguridad de IA
- Preparación para los futuros desafíos de seguridad en IA
Resumen y próximos pasos
Requerimientos
- Conocimientos básicos de aprendizaje automático y conceptos de IA
- Familiaridad con los principios y prácticas de ciberseguridad
Público objetivo
- Ingenieros de IA y aprendizaje automático que buscan mejorar la seguridad en sistemas de IA
- Profesionales de ciberseguridad centrados en la protección de modelos de IA
- Profesionales de cumplimiento y gestión de riesgos en gobernanza de datos y seguridad
Los cursos públicos requieren más de 5 participantes.
Ciberseguridad en Sistemas de IA - Reserva
Ciberseguridad en Sistemas de IA - Consulta
Ciberseguridad en Sistemas de IA - Solicitud de consultoría
Testimonios (1)
El conocimiento profesional y la forma en que lo presentó ante nosotros
Miroslav Nachev - PUBLIC COURSE
Curso - Cybersecurity in AI Systems
Traducción Automática
Próximos cursos
Cursos Relacionados
ISACA Avanzado en Gestión de Seguridad de IA (AAISM)
21 HorasAAISM es un marco avanzado para evaluar, gobernar y gestionar los riesgos de seguridad en sistemas de inteligencia artificial.
Este entrenamiento dirigido por instructores (en línea o presencial) está destinado a profesionales de nivel avanzado que deseen implementar controles de seguridad y prácticas de gobierno efectivas para entornos empresariales de IA.
Al finalizar este programa, los participantes estarán preparados para:
- Evaluar riesgos de seguridad en IA utilizando metodologías reconocidas en la industria.
- Implementar modelos de gobernanza para despliegues responsables de IA.
- Alinear políticas de seguridad de IA con los objetivos organizacionales y las expectativas regulatorias.
- Mejorar la resiliencia y la responsabilidad en operaciones impulsadas por IA.
Formato del Curso
- Conferencias facilitadas respaldadas por análisis de expertos.
- Talleres prácticos y actividades basadas en evaluaciones.
- Ejercicios aplicados utilizando escenarios reales de gobernanza de IA.
Opciones de Personalización del Curso
- Para un entrenamiento personalizado alineado con su estrategia de IA organizacional, póngase en contacto con nosotros para personalizar el curso.
Gobernanza, Cumplimiento y Seguridad de IA para Líderes Empresariales
14 HorasEste entrenamiento dirigido por un instructor en vivo (en línea o presencial) está destinado a líderes empresariales intermedios que desean comprender cómo gobernar y asegurar los sistemas de IA de manera responsable y en conformidad con marcos emergentes como el Reglamento de IA de la UE, el RGPD, ISO/IEC 42001 y la Orden Ejecutiva sobre IA de Estados Unidos.
Al finalizar este entrenamiento, los participantes podrán:
- Comprender los riesgos legales, éticos y regulatorios del uso de IA en diferentes departamentos.
- Interpretar y aplicar marcos principales de gobernanza de IA (Reglamento de IA de la UE, NIST AI RMF, ISO/IEC 42001).
- Establecer políticas de seguridad, auditoría y supervisión para el despliegue de IA en la empresa.
- Desarrollar directrices de adquisición y uso para sistemas de IA de terceros y propios.
Gestión de Riesgos y Seguridad de la IA en el Sector Público
7 HorasLa Inteligencia Artificial (IA) introduce nuevas dimensiones de riesgo operativo, desafíos de gobernanza y exposición a ciberseguridad para las agencias y departamentos gubernamentales.
Este entrenamiento dirigido por un instructor (en línea o en el lugar) está orientado a profesionales del sector público en TI y gestión de riesgos con experiencia limitada previa en IA que desean comprender cómo evaluar, monitorear y asegurar sistemas de IA dentro de un contexto gubernamental o regulatorio.
Al final de este entrenamiento, los participantes serán capaces de:
- Interpretar conceptos clave de riesgo relacionados con los sistemas de IA, incluyendo sesgo, imprevisibilidad y desviación del modelo.
- Aplicar marcos específicos de gobernanza y auditoría de IA como el NIST AI RMF y ISO/IEC 42001.
- Reconocer amenazas de ciberseguridad que se dirigen a modelos y pipelines de datos de IA.
- Establecer planes de gestión de riesgos interdepartamentales y alineación de políticas para la implementación de IA.
Formato del Curso
- Conferencia interactiva y discusión de casos de uso en el sector público.
- Ejercicios de marcos de gobernanza de IA y mapeo de políticas.
- Modelado basado en escenarios y evaluación de riesgos.
Opciones de Personalización del Curso
- Para solicitar un entrenamiento personalizado para este curso, por favor contáctenos para organizarlo.
Introducción a la Gestión de Confianza, Riesgo y Seguridad en IA (AI TRiSM)
21 HorasEste curso de formación presencial dirigido por un instructor en México (en línea o en las instalaciones) está destinado a profesionales de TI de nivel principiante a intermedio que deseen entender e implementar AI TRiSM en sus organizaciones.
Al finalizar este curso, los participantes serán capaces de:
- Comprender los conceptos clave y la importancia de la confianza, el riesgo y la gestión de seguridad en IA.
- Identificar y mitigar los riesgos asociados con los sistemas de IA.
- Implementar las mejores prácticas de seguridad para la IA.
- Entender el cumplimiento normativo y las consideraciones éticas para la IA.
- Desarrollar estrategias para una gobernanza y gestión efectivas de la IA.
Building Secure and Responsible LLM Applications
14 HorasEste curso de formación dirigido por un instructor en México (en línea o presencial) está destinado a desarrolladores, arquitectos y gerentes de productos de IA de nivel intermedio a avanzado que deseen identificar y mitigar riesgos asociados con aplicaciones impulsadas por modelos de lenguaje grandes (LLM), incluyendo inyección de prompts, fuga de datos y salida sin filtrar, mientras incorporan controles de seguridad como la validación de entrada, supervisión humana en el bucle y barreras de protección de la salida.
Al finalizar este curso, los participantes podrán:
- Comprender las vulnerabilidades principales de los sistemas basados en LLM.
- Aplicar principios de diseño seguro a la arquitectura de aplicaciones LLM.
- Utilizar herramientas como Guardrails AI y LangChain para validación, filtrado y seguridad.
- Integrar técnicas como el uso de entornos aislados (sandboxing), equipos rojos (red teaming) y revisiones humanas en el bucle en pipelines de producción de grado empresarial.
Seguridad y gobernanza de EXO: Gestión de modelos sin conexión
14 HorasEsta formación en directo, impartida por un instructor en <ubicación> (en línea o presencial), está dirigida a ingenieros de seguridad y oficiales de cumplimiento que deseen fortalecer los despliegues de EXO, controlar el acceso a los modelos y gobernar las cargas de trabajo de inteligencia artificial que se ejecuten íntegramente en instalaciones propias.
Introducción a la Seguridad y Gestión de Riesgos en IA
14 HorasEste entrenamiento dirigido por un instructor, en vivo (en línea o presencial) está destinado a profesionales de la seguridad de TI, gestión de riesgos y cumplimiento con nivel principiante que deseen comprender los conceptos fundamentales de seguridad en IA, vectores de amenaza y marcos globales como el NIST AI RMF y ISO/IEC 42001.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Comprender los riesgos de seguridad únicos introducidos por los sistemas de IA.
- Identificar vectores de amenaza como ataques adversarios, envenenamiento de datos e inversión de modelos.
- Aplicar modelos de gobernanza fundamentales como el Marco de Gestión de Riesgos de IA del NIST.
- Alinear el uso de IA con estándares emergentes, directrices de cumplimiento y principios éticos.
OWASP GenAI Security
14 HorasBasado en las últimas pautas del proyecto OWASP GenAI Security, los participantes aprenderán a identificar, evaluar y mitigar amenazas específicas de IA mediante ejercicios prácticos y escenarios del mundo real.
Aprendizaje Automático con Preservación de Privacidad
14 HorasEste entrenamiento dirigido por un instructor (en línea o presencial) está destinado a profesionales de nivel avanzado que deseen implementar y evaluar técnicas como el aprendizaje federado, el cálculo seguro multipartidario, la cifrado homomórfico y la privacidad diferencial en pipelines de aprendizaje automático del mundo real.
Al finalizar este entrenamiento, los participantes podrán:
- Comprender y comparar las técnicas clave de preservación de privacidad en ML.
- Implementar sistemas de aprendizaje federado utilizando marcos de código abierto.
- Aplicar la privacidad diferencial para compartir datos y entrenar modelos de forma segura.
- Utilizar técnicas de cifrado y cálculo seguro para proteger las entradas y salidas del modelo.
Red Teaming de Sistemas de IA: Seguridad Ofensiva para Modelos de ML
14 HorasEste entrenamiento dirigido por un instructor (en línea o presencial) está destinado a profesionales de seguridad avanzados y especialistas en ML que desean simular ataques a sistemas de IA, descubrir vulnerabilidades y mejorar la robustez de los modelos de IA implementados.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Simular amenazas del mundo real a modelos de aprendizaje automático.
- Generar ejemplos adversarios para probar la robustez del modelo.
- Evaluar el área de ataque de APIs y pipelines de IA.
- Diseñar estrategias de red teaming para entornos de implementación de IA.
Protegiendo la Inteligencia en el Borde y la Inteligencia Embebida
14 HorasEsta formación dirigida por un instructor (en línea o presencial) está destinada a ingenieros y profesionales de la seguridad de nivel intermedio que desean proteger los modelos de IA implementados en el borde contra amenazas como manipulaciones, filtraciones de datos, entradas adversarias y ataques físicos.
Al final de esta formación, los participantes serán capaces de:
- Identificar y evaluar los riesgos de seguridad en las implementaciones de IA en el borde.
- Aplicar técnicas de resistencia a la manipulación e inferencia cifrada.
- Fortalecer los modelos implementados en el borde y asegurar las pipelines de datos.
- Implementar estrategias de mitigación de amenazas específicas para sistemas embebidos y con recursos limitados.
Protección de Modelos de IA: Amenazas, Ataques y Defensas
14 HorasEste entrenamiento dirigido por un instructor en vivo (en línea o presencial) está destinado a profesionales intermedios de aprendizaje automático y ciberseguridad que deseen comprender y mitigar amenazas emergentes contra los modelos de IA, utilizando tanto marcos conceptuales como defensas prácticas como el entrenamiento robusto y la privacidad diferencial.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Identificar y clasificar amenazas específicas de IA como ataques adversarios, inversión y envenenamiento.
- Utilizar herramientas como la Adversarial Robustness Toolbox (ART) para simular ataques y probar modelos.
- Aplicar defensas prácticas, incluyendo entrenamiento adversario, inyección de ruido y técnicas que preservan la privacidad.
- Diseñar estrategias de evaluación del modelo conscientes de amenazas en entornos de producción.
Seguridad y Privacidad en Aplicaciones de TinyML
21 HorasTinyML es un enfoque para implementar modelos de aprendizaje automático en dispositivos de bajo consumo y recursos limitados que operan en el borde de la red.
Este entrenamiento dirigido por instructores (en línea o presencial) está destinado a profesionales de nivel avanzado que deseen asegurar las pipelines de TinyML e implementar técnicas de protección de la privacidad en aplicaciones de IA en el borde.
Al finalizar este curso, los participantes podrán:
- Identificar riesgos de seguridad propios de la inferencia de TinyML en dispositivo.
- Implementar mecanismos de protección de la privacidad para implementaciones de IA en el borde.
- Fortalecer los modelos y sistemas embebidos de TinyML contra amenazas adversarias.
- Aplicar mejores prácticas para un manejo seguro de datos en entornos con recursos limitados.
Formato del Curso
- Conferencias atractivas respaldadas por discusiones dirigidas por expertos.
- Ejercicios prácticos que enfatizan escenarios de amenazas del mundo real.
- Implementación práctica utilizando herramientas de seguridad embebida y TinyML.
Opciones de Personalización del Curso
- Las organizaciones pueden solicitar una versión personalizada de este entrenamiento para alinearlo con sus necesidades específicas de seguridad y cumplimiento.
IA Segura y Confiable: Gobernanza, Identidad y Equipo Rojo
21 HorasEste curso cubre la gobernanza, gestión de identidad y pruebas adversarias para sistemas de IA agente, con enfoque en patrones de implementación seguros para empresas y técnicas prácticas de equipo rojo.
Esta capacitación dirigida por un instructor (en línea o presencial) está destinada a profesionales de nivel avanzado que deseen diseñar, asegurar y evaluar sistemas de IA basados en agentes en entornos de producción.
Al finalizar esta capacitación, los participantes podrán:
- Definir modelos y políticas de gobernanza para implementaciones seguras de IA agente.
- Diseñar flujos de identidad y autenticación no humanos para agentes con acceso de privilegios mínimos.
- Implementar controles de acceso, rastros de auditoría y observabilidad adaptados a agentes autónomos.
- Planificar y ejecutar ejercicios de equipo rojo para descubrir malos usos, caminos de escalada y riesgos de exfiltración de datos.
- Mitigar amenazas comunes a sistemas agente mediante políticas, controles de ingeniería y monitoreo.
Formato del Curso
- Conferencias interactivas y talleres de modelado de amenazas.
- Laboratorios prácticos: aprovisionamiento de identidad, aplicación de políticas y simulación de adversarios.
- Ejercicios de equipo rojo/equipo azul y evaluación final del curso.
Opciones de Personalización del Curso
- Para solicitar una capacitación personalizada para este curso, comuníquese con nosotros para realizar los arreglos necesarios.