ahmt6
|
|
Título del Test:
![]() ahmt6 Descripción: tema 6 ia |



| Comentarios |
|---|
NO HAY REGISTROS |
|
El ataque de Membership Inference permite determinar si un dato específico fue usado en el entrenamiento del modelo, lo cual puede violar la privacidad individual bajo regulaciones como GDPR. V. F. El principio "Secure by Default" establece que si necesitas menos seguridad en un sistema de ML, debes desactivarla explícitamente y justificarlo. V. F. ¿Qué significa ATLAS en el contexto del framework de seguridad de MITRE?. Adversarial Threat Landscape for Artificial-Intelligence Systems. Advanced Threat Learning and Security Systems. Automated Testing for Large AI Systems. Artificial Threat Learning Assessment Standard. Según estudios citados en el Tema 6, modelos de lenguaje como GPT-2 pueden memorizar y revelar información personal identificable (PII) de sus datos de entrenamiento. V. F. ¿Por qué los ataques de backdoor tipo Clean-Label son considerados los más peligrosos?. Porque los ejemplos envenenados mantienen sus etiquetas correctas, sin anomalías obvias. Porque requieren acceso directo a los pesos del modelo. Porque afectan a todos los ejemplos del dataset. Porque degradan significativamente el rendimiento del modelo. ¿Qué tipo de ataque se describe cuando un LLM lee contenido malicioso de fuentes externas como documentos o páginas web?. Indirect Prompt Injection. Direct Prompt Injection. Jailbreaking. Token Smuggling. ¿Cuántas tácticas principales (objetivos del adversario) define el framework MITRE ATLAS?. En el contexto de ataques a modelos de ML, ¿qué nivel de acceso tiene un atacante en modo "black-box"?. Solo puede hacer queries y obtener predicciones finales. Tiene acceso completo a arquitectura, pesos y gradientes. Conoce la arquitectura y puede ver probabilidades de salida. No puede hacer ningún query al modelo. Los ejemplos adversariales generados para un modelo A frecuentemente funcionan también contra un modelo B, incluso si tienen arquitecturas completamente diferentes. V. F. ¿Qué principio de diseño seguro establece que deben existir múltiples capas de defensa donde si una falla, las otras siguen protegiendo?. Defense in Depth. Secure by Default. Fail Securely. Least Privilege. ¿Cuáles de las siguientes son técnicas válidas para detectar backdoors en modelos de ML?. Neural Cleanse. Activation Clustering. STRIP (Strong Intentional Perturbation). Gradient Descent estándar. Cross-validation. ¿Qué métrica mide el tiempo promedio desde que un ataque comienza hasta que es detectado?. MTTD (Mean Time To Detect). MTTR (Mean Time To Respond). Coverage. False Positive Rate. Según el Tema 6, ¿cuál es aproximadamente el porcentaje mínimo típico de tasa de transferencia (transfer rate) de ejemplos adversariales entre modelos similares?. ¿Cuáles de los siguientes son ataques que pueden realizarse durante la fase de modelo desplegado (inferencia)? Selecciona todas las correctas. Model Extraction. Evasion Attacks. Inference Attacks. Label Flipping. Data Poisoning. ¿Cuáles de las siguientes son defensas efectivas contra ataques a la privacidad como Membership Inference o Model Inversion?. Differential Privacy en entrenamiento (DP-SGD). Regularización agresiva (dropout, weight decay). PATE (Private Aggregation of Teacher Ensembles). Aumentar el tamaño del batch de entrenamiento. Usar modelos más profundos. ¿Cuál es el objetivo principal del ataque Model Inversion?. Reconstruir características de los datos de entrenamiento desde el modelo. Determinar si un dato específico fue usado en entrenamiento. Robar el modelo mediante queries repetidos. Hacer que el modelo clasifique incorrectamente. El ataque de Data Poisoning consiste en inyectar ejemplos maliciosos en el conjunto de datos de entrenamiento. V. F. ¿Cuál es la principal diferencia entre la seguridad en software tradicional y la seguridad en sistemas de IA?. Los sistemas de IA tienen comportamiento emergente de datos y una superficie de ataque mayor. Los sistemas de IA son más fáciles de parchear que el software tradicional. El software tradicional tiene más vulnerabilidades que los sistemas de IA. Ambos tipos de sistemas tienen las mismas vulnerabilidades. ¿Cuál es la característica principal que hace peligrosos los backdoors en modelos pre-entrenados?. El modelo funciona normalmente excepto cuando detecta un trigger específico. Los backdoors siempre reducen la precisión del modelo de forma visible. Los backdoors son fáciles de detectar con testing convencional. Los backdoors solo pueden insertarse durante el entrenamiento inicial. ¿Cuál de los siguientes NO es un vector de ataque típico en Supply Chain Attacks para ML?. Validación de inputs en tiempo de inferencia. Datasets públicos comprometidos en plataformas como Kaggle. Librerías de ML con backdoors en pip packages. Modelos pre-entrenados de repositorios como HuggingFace. |




