ahmt3
|
|
Título del Test:
![]() ahmt3 Descripción: test tema 3 |



| Comentarios |
|---|
NO HAY REGISTROS |
|
PGD (Projected Gradient Descent) es generalmente más efectivo que FGSM para generar ejemplos adversarios. V. F. El test set debe tocarse múltiples veces durante el desarrollo del modelo para ajustar hiperparámetros. V. F. ¿Cuáles de los siguientes son invariantes que siempre deben cumplirse en un modelo de clasificación?. Las probabilidades de cada clase suman 1. La predicción corresponde a la clase con mayor probabilidad. El modelo debe tener más del 90% de accuracy. Las predicciones deben cambiar si el input cambia ligeramente. ¿Cuál es el número típico de iteraciones recomendado en el código para bootstrap con intervalos de confianza?. ¿Cuáles son defensas de preprocesamiento mencionadas contra ataques adversarios?. Gaussian noise/smoothing. JPEG compression. Feature squeezing. Spatial smoothing. Las aserciones (assert) usadas en tiempo de ejecución deben convertirse en logging/monitoring en producción. V. F. Para datos con series temporales, ¿qué tipo de cross-validation es más apropiado?. StratifiedKFold. TimeSeriesSplit. GroupKFold. KFold estándar. ¿Qué valor de epsilon (en el rango [0,1]) se considera "apenas visible" para FGSM según el vídeo sobre ataques adversarios?. Según las mejores prácticas que hemos visto, ¿qué se debe hacer?. Automatizar todos los tests en CI/CD. Versionar los datos de test junto con el código. Mantener un "golden dataset" para regression testing. Documentar qué testea cada test y por qué. En Hypothesis, ¿para qué se utiliza la función assume()?. Para filtrar casos de test que no tienen sentido. Para asumir que el test pasará. Para generar más casos de prueba. Para marcar tests como lentos. Un modelo sin tests es... Una práctica común en la industria. Aceptable si tiene alta accuracy. Deuda técnica esperando explotar. Válido para prototipos rápidos. En el testing de integración de un pipeline ML, ¿qué se verifica principalmente?. Que cada componente funcione aisladamente. Que el pipeline completo funcione end-to-end. Que el modelo tenga alta accuracy. Que no haya memory leaks. ¿Cuáles de los siguientes son tipos de ataques adversarios mencionados en los vídeos?. Ataques de evasión (FGSM, PGD). Data Poisoning. Model Extraction. SQL Injection. ¿Cuál es el principal compromiso (trade-off) del adversarial training?. Mayor tiempo de entrenamiento solamente. Reduce accuracy en datos limpios pero aumenta robustez. Requiere más datos de entrenamiento. El modelo se vuelve no determinista. ¿Cuál es la principal ventaja del property-based testing sobre el testing tradicional?. Es más rápido de ejecutar. Requiere menos código. Encuentra bugs en casos que no imaginamos. Garantiza 100% de cobertura. ¿Qué test estadístico se menciona en los vídeos para detectar distribution shift en los datos?. Test t de Student. Chi-cuadrado. Kolmogorov-Smirnov (KS test). ANOVA. Un único train-test split con 80/20 es suficiente para evaluar correctamente un modelo de ML. V. F. Randomized Smoothing es la única defensa con garantías teóricas de robustez certificable. V. F. La validación en Machine Learning se centra principalmente en. Comprobar que el código funciona correctamente. Determinar si estamos construyendo el modelo correcto. Verificar que el pipeline es robusto. Asegurar que las predicciones son deterministas. ¿Qué fracción típica de datos se envenena en un ataque de backdoor poisoning?. |




