option
Cuestiones
ayuda
daypo
buscar.php

ahmt1

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
ahmt1

Descripción:
Test para practicar 1

Fecha de Creación: 2026/01/18

Categoría: Informática

Número Preguntas: 20

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

¿Qué principio forma parte de los 7 requisitos de la IA Confiable según la UE?. Supervisión humana. Velocidad de inferencia. Número de parámetros del modelo. Uso de GPUs avanzadas.

¿Cuál de las siguientes métricas evalúa la igualdad de oportunidades (Equal Opportunity)?. True Positive Rate por grupo. Loss function. Tiempo de entrenamiento. Número de features.

La clase SecureMLPipeline incluye defensas como: (selecciona todas las correctas). Validación de entradas. Entrenamiento adversarial. Exclusivamente aumento de datos. Privacidad diferencial.

El test estadístico utilizado como ejemplo para detectar drift en distribuciones fue: Kolmogorov–Smirnov (KS test). ANOVA. Chi-cuadrado de independencia. Regresión lineal.

Un Model Card documenta principalmente: Detalles del modelo, uso previsto, métricas y consideraciones éticas. Solamente la arquitectura del modelo. El coste de entrenamiento. Exclusivamente los hiperparámetros.

Un mecanismo esencial de agencia humana en sistemas de IA es: Permitir override o intervención humana. Reducir el número de parámetros. Usar siempre explicaciones gráficas. Solo aumentar accuracy.

¿Cuáles de los siguientes elementos forman parte de un sistema de IA Confiable? (selecciona todas las correctas). Detector de drift. Monitoreo de equidad. Detector adversarial. Exclusivamente redes neuronales recurrentes.

Un sistema confiable debe detectar entradas fuera de la distribución (OOD). ¿Qué técnica se mostró como ejemplo?. Distancia de Mahalanobis. Regularización L1. PCA. Clustering k-means.

La privacidad diferencial añade ruido a datos o resultados. ¿Cuál es el parámetro central que controla el nivel de privacidad?. Epsilon (ε). Learning rate. Batch size. Dropout rate.

Los ataques adversariales que ocurren en la fase de entrenamiento se conocen como: Poisoning attacks. Evasion attacks. Membership inference. Phishing attacks.

El uso de gráficos, explicaciones interpretables y documentación corresponde principalmente al requisito de: Transparencia. Robustez. Privacidad. Supervisión humana.

El requisito de responsabilidad (accountability) implica: Mantener trazabilidad y auditoría de decisiones. Solo mejorar la precisión. Usar modelos más grandes. Minimizar el coste de hardware.

¿Cuál de las siguientes técnicas NO es una forma de anonimización?. Batch Normalization. Pseudonimización. K-anonymity. L-diversity.

Un sistema robusto debe ser capaz de: Resistir ataques adversariales y entradas ruidosas. Minimizar únicamente la latencia. Usar siempre redes neuronales profundas. Garantizar GPUs más rápidas.

En el ejemplo de modelo de crédito, ¿cuál fue aproximadamente la precisión (accuracy)? 3 decimales.

La métrica Disparate Impact considera discriminación cuando su valor es menor a (1 decimal):

La privacidad diferencial garantiza matemáticamente un límite en la información que puede filtrarse de un individuo. V. F.

Los modelos confiables nunca deben ser auditados si ya alcanzan alta precisión. V. F.

El Acta de IA de la UE clasifica como de alto riesgo los sistemas de decisión crediticia. V. F.

Los logs en sistemas de IA deben ser inmutables y conservarse un mínimo de 6 meses según criticidad. V. F.

Denunciar Test