1. Introducción al aprendizaje no supervisado
|
|
Título del Test:
![]() 1. Introducción al aprendizaje no supervisado Descripción: APRENDIZAJE AUTOMÁTICO NO SUPERVISADO |



| Comentarios |
|---|
NO HAY REGISTROS |
|
¿Cuál es la diferencia fundamental entre el aprendizaje automático supervisado y el no supervisado?. En el aprendizaje no supervisado se utilizan variables dependientes latentes. En el aprendizaje supervisado se emplean datos etiquetados con una variable de salida conocida. En el aprendizaje no supervisado se optimiza una función de pérdida supervisada. ¿Cuál de los siguientes es un uso típico del aprendizaje automático no supervisado?. Predicción de una variable criterio continua. Clasificación binaria con etiquetas conocidas. Descubrimiento de estructuras internas en los datos. Los algoritmos de agrupación tienen como objetivo principal: Maximizar la varianza entre todas las variables observadas. Encontrar grupos de observaciones similares según algún criterio de similitud. Ajustar un modelo paramétrico con variable dependiente. En el contexto de redes sociales, un algoritmo de agrupación puede utilizarse para: Predecir el número de interacciones futuras entre usuarios. Detectar comunidades de usuarios con patrones de interacción similares. Etiquetar usuarios a partir de categorías previamente definidas. En la compresión de imágenes mediante algoritmos de agrupación: Cada píxel se representa por un vector binario independiente. Se agrupan píxeles con colores similares y se representan por un valor promedio. Se incrementa el número de colores para preservar el detalle visual. La cuantización de una imagen consiste en: Aumentar la resolución espacial de la imagen. Reducir el número de colores agrupando píxeles similares. Eliminar completamente el ruido gaussiano de la imagen. En un conjunto de datos, la dimensionalidad hace referencia a: El número total de observaciones. El número de dimensiones latentes inferidas por el modelo. El número de variables o características asociadas a cada observación. El objetivo principal de la reducción de la dimensionalidad es: Incrementar la varianza total del conjunto de datos. Simplificar los datos manteniendo la mayor información relevante posible. Eliminar observaciones atípicas del conjunto de datos. En procesamiento del lenguaje natural, la reducción de la dimensionalidad resulta útil porque: Convierte automáticamente texto en etiquetas semánticas. Reduce representaciones altamente multidimensionales a espacios más manejables. Garantiza la interpretabilidad directa de cada dimensión resultante. Algunos métodos no supervisados pueden aprender la distribución de los datos porque: Utilizan etiquetas ocultas durante el entrenamiento. Ajustan un modelo probabilístico a los datos observados. Maximizan directamente la tasa de aciertos. Tras aprender la distribución de los datos, un modelo generativo puede: Clasificar nuevos datos en clases predefinidas. Generar nuevos datos similares a los observados. Eliminar automáticamente el ruido de los datos originales. Los modelos de mezcla de Gaussianas (GMM) se caracterizan por: Asignar cada observación a un único clúster de forma determinista. Modelar los datos como una combinación de distribuciones gaussianas. Requerir siempre una reducción previa de la dimensionalidad. Una diferencia clave entre K-medias y GMM es que: K-medias es probabilístico y GMM determinista. GMM permite asignaciones probabilísticas a los conglomerados. K-medias aprende la distribución completa de los datos. El aprendizaje no supervisado es útil en la detección de anomalías porque: Aprende patrones normales sin necesidad de ejemplos etiquetados. Requiere conocer previamente todas las anomalías posibles. Maximiza la separación entre clases conocidas. ¿Cuál de los siguientes es un ejemplo típico de anomalía?. Un cliente con comportamiento de compra similar al promedio. Un sensor que registra valores extremos e inconsistentes. Un documento con alta frecuencia de palabras comunes. En la detección de anomalías mediante modelos no supervisados: Las anomalías se identifican como observaciones poco probables según el modelo. Las anomalías se definen como los centroides principales. Es imprescindible disponer de etiquetas de anomalía. La reducción de la dimensionalidad puede mejorar el rendimiento de otros algoritmos porque: Incrementa la colinealidad entre variables. Reduce ruido y complejidad computacional. Garantiza siempre mejores resultados predictivos. Un espacio de alta dimensionalidad se caracteriza por: Tener pocas observaciones y muchas variables. Ser fácilmente interpretable visualmente. No permitir la aplicación de algoritmos no supervisados. En términos generales, los algoritmos no supervisados se utilizan preferentemente cuando: Se dispone de una variable criterio bien definida. Se busca exploración y descubrimiento de estructura en los datos. El objetivo es evaluar la precisión predictiva. Señala la afirmación correcta sobre el aprendizaje automático no supervisado: Siempre produce resultados directamente interpretables. Puede emplearse como etapa previa a modelos supervisados. Requiere necesariamente grandes volúmenes de datos etiquetados. |




