9. Introducción_GMM
|
|
Título del Test:
![]() 9. Introducción_GMM Descripción: APRENDIZAJE AUTOMÁTICO NO SUPERVISADO |



| Comentarios |
|---|
NO HAY REGISTROS |
|
Igual que k-medias, GMM asigna observaciones a clústers. ¿Qué información adicional ofrece GMM?. La distancia exacta al centroide. La probabilidad de pertenencia de cada observación a cada clúster. El número óptimo de clústers. La principal diferencia conceptual entre k-medias y GMM es que: GMM no necesita inicialización. GMM realiza una agrupación blanda y k-medias una agrupación dura. k-medias es probabilístico. La clasificación de clase única (unaria) se caracteriza por: Aprender a partir de varias clases etiquetadas. Aprender solo a partir de observaciones de una única clase. Requerir siempre datos balanceados. El objetivo principal de la clasificación unaria es: Maximizar la separación entre clústers. Detectar observaciones que difieren de la clase aprendida. Predecir etiquetas categóricas. Los algoritmos de clasificación unaria Gaussianos asumen que los datos: Siguen una distribución uniforme. Provienen de una Distribución Normal Multivariada. No presentan correlación entre variables. En una Distribución Normal Multivariada, el vector μ representa: La dispersión de los datos. La posición central de la distribución en el espacio. La probabilidad acumulada. Si una observación está definida por 4 variables, el vector μ tendrá: 1 elemento. 2 elementos. 4 elementos. La matriz de covarianzas Σ informa principalmente sobre: La media de cada variable. La forma y elongación de la distribución. El número de observaciones. Un modelo GMM asume que los datos proceden de: Una única Gaussiana. Una mezcla ponderada de varias Gaussianas. Un conjunto de centroides. En un GMM, el parámetro ϕⱼ representa: La varianza del clúster j. La media del clúster j. El peso del clúster j en la mezcla. En un GMM con k componentes, ¿Qué parámetros se estiman?. Solo las medias. μⱼ, Σⱼ y ϕⱼ para cada componente. Únicamente las covarianzas. El algoritmo utilizado para estimar los parámetros de un GMM es: Descenso por gradiente. Maximización de la Expectativa (EM). k-medias jerárquico. El algoritmo EM en GMM es un procedimiento: Supervisado. Determinista en una sola iteración. Iterativo hasta convergencia. El proceso iterativo del algoritmo EM se detiene cuando: Se alcanza un número fijo de iteraciones. El cambio en los parámetros es menor que un umbral ε. La probabilidad se hace cero. Para elegir el número de clústers k en un GMM se recomienda: Usar siempre el mismo k que en k-medias. Seleccionar el k que maximiza la probabilidad en el conjunto de test. Minimizar la varianza intra-clúster. Además de clústering, GMM puede utilizarse como: Clasificador supervisado. Modelo probabilístico generativo. Método de reducción de dimensionalidad. |




