option
Cuestiones
ayuda
daypo
buscar.php

9. Introducción_GMM

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
9. Introducción_GMM

Descripción:
APRENDIZAJE AUTOMÁTICO NO SUPERVISADO

Fecha de Creación: 2026/01/22

Categoría: Otros

Número Preguntas: 16

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

Igual que k-medias, GMM asigna observaciones a clústers. ¿Qué información adicional ofrece GMM?. La distancia exacta al centroide. La probabilidad de pertenencia de cada observación a cada clúster. El número óptimo de clústers.

La principal diferencia conceptual entre k-medias y GMM es que: GMM no necesita inicialización. GMM realiza una agrupación blanda y k-medias una agrupación dura. k-medias es probabilístico.

La clasificación de clase única (unaria) se caracteriza por: Aprender a partir de varias clases etiquetadas. Aprender solo a partir de observaciones de una única clase. Requerir siempre datos balanceados.

El objetivo principal de la clasificación unaria es: Maximizar la separación entre clústers. Detectar observaciones que difieren de la clase aprendida. Predecir etiquetas categóricas.

Los algoritmos de clasificación unaria Gaussianos asumen que los datos: Siguen una distribución uniforme. Provienen de una Distribución Normal Multivariada. No presentan correlación entre variables.

En una Distribución Normal Multivariada, el vector μ representa: La dispersión de los datos. La posición central de la distribución en el espacio. La probabilidad acumulada.

Si una observación está definida por 4 variables, el vector μ tendrá: 1 elemento. 2 elementos. 4 elementos.

La matriz de covarianzas Σ informa principalmente sobre: La media de cada variable. La forma y elongación de la distribución. El número de observaciones.

Un modelo GMM asume que los datos proceden de: Una única Gaussiana. Una mezcla ponderada de varias Gaussianas. Un conjunto de centroides.

En un GMM, el parámetro ϕⱼ representa: La varianza del clúster j. La media del clúster j. El peso del clúster j en la mezcla.

En un GMM con k componentes, ¿Qué parámetros se estiman?. Solo las medias. μⱼ, Σⱼ y ϕⱼ para cada componente. Únicamente las covarianzas.

El algoritmo utilizado para estimar los parámetros de un GMM es: Descenso por gradiente. Maximización de la Expectativa (EM). k-medias jerárquico.

El algoritmo EM en GMM es un procedimiento: Supervisado. Determinista en una sola iteración. Iterativo hasta convergencia.

El proceso iterativo del algoritmo EM se detiene cuando: Se alcanza un número fijo de iteraciones. El cambio en los parámetros es menor que un umbral ε. La probabilidad se hace cero.

Para elegir el número de clústers k en un GMM se recomienda: Usar siempre el mismo k que en k-medias. Seleccionar el k que maximiza la probabilidad en el conjunto de test. Minimizar la varianza intra-clúster.

Además de clústering, GMM puede utilizarse como: Clasificador supervisado. Modelo probabilístico generativo. Método de reducción de dimensionalidad.

Denunciar Test