option
Cuestiones
ayuda
daypo
buscar.php
TEST BORRADO, QUIZÁS LE INTERESE: θέμα 1 (πολυμεταβλητή)
COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
θέμα 1 (πολυμεταβλητή)

Descripción:
ανάλυση του κύριου συστατικού

Autor:
Αντρέα
OTROS TESTS DEL AUTOR

Fecha de Creación:
04/10/2023

Categoría: Personal

Número Preguntas: 20
COMPARTE EL TEST
COMENTARNuevo Comentario
No hay ningún comentario sobre este test.
Temario:
Las componentes principales se eligen: Maximizando la varianza Mediante multiplicadores de Lagrange Minimizando la varianza Mediante mínimos cuadrados .
Las componentes principales: Son inferiores al número de variables originales, con un número decidido previamente Son tantas como las variables originales, pero de éstas se suele elegir un número inferior Son más que las variables originales, pero de éstas se suele elegir un número igual o inferior a las variables originales .
Las componentes principales: Son una combinación lineal de las variables originales Son una combinación no lineal de las variables originales Son combinaciones lineales y no lineales de las variables originales No son combinaciones de las variables originales .
Tras aplicar PCA y elegir un número de PC, tendremos: PCA reduce la dimensionalidad, por lo tanto un menor número de muestras (n'), subconjunto de las muestras iniciales (n) PCA reduce la dimensionalidad, por lo tanto un menor número de variables (p'), subconjunto de las variables iniciales (p) PCA reduce la dimensionalidad, por lo tanto un menor número de muestras (n'), y un menor número de variables (p') Ninguna es correcta.
PCA es: Invariante respecto a la escala de las variables originales La escala de las variables originales afecta a las componentes generadas La varianza de las variables originales afecta a las componentes generadas Ninguna es correcta .
PCA puede obtener: Como mucho 2 dimensiones ya que se usa para graficar Como mucho 3 dimensiones ya que se usa para graficar Tantas dimensiones como variables iniciales tengamos Ninguna es correcta .
PCA permite graficar: Información de las 2 variables originales más importantes Información de las 3 variables originales más importantes Información de todas las variables iniciales del dataset original Información de tantas variables originales como componentes principales elijamos .
prcomp() y princomp(): prcomp() utiliza SVD y princomp() utiliza valores propios prcomp() utiliza valores propios y princomp() utiliza SVD Obtienen resultados idénticos Tenemos que tener en cuenta cuál de las dos utilizamos para el preprocesamiento de los datos .
Un biplot: No se puede utilizar con un gran número de componentes principales (hasta 10 estaría bien) Representa bien cualquier número de variables originales Se vuelve complicado con muchas variables originales Representa bien cualquier número de componentes principales .
Un Scree Plot: Grafica en el eje de las X los PC (en ocasiones su logaritmo) y en el eje Y las varianzas de cada uno Grafica en el eje de las X los PC y en el eje Y los valores propios de cada uno Grafica en el eje de las X las varianzas y en eje Y los valores propios (en ocasiones su logaritmo) Grafica en el eje de las X os PC y en el eje Y las varianzas de cada uno .
Cuando realizamos PCA mediante vectores y valores propios: Debemos escalar los datos a varianza 1 Debemos escalar los datos a desviación estándar 1 Es equivalente escalar los datos y utilizar la matriz de correlación, por lo tanto siempre hay que realizar alguna de las dos Debemos utilizar la matriz de correlación en lugar de la matriz de covarianzas Debemos utilizar la matriz de covarianzas en lugar de la matriz de correlación Ninguna es correcta .
Cuando reducimos la dimensionalidad mediante PCA: Podemos recuperar los datos originales, pero perdemos información Ya no podemos recuperar los datos originales Podemos recuperar los datos originales, pero solo cuando trabajamos con imágenes Ninguna es correcta .
¿Cuáles de los siguientes métodos permiten reducir la dimensionalidad de los datos? PCA t-SNE SVM MDS SNE UMAP DTW Ninguna es correcta.
t-SNE: Se basa en la factorización de matrices Se basa en muelles físicos Se basa en vectores y valores propios Ninguna es correcta .
Los valores propios en el escalamiento multidimensional métrico: Siempre son negativos Siempre son positivos Pueden ser negativos si la distancia no es euclídea Pueden ser negativos si la distancia es euclídea Pueden ser negativos en cualquier caso .
Cuál de los siguientes métodos será, por regla general, más lento: UMAP PCA t-SNE MDS.
¿Cuáles de los siguientes métodos obtendrá nuevas variables, menores en número que las variables originales, que mantengan la máxima varianza posible de los datos originales? PCA MDS t-SNE UMAP Ninguna es correcta .
¿Qué métodos pueden trabajar con una matriz de distancias en lugar de una matriz de datos? PCA MDS t-SNE Ninguna es correcta .
¿Cuáles de los siguientes métodos hacen una reducción no lineal de la dimensionalidad? PCA MDS Métricos t-SNE UMAP Ninguna es correcta .
El método de Autoencoders se basa en: Redes neuronales artificiales Descomposición de valor único Máquina de vectores soporte Ninguna es correcta .
Denunciar Test