9. Introducción al procedimiento de máxima verosimilitud
|
|
Título del Test:
![]() 9. Introducción al procedimiento de máxima verosimilitud Descripción: APRENDIZAJE AUTOMÁTICO NO SUPERVISADO |



| Comentarios |
|---|
NO HAY REGISTROS |
|
En términos conceptuales, el procedimiento de máxima verosimilitud, ¿por cuál de estas estrategias está guiado?. A) Generar conjuntos de ejemplares a partir de distintas distribuciones igualmente verosímiles. B) Proponer distintas distribuciones y preguntarse la verosimilitud de que hayan podido generar un conjunto de ejemplares concreto;. C) comprobar la distancia entre los ejemplares empíricos y los ejemplares teóricos generados por una distribución. El procedimiento de máxima verosimilitud busca. A) la distribución más verosímil, que es la que más verosímilmente ha generado un conjunto de ejemplares;. B) el conjunto más verosímil, que es el que más se ajusta a una distribución a-priori;. C) las menores distancias entre el conjunto empírico y el teórico, este segundo generado por las distintas distribuciones;. La verosimilitud de un único ejemplar (o puntuación) dada una distribución concreta se llama. A) verosimilitud conjunta;. B) valor singular;. C) verosimilitud individual;. Siendo la función de la distribución normal univariante: Se quiere calcular la verosimilitud de que un ejemplar 𝑦𝑖 cuya puntuación es 𝑦𝑖 = 87 provenga de una distribución con una media poblacional 𝜇 = 100 y con una desviación típica 𝜎 = 13,76. Dicha verosimilitud es: A) 0,0186;. B) 0,23. C) 0,0289. Siendo la función de la distribución normal univariante: Se quiere calcular la verosimilitud de que un conjunto que consta de dos ejemplares 𝑦1 = 87 e 𝑦2 = 99 haya sido provenga de una distribución normal con una media poblacional 𝜇 = 100 y con una desviación típica 𝜎 = 13,76. Calculando las verosimilitudes individuales obtenemos que 𝐿1 = 0,0186 y 𝐿2 = 0,0289. En tal caso, la verisimilitud 𝐿 de la distribución dado este conjunto de ejemplares es. A) 0,00054;. B) 0,0475;. C) 54%;. Contesta a la pregunta de la imagen: A). B). C). Siendo la función a ajustar la distribución normal uinivariante y su métrica de verosimilitud individual: Teniendo un conjunto de 𝑁 ejemplares (de puntuaciones), la estimación por máxima verosimilitud consiste en. A) estimar los parámetros 𝜇 y 𝜎2 que maximizan 𝐿𝑖 para cada ejemplar 𝑖;. B) estimar los parámetros 𝜇 y 𝜎2 que minimizan 𝐿𝑖 para cada ejemplar 𝑖;. C) estimar los parámetros 𝜇 y 𝜎2 que maximizan 𝐿 para el conjunto;. Siendo 𝜃 el conjunto de parámetros que definen una distribución, podemos calcular la verosimilitud conjunta con la siguiente expresión: Puede ser leída como: A) Los 𝜃 de la función más verosímil son aquellos con los cuales se obtiene una 𝐿(𝜃) mayor;. B) los 𝜃 de la función más verosímil son los que resultan de calcular la función 𝐿(𝜃) con los ejemplares 𝑦𝑖;. C) El valor 𝜃 de la función más verosímil es el punto máximo de 𝐿(𝜃);. La siguiente expresión define una tarea de maximización a partir de la estimación de parámetros en una distribución normal univariante para un conjunto de puntuaciones: En dicha expresión, se han de estimar algunos parámetros con los cuales la función se hace máxima. En concreto, se han de estimar. A) Las puntuaciones 𝑦𝑖 para todos los 𝑁 ejemplares;. B) El parámetro 𝜇;. C) los parámetros 𝜇 y 𝜎2;. La siguiente expresión define una tarea de maximización de la verosimilitud conjunta a partir de la estimación de parámetros en una distribución normal univariante para un conjunto de puntuaciones: En dicha expresión, se han de estimar algunos parámetros con los cuales la función se hace máxima. Con estos antecedentes, se asume que. A) habrá una combinación de 𝜇 y 𝜎2 que haga que la función 𝐿 arroje un valor máximo en comparación con otras combinaciones. B) habrá una combinación de las 𝑁 puntuaciones 𝑦𝑖 que haga que la función 𝐿 arroje un valor máximo en comparación con otras combinaciones. C) el parámetro a encontrar es el valor máximo de la función 𝐿;. Aplicar a la función de verosimilitud conjunta 𝐿 la función logaritmo. A) ayuda a afinar en la estimación de parámetros;. B) tiene como propósito la sencillez del tratamiento computacional;. C) sirve si la función logaritmo no es monótona;. Aplicar a la función de verosimilitud conjunta 𝐿 la función logaritmo y tomar la composición final como función a maximizar en la estimación de parámetros es posible gracias a que la función logaritmo es. A) no-monótona;. B) monótona;. C) continua;. La siguiente expresión de maximización muestra que los parámetros 𝜃𝑀LE que hacen máximo el valor en la función son los mismos ya se ponga la función de 𝐿(𝜃) como de In𝑙(𝜃): Esto es debido a que la función logaritmo es. A) monótona y creciente;. B) nomonótona y creciente;. C) monótona y decreciente;. Aplicar a la función de verosimilitud conjunta 𝐿𝐿 la función logaritmo. A) transforma un producto de verosimilitudes individuales en sumas, lo que hace más sencillas las estimaciones;. A) transforma una suma de verosimilitudes individuales en productos, lo que hace más sencillas las estimaciones;. C) ayuda a afinar en la estimación de parámetros obteniéndose modelos más precisos;. Tratándose de la distribución normal univariante, una de las formas de estimar los parámetros 𝜇 y 𝜎2 más verosímiles dado un conjunto de puntuaciones es. A) calcular las derivadas parciales de In𝑙 (función de log-verosimilitud conjunta) con respecto a cada parámetro e igualarlas a 0. Despejando los parámetros nos dará los valores de 𝜇 y 𝜎2 en que la pendiente es nula, y, por tanto, el máximo de la función;. B) calcular las derivadas parciales de In𝑙 (función de log-verosimilitud conjunta) con respecto a cada parámetro e igualarlas a 1. Despejando los parámetros nos dará los valores de 𝜇 y 𝜎2 en que la pendiente es nula, y, por tanto, el máximo de la función;. C) calcular las derivadas parciales de In𝑙 (función de logverosimilitud conjunta) con respecto a las puntuaciones del conjunto de datos e igualarlas a 0. Despejando los parámetros nos dará los valores de 𝜇 y 𝜎2 en que la pendiente es nula, y, por tanto, el máximo de la función;. Tratándose de la distribución normal univariante, una de las formas de estimar los parámetros 𝜇 y 𝜎2 más verosímiles dado un conjunto de puntuaciones es calcular las derivadas parciales de In𝑙 (función de log-verosimilitud conjunta) con respecto a cada parámetro e igualarlas a 0. Eso nos dará los valores de 𝜇 y 𝜎2 donde la pendiente es 0, y, por tanto, maximizan la verosimilitud de la distribución. Hecho esto, podemos calcular el error típico de la media. Este error pico tiene que ver con la contundencia y claridad del máximo de la función en la 𝜇 estimada frente a otros valores de 𝜇. A) cuanto más cambio en la pendiente a lo largo de los distintos valores de 𝜇, mayor error típico;. B) cuanto más cambio en la pendiente a lo largo de los distintos valores de 𝜇, menor error típico;. C) el error típico se estima con la derivada igualada a cero;. La función de verosimilitud individual cuando se trata de la distribución normal multivariante es: En esta fórmula, 𝚺 es. A) una matriz;. B) un vector;. C) un escalar;. La función de verosimilitud individual cuando se trata de la distribución normal multivariante es: En esta fórmula, 𝚺 es. A) un escalar con el máximo;. B) un vector de promedios;. C) una matriz de varianzas-covarianzas;. En los siguientes gráficos, tenemos graficados los ajustes a tres conjuntos de datos. Los tres han sido ajustados a distintas parametrizaciones de la fórmula de la distribución normal multivariante. Como se ve, cada ejemplar puntúa en Cociente Intelectual y Rendimiento. Siendo la tendencia central igual para todas las distribuciones, ¿a qué se puede atribuir el cambio de forma en los gráficos?. A) al efecto de los valores del vector 𝛍:. B) al efecto de los valores de la matriz 𝚺;. C) a la variable rendimiento;. La función de verosimilitud individual cuando se trata de la distribución normal multivariante es: En esta fórmula, 𝚺 es sensible. A) a la correlación de las variables en que puntúan los ejemplares;. B) al promedio de las variables en que puntúan los ejemplares;. C) al error típico de las medias de las variables en que puntúan los ejemplares;. Tenemos un conjunto de datos en el que cada ejemplar 𝐲𝑖 puntúa en dos variables, a saber, rendimiento e inteligencia. Queremos ajustar mediante el procedimiento de máxima verosimilitud una distribución normal multivariante con su fórmula característica: En tal caso, estimar los valores de la matriz 𝚺 significa que la distribución ajustada es sensible. A) a la centralidad de las variables y su dispersión;. B) a la dispersión de ambas variables y su colinealidad;. C) a la centralidad de las variables, su dispersión y la colinealidad entre ambas;. Tenemos un conjunto de datos en el que cada ejemplar 𝐲𝑖 puntúa en dos variables, a saber, rendimiento e inteligencia. A continuación, presentamos tres tentativas de ajuste a una distribución normal multivariante (con distinta parametrización): ¿Cuál de estas afirmaciones es correcta?. A) En el ajuste que representa la figura de la derecha se asume que los datos no presentan gran colinealidad. Por tanto, si los datos son colineales la verosimilitud conjunta será baja. B) En el ajuste que representa la figura de la izquierda se asume que los datos presentan gran colinealidad. Por tanto, si los datos son colineales la verosimilitud conjunta será alta;. C) En el ajuste que representa la figura de la derecha se asume que los datos presentan gran colinealidad. Por tanto, si los datos no son colineales la verosimilitud conjunta será baja;. La siguiente expresión define la tarea de maximización de la verosimilitud conjunta a partir de la estimación de parámetros en una distribución normal multivariante para un conjunto de puntuaciones: En dicha expresión, se han de estimar algunos parámetros con los cuales la función de verosimilitud conjunta se hace máxima. Con estos antecedentes, se asume que. A) se han de estimar el vector 𝚺 y la matriz 𝛍;. B) se han de estimar la matriz 𝚺 y el vector 𝛍;. C) se han de estimar los escalares 𝚺 y 𝛍;. Tenemos un conjunto de datos en el que cada ejemplar 𝐲𝑖 puntúa en dos variables, a saber, rendimiento e inteligencia. Queremos hacer un ajuste a la distribución normal bivariada. ¿Cuántos valores debemos estimar?. A) Cuatro valores en la matriz 𝚺, puesto que las medias están fijadas a priori;. B) Cinco parámetros a estimar. En primer lugar, dos medias en el vector 𝛍. En segundo lugar, tres valores en la matriz 𝚺, a saber, una varianza y dos covarianzas;. C) Seis parámetros a estimar. En primer lugar, dos medias en el vector 𝛍. En segundo lugar, cuatro valores en la matriz 𝚺, a saber, dos varianzas y dos covarianzas (aunque estás sean el mismo valor). Tenemos un conjunto de datos en el que cada ejemplar 𝐲𝑖 puntúa en dos variables, a saber, rendimiento y Cociente Intelectual. Se muestra a continuación la matriz a estimar de las varianzas-covarianzas: Si después de la estimación, la parte no diagonal de la matriz es 0, quiere decir que. A) no se espera que el rendimiento y el Cociente Intelectual correlacionen en la población;. B) se espera que el rendimiento y el Cociente Intelectual correlacionen en la población;. C) no se espera que las variables tengan alta dispersión en la población;. Tenemos un conjunto de datos en el que cada ejemplar 𝐲𝑖 puntúa en dos variables, a saber, rendimiento y Cociente Intelectual. Se muestra a continuación la matriz a estimar de las varianzas-covarianzas: Si después de la estimación, la parte no diagonal de la matriz tiene valores altos, quiere decir que. A) no se espera que el rendimiento y el Cociente Intelectual correlacionen en la población;. B) se espera que el rendimiento y el Cociente Intelectual correlacionen en la población;. C) no se espera que las variables tengan alta dispersión en la población;. Tenemos un conjunto de datos en el que cada ejemplar 𝐲𝑖 puntúa en dos variables, a saber, rendimiento y Cociente Intelectual. Se muestra a continuación la matriz a estimar de las varianzas-covarianzas: A). B). C). |




