option
Mi Daypo

Análisis Multivariante

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del test:
Análisis Multivariante

Descripción:
2º Grado USC Psicología

Autor:
AVATAR
Psicólogos en la llama
(Otros tests del mismo autor)


Fecha de Creación:
14/05/2013

Categoría:
Informática

Número preguntas: 396
Comparte el test:
Facebook
Twitter
Whatsapp
Comparte el test:
Facebook
Twitter
Whatsapp
Últimos Comentarios
No hay ningún comentario sobre este test.
Temario:
El método científico tiene dos características principales: carácter empírico y carácter replicable Verdadero Falso.
Los modelos teoréticos son aquellos que organizan las ideas o estructura del objeto de investigación en base a un tipo de lenguaje determinado Verdadero Falso.
Los modelos matemáticos se expresan en lenguaje matemático y permiten hacer predicciones Verdadero Falso.
Los modelos estadísticos son un subtipo de modelos matemáticos y tienen dos partes: una sistemática y otra aleatoria Verdadero Falso.
La parte aleatoria de un modelo constituye una estimación de aquello que no podemos explicar en la investigación Verdadero Falso.
La parte sistemática es un conjunto de componentes que representan el efecto de varias variables combinadas Verdadero Falso.
Y = b0 + b1X1 + b2X2 ... + E sería la expresión lineal general de un modelo estadístico Verdadero Falso.
Los supuestos de un modelo pueden ser paramétricos o no paramétricos Verdadero Falso.
El proceso de datos es un continuo que comienza en la fase de diseño de la investigación Verdadero Falso.
En la recogida de datos existen dos posiblidades de investigación: ex - post facto y experimental Verdadero Falso.
Una investigación ex-post facto es aquella en la que el experimentador espera que el fenómeno ocurra de modo espontáneo y lo observa Verdadero Falso.
A la hora de interpretar los resultados se intenta aceptar o rechazar la hipótesis de trabajo Verdadero Falso.
La validez externa está relacionada con la probabilidad de generalizar los resultados de un contexto a la población Verdadero Falso.
La validez ecológica está relacionada con la posiblidad de generalizar los resultados a otros contenidos, otras variables, otras situaciones experimentales y otras muestras entre otros. Verdadero Falso.
Según el nivel de medida las variables pueden ser: nominales, ordinales, de intervalo y de razón Verdadero Falso.
La distinción entre variables de intervalo y de razón radica en que las primeras no contemplan la posiblidad de que exista cero absoluto entre los valores que adoptan los datos, mientras que en las segundas si existe esta posibilidad Verdadero Falso.
Las variables nominales equivaldrían a las cualitativas, las cuasi cuantitativas a las ordinales y las cuantitativas a las de intervalo y razón Verdadero Falso.
En las variables de intervalo no hay un punto de origen en el 0, el origen es arbitrario Verdadero Falso.
En la recogida de datos los datos longitudinales son aquellos que informan de una variable y su evolución a lo largo del tiempo Verdadero Falso.
Una encuesta de población activa recoge datos de panel Verdadero Falso.
Los datos recogidos se ordenan en matrices. Filas = sujetos. Columnas = variables. Verdadero Falso.
La matriz de distancias y de similariedades son cuadradas Verdadero Falso.
El nivel descriptivo trata de resumir e ilustrar la información em una matriz de datos Verdadero Falso.
En el nivel inferencial bivariado se trata de comparar dos variables o pares de variables Verdadero Falso.
El análisis multivariante es una extensión del análisis univariado y bivariado al análisis simultáneo de dos o más variables. Verdadero Falso.
El análisis multivariante refleja la cantidad de datos existente en la realidad, sintetizando los aspectos más importantes y perdiendo el mínimo de información Verdadero Falso.
Los datos recogidos se ordenan en matrices. Filas = sujetos. Columnas =variables. Verdadero Falso.
Uno de los peligros principales del análisis multivariado es la fácil estimación de los resultados en contraste con la dificil interpretación de estos. Verdadero Falso.
Un peligro a tener en cuenta al usar técnicas multivariantes es la inclusión de demasiadas variables explicativas en el modelo Verdadero Falso.
Los modelos matemáticos son una representación formal y estructurada de la realidad, son complejos y extensos Verdadero Falso.
Los modelos matemáticos únicamente explican propiedades y leyes de la realidad Verdadero Falso.
Una maqueta a escala podría considerarse un modelo icónico Verdadero Falso.
Los modelos analógicos se calsifican en informáticos y matemáticos Verdadero Falso.
Existen tres tipos de modelos: icónicos, analógicos y matemáticos Verdadero Falso.
Los componentes B1 y B2 son términos que sirven para corregir el desfase de escala entre valores o entre la parte explicativa y la parte explica del modelo Verdadero Falso.
En el modelo Y = f(x) + E; Y es la parte explicativa o el objeto de investigación Verdadero Falso.
A la hora de diseñar un modelo debemos tender a escoger el más complejo posible, y si no es posible, reducirlo a uno más simple Verdadero Falso.
Las fases de una investigación son: Planteamiento del problema, formulación de hipótesis, recogida de datos, interpretación de resultados y elaboración del informe Verdadero Falso.
B0 = a; a es el valor que suma Y cuando X (el valor de las variables) es igual a 0 Verdadero Falso.
No es necesario que el problema sea formulable operativamente para comenzar una investigación Verdadero Falso.
El proceso de datos finaliza con el análisis estadístico del mismo Verdadero Falso.
A nivel estadístico hablamos de dos tipos de hipótesis: de trabajo y rival plausible Verdadero Falso.
El diseño de una investigación parte de una estrategia científica que puede ser experimental, cuasiexperimental o selectiva Verdadero Falso.
La elección de una prueba estadística de análisis de datos está en función del tipo de variables, pero no en función de la distribución de estas Verdadero Falso.
En las investigaciones experimentales el investigador no provoca la aparición del fenómeno objeto de estudio Verdadero Falso.
Los resultados de una investigación se expresan en términos absolutos Verdadero Falso.
Según el papel en la investigación, las variables se clasifican en: cualitativas y cuantitativas Verdadero Falso.
En las variables discretas, entre dos valores adyacentes pueden existir infinitos valores intermedios Verdadero Falso.
El número de hijos de una persona se considera una variable continua Verdadero Falso.
Una variable es una característica de un objeto de estudio susceptible de adoptar únicamente dos valores distintos (0 y 1: ausencia o presencia de variable) Verdadero Falso.
Las variables nominales expresan cualidad, pero también cantidad Verdadero Falso.
Los datos del panel recogen información de distintos elementos en un momento concreto del tiempo Verdadero Falso.
Los datos transversales combinan las características de los longitudinales y los de panel Verdadero Falso.
Existen dos niveles de análisis estadístico: el descriptivo univariado y el de modelización o multivariante Verdadero Falso.
Son técnicas descriptivas: la correlación canónica y la Prueba de homogeneidad de la varianza Verdadero Falso.
La modelización permite elaborar modelos explicativos y predictores, pero solo comparando variables de dos en dos Verdadero Falso.
El nivel de modelizacióin o multivariante no permite detectar variables latentes Verdadero Falso.
En el análisis multivariado los estadísticos se clasifican según: técnicas de dependencia y técnicas de independencia Verdadero Falso.
El análisis multivariante es útil para descubrir las relaciones ntre variables pero no para contrastar hipótesis globales Verdadero Falso.
Los casos anómalos no suponen un problema grave para las ténicas multivariantes, ya que estas no se ven afectadas por este tipo de datos. Verdadero Falso.
La parte sistemática de un modelo se denomina Término de Error Verdadero Falso.
Las técnicas estadísticas son herramientas estadísticas Verdadero Falso.
Los métodos de dependencia son aquellos en los que se especifica una variable como pronostica a partir de otras Verdadero Falso.
Si los datos son cuantitativos debemos usar un método métrico de análisis Verdadero Falso.
El hecho de que tengamos datos cuantitativos, cualitativos o ambos condiciona el tipo de técnica de análisis a utilizar Verdadero Falso.
Los pasos en la Modelización serían las etapas a seguir cuando queremos aplicar una téncica multivariante sobre unos datos recogidos Verdadero Falso.
La estimación de parámetros consite en obtener los valores cosntantes, de peso de las variables, etc, en el modelo Verdadero Falso.
El hecho de que los parámetros se ajusten correctamente a la ecuación determina que el modelo será capaz de realizar buenas predicciones Verdadero Falso.
La regresión lineal permite predecir la relación entre VD y una o varias VI (esta relación solo puede ser lineal) Verdadero Falso.
Existe una excepción en la regresión lineal, las VI pueden ser cualitativas si utilizamos Varibales ficticas o DUMMY Verdadero Falso.
El análisis discriminante utiliza como VD variables cualitativas y como VI variables cuantitativas Verdadero Falso.
El análisis discrminante trata de clasificar en grupos según las puntuaciones de las VI's Verdadero Falso.
La representación matemática de la regresión lineal general sería la ecuación de la recta Verdadero Falso.
En el análisis discriminante los grupos están establecidos a priori Verdadero Falso.
Las VI's en la regresión logísticas pueden ser tanto cualitativas como cuantitativas Verdadero Falso.
La regresión logística se podría usar para predecir si un sujeto aprobará o no en función de: horas de estudio, CI, motivación... Verdadero Falso.
La regresión logística es un caso particular de la regresión lineal múltiple Verdadero Falso.
El análisis de la varianza determina en que medida una VD (o varias) está influenciada por una VI (o varias) Verdadero Falso.
El análisis conjunto permite explicar las preferencias de las amas de casa hacia las distintas marcas de leche Verdadero Falso.
Según la recogida de datos, el análisis conjunto permite tres posiblidades de estudio con el SPSS: Orthoplan, Plancards y Conjoint Verdadero Falso.
Estimar la importancia de cada atributo de un objeto sería una de las utilidades del análisis conjunto Verdadero Falso.
En el análisis conjunto, las VI deben ser categóricas puesto que representan atributos y las VD deben ser ornidales, dado que representan preferencia Verdadero Falso.
El análisis de supervivencia es útil para predecir el riesgo Verdadero Falso.
Para saber si un grupo de paciente sobrevivirá a partir de: tratamiento, edad, recaídas, etc. podemos usar el análisis de supervivencia Verdadero Falso.
La VD del análisis de supervivencia debe ser cuantitativa puesto que representa el tiempo que transcurre hasta la ocurrencia del evento Verdadero Falso.
El Path analysis de los modelos de ecuaciones estructurales permite probar relaciones entre variables a distintos niveles Verdadero Falso.
Para comprobar si se ajusta un modelo teórico a los datos podemos usar la subtécnica AMOS (un gráfico en el que observar la similaridad de los modelos teóricos y sus datos). Verdadero Falso.
Para conocer la relación entre un grupo de variables de personalidad y un ocnjunto de resultados de test podmeo sutilizar la correlación canónica Verdadero Falso.
El análisis discriminante es una técnica que clasifica los datos Verdadero Falso.
El análisis factorial se utiliza para reducir datos, identifica factores o variables latentes. Verdadero Falso.
Para poder utilizar el análisis factorial las variables deben estar en escala de intervalo o de razón Verdadero Falso.
A través del análisis de correspondencias podemos reducir los datos, obteniendo dimensiones o variables latentes Verdadero Falso.
El análisis de correspondencias es un subtipo del análisis factorial Verdadero Falso.
En el análisis cluster se trata de encontrar el menor número de grupos posibles, excluyentes y exhaustivos Verdadero Falso.
Una aplicación del Cluster sería identificar grupos jóvenes en base a sus horas de estudio y el número de revistas que compran Verdadero Falso.
Las técnicas de dependencia también pueden considerarse técnicas de explicación o predicción. Verdadero Falso.
El escalamiento multidimensional reduce datos, agrupando variables que estudian las preferencias de los sujetos Verdadero Falso.
Las técnicas multivariantes sólo permiten utilizar un conjunto de variables simultáneamente Verdadero Falso.
Una de las ventajas del escalamiento multidimensional es la versatilidad en la recogida de datos Verdadero Falso.
Según Sheth, las téncias multivariantes pueden clasificarse en función de las variables, pero no de las propiedades de datos Verdadero Falso.
En los métodos de Interdependencia las VI's son independientes estre si Verdadero Falso.
El hecho de que unas variables dependan de otras en un modelo, hace necesaria la utilización de un método de interdependencia para el análisis de datos Verdadero Falso.
El hecho de que unas variables dependan de otras en un modelo, hace necesaria la utilización de un método de interdependencia para el análisis de datos. Verdadero Falso.
La estimación de parámetros es el primer paso en la modelización Verdadero Falso.
La especificación del modelo debe realizarse matemáticamente para que este tenga utilidad Verdadero Falso.
En el paso de evaluación del ajuste, sólo tratamos de comprobar si el modelo es más apropiado para los datos Verdadero Falso.
Si el modelo es óptimo y realiza buenas predicciones la modelización terminaría con una reespecificación del modelo que hemos conseguido Verdadero Falso.
La interpretación de los coeficientes consiste exclusivamente en hacer una interpretación del modelo general y explicar su utilidad Verdadero Falso.
La regresión lineal sólo permite trabajar con datos cualitativos Verdadero Falso.
Hay dos tipos de regresión lineal: Simple (usa una sola VD) y Múltiple (sa varias VD) Verdadero Falso.
Son téncicas dependientes: Regresión lineal, Análisis discriminante, Regresión logística, Análisis de la varianza, Análisis conjunto y Análisis de conglomerados Verdadero Falso.
Si intentamos predecir la conducta de voto a partir de ingresos, edad, etc. tendríamos que usar una regresión lineal Verdadero Falso.
El análisis discriminante utiliza varias VI's y una VD que debe ser cualitativa o politómica Verdadero Falso.
La regresión logística determina en que grado una VD está influenciada por varias VI's Verdadero Falso.
La VD debe ser cuantitativa en la regresión logística Verdadero Falso.
La regresión logística puede ser de dos tipos: Simples (VD dicotómica) y Múltiple (VD politómica) Verdadero Falso.
El análisis de la varianza se divide en anova (sólo está presente una VD) y manova (análisis en relación a varias VD) Verdadero Falso.
El análisis de la varianza requiere que las VI's sean cuantitativas, al igual que las VD's Verdadero Falso.
El análisis conjunto es una técnica de interdependencia Verdadero Falso.
El análisis conjunto comprueba en que medida un modelo teórico se ajusta a los datos obtenidos Verdadero Falso.
La recogida de datos estructurada y restringida para estudios de marketing sería una característica de aplicación de análisis conjunto Verdadero Falso.
En el análisis conjunto, las VI deben ser categóricas puesto que representan atributos, y las VD's deben ser ordinales, dado que representan preferencia Verdadero Falso.
En el análisis de supervivencia tanto las VI's como las VD's son cuantitativas Verdadero Falso.
El análisis de supervivencia requiere al menos 3 VI: De respuesta (tiempo de registro cualitativa), De censura (cualitativa) y Explicativa (cualitativa o cuantitativa) Verdadero Falso.
La variable de censura en el análisis de supervivencia es cualitativa politómica puesto que define el grado en que el evento tendrá lugar Verdadero Falso.
En los modelos de ecuaciones estructurales, las VI son cualitativas y las VD son cuantitativa Verdadero Falso.
Los modelos de ecuaciones estructurales son útiles para predecir recaídas Verdadero Falso.
La subtécnica LISREL se puede usar sólo con variables cualitativas en las ecuaciones de modelos estructuales Verdadero Falso.
La correlación canónica utiliza VI y VD ambas cuantitativas Verdadero Falso.
La correlación canónica permite hacer grupos entre un conjunto de VI's y otro de VD's Verdadero Falso.
La técnica Overals permite el análisis de conjuntos de variables mezcladas de VD y VI, por un lado y de VD's por otro Verdadero Falso.
La autoría de la ténica de análisis de varianza es atribuida a Pearson Verdadero Falso.
Existen dos tipos de análisis factorial: simple y múltiple Verdadero Falso.
El análisis factorial exploratorio requiere especificar el número de factores que queremos obtener Verdadero Falso.
El análisis de correspondencias utiliza variables cualitativas y cuantitativas para sus cálculos Verdadero Falso.
El análisis de correspondencia simple utiliza más de dos variables en sus cálculos Verdadero Falso.
Agrupar items de una escala y etiquetarlos (clasificarlos) en dos dimensiones de evaluación (memoria verbal y memoria numérica) sería una posible aplicación del análisis de correspondencias Verdadero Falso.
El análisis de conglomerados, al igual que el factorial y el de correspondencias, agrupa variables para reducir datos Verdadero Falso.
El Cluster análisis trata de que los grupos tengan alta homogeneidad dentro de ellos y alta heterogeneidad entre ellos Verdadero Falso.
El análisis de correspondencia permite utilizar tanto datos cuantitativos como cualitativos Verdadero Falso.
La diferencia del Cluster con el análisis discrimiante es que en el primero los grupos están definidos previamente, mientras que en el segundo no. Verdadero Falso.
El escalamiento multidimensional permite realizar representaciones espaciales de los sujetos en relación a sus preferencias Verdadero Falso.
En el análisis log-linear las variables son cuantitativas Verdadero Falso.
Un ejemplo de utilización del análisis log - linear sería el estudio de dimensiones subyacentes que utilizan los sujetos a la hora de afiliarse a un equipo de futbol Verdadero Falso.
El análisis de datos presenta ciertos problemas relacionados con errores que cometemos al recoger datos, al codificarlos, por la existencia de sujetos que no responden, etc Verdadero Falso.
El tratamiento de datos es un procedimeinto exhaustivo para controlar las cualidades de los datos Verdadero Falso.
Depurar los datos consiste en detectar y corregir errores cometidos en la introducción de datos Verdadero Falso.
Con el análisis exploratorio examinamos los datos para conocer la tendencia de estos. Verdadero Falso.
El análisis de datos consiste en la aplicación de técnicas estadísticas con unos determinados objetivos Verdadero Falso.
La estimación del error es un procedimiento que llevamos a cabo dentro de la fase de depuración Verdadero Falso.
En la comprobación parcial, al seleccionar una submuestra, esta debe contener entre el 10% y el 20% de los datos. Verdadero Falso.
La fórmula PE es la siguiente PE = [errores/casos*vbles]*100 Verdadero Falso.
En caso de que la selección de la muestra sea no aleatoria debemos estimar el número de errores en toda la matriz antes de aplicar el PE Verdadero Falso.
Para corregir errores usamos estrategias sistemáticas de búsqueda de errores e incoherencias Verdadero Falso.
Las tablas de contingencias (o de frecuencias cruzadas) detectan inconsistencias entre dos variables Verdadero Falso.
Tanto la búsqueda de valores ausentes, como la de casos anómalos se raliza en la fase de análisis exploratorio Verdadero Falso.
Los missing provocan una reducción del tamaño mnuestral, y eso conlleva que la muestra se vuelva no representativa e inadecuada Verdadero Falso.
En caso de que los missing se distribuyan al azar y la pérdida de información sea pequeña, el SPSS permite corregirlos de dos formas: Listwise y Pairwise Verdadero Falso.
La estrategia de Pairwise no reduce tanto el tamaño muestral Verdadero Falso.
Si los datos no están distribuidos al azar y hay una asuscia grande de información podemos imputarlos o destruirlos Verdadero Falso.
Con la sustitución transformamos y reemplazamos los valores después de obtener descriptivos Verdadero Falso.
Los casos anómalos o atípicos son de dos tipos: outliers y extremos Verdadero Falso.
El criterio usado para definir los casos anómalos es la distancia entre estos casos con respecto al cuerpo central de la distribución Verdadero Falso.
Los outliers son aquellos valores que se separan de los valores normales entre 1,5 y 3 veces el IQR Verdadero Falso.
Los extremos son casos que se distancian en mayor medida de la distribución que los outliers Verdadero Falso.
Los valores atípicos desajustan el promedio de la distribución y el contraste entre dos variables Verdadero Falso.
Para subsanar el problema de desajuste de la media podemos acudir a estadísticos como la mediana o los m-estimadores Verdadero Falso.
Para detectar los casos anómalos a nivel univariante podemos utilizar el boxplot, el IQR, o los gráficos de tallo y hojas Verdadero Falso.
Los casos anómalos estropean el ajuste en un gráfico de dispersión Verdadero Falso.
Un boxplot permite conocer la dispersión o distribución de los datos Verdadero Falso.
El boxplot permite ver valores extremos y outliers además del IQR Verdadero Falso.
El boxplot nos ofrece información de la asimetría y la curtosis Verdadero Falso.
Si la mediana tiene un valor menor que el de la media podemos concluir que existe asimetría positiva Verdadero Falso.
Si la mediana tiene un valor igual que el de la media concluimos que existe asimetría Verdadero Falso.
Para comprobar la nomralidad de los datos utilizamos la prueba K-S de Lilliefors o el histograma Verdadero Falso.
El concepto de aleatoriedad quiere decir que los sujetos han sido escogidos al azar, por lo que existe independencia entre las medias Verdadero Falso.
La linealidad se puede comprobar con gráficos de dispersión facilmente Verdadero Falso.
Si la distribución tiene asimetría negativa fuerte usaremos Antilog X para transformar los datos Verdadero Falso.
Si la distribución tiene asimnetría positiva fuerte podemos transformar los datos con -1/X^3 o -1/X Verdadero Falso.
Si la significación es menor de 0,005 concluimos que se cumplen los supuestos paramétricos Verdadero Falso.
En la introducción de datos registramos los datos brutos en el ordenador Verdadero Falso.
La depuración y el análisis exploratorio son las fases más importantes en el tratamiento de datos Verdadero Falso.
En la trasnformación de datos existen dos fases: una activa y una pasiva Verdadero Falso.
Con el análisis exploratorio detectamos los missings y comprobamos supuestos para, en fases posteriores, corregir los casos anómalos Verdadero Falso.
La estimación del error no permite conocer la calidad de los datos introducidos una vez detectados y corregidos, pero si permite detectarlos y corregirlos Verdadero Falso.
Existen dos métodos de estimación del error: total (estimando el porcentaje de error) y parcial Verdadero Falso.
En la comprobación parcial se estima el porcentaje de error comprobando exhaustivamente todos los datos introducidos en el ordenador Verdadero Falso.
La selección de una submuestra en la comprobación parcial de errores debe realizarse de modo aleatorio Verdadero Falso.
Para poder considerar los datos como poseedores de una buna calidad para su análisis el resultado del PE debe ser superior al 0,05% Verdadero Falso.
La estrategia de valores fuera de rango o no permitidos es útil para variables nominales, ordinales y cuantitativas discretas y también se usa para detectar inconsistencias entre dos variables Verdadero Falso.
Los missings son valores en variables a las que el sujeto responde pero su codificación es confusa Verdadero Falso.
Sólo podemos corregir los missing si se distribuyen al azar y la pérdida de información es pequeña Verdadero Falso.
La estrategia Listwise reduce mucho el tamaño muestral y además dificulta la comparación entre coeficientes dado que cada coeficiente es calculado con distinto tamaño muestral Verdadero Falso.
Con la imputación solo reemplazamos los valores Verdadero Falso.
Podemos realizar sustitución de valores con las medias entre puntos adyacentes, con la mediana entre puntos adyacentes, con interpolación lineal, etc Verdadero Falso.
La media de subclases de Kalton es un método de sustitución Verdadero Falso.
Con los métodos de imputación, cmo la tendencia lineal en el punto, analizamos los datos Verdadero Falso.
El recorrido intercuantílico (IQR) constituye el 50% de los casos, que están situacdos entre el cuartil 50 y el 75 Verdadero Falso.
Los extrewmos se representan con un círculo en el boxplot Verdadero Falso.
Son M - estimadores: Andrews, Huber, Tukey y Wallis Verdadero Falso.
Para solucionar el problema de desajuste entre dos variables que provocan los casos anómalos podemos acudir a contrastes no paramétricos como la prueba de la mediana, U de Man - Withney o la media reducida Verdadero Falso.
Para detectar los casos anómalos a nivel multivariante utilizamos los gráficos de dispersión Verdadero Falso.
La distancia de Mahalanobis y la de Cook son útiles para detectar casos anómalos a nivel bivariado Verdadero Falso.
El boxplot ofrece información de los percentiles 25 y 75, pero no de los 50 y 100 Verdadero Falso.
Las partes superior e inferior de la caja central representan el máximo y el mínimo de la distribución de los datos sin que estos se consideren anómalos Verdadero Falso.
Si la mediana está en la parte inferior de la caja entonces decimos que hay asimetría negativa Verdadero Falso.
La mediana es la línea que atraviesa la caja central del boxplot y coincide con el P50 Verdadero Falso.
Si la mediana está en la parte superior de la caja entonces podemos conlcuir que existe simetría Verdadero Falso.
Si el valor de curtosis es positivo, decimos que una distribución es leptocúrtica Verdadero Falso.
En el momento en que estemos aplicando un contraste de hipótesis debemos empezar a comprobar los supuestos paramétricos Verdadero Falso.
Son supuestos paramétricos la colinealidad y la normalidad residual Verdadero Falso.
La homocedasticidad es la existencia de relación lineal entre las variables observadas Verdadero Falso.
La homocedasticidad se comprueba con la prueba de rachas Verdadero Falso.
Si no se cumplen los supuestos paramétricos podemos usar una prueba paramétrica o intentar transformar la variable Verdadero Falso.
La transformación de las variables se hace teniendo en cuenta los datos preliminares sobre la curtosis de la distribución y no la simetría de esta Verdadero Falso.
Si la distribución tiene una asimetría negativa suave podemos transformar los datos usando X^2 o X^3 Verdadero Falso.
Si la distribución tiene una asimetría negativa suave podemos transofmrar los datos usando Log X o Raíz(X) Verdadero Falso.
Las pruebas no paramétricas tienen mayor potencia que las paramétricas Verdadero Falso.
La regresión lineal múltiple es una extensión de la regresión lineal simple Verdadero Falso.
La correlación lineal es una medida del grado de asociación entre dos variables Verdadero Falso.
El sumatorio de productos cruzados en la correlación nos explica la dirección de la relación Verdadero Falso.
La covarianza elimina el efecto del tamaño de la muestra Verdadero Falso.
El coeficiente de correlación de Pearson controla, además del las influencias del tamaño de meustra, el efecto de las unidades de medida. Verdadero Falso.
El coeficiente de correación de Pearson utiliza las desviaciuones típicas de los valores de las variables para sus cálculos Verdadero Falso.
El coeficiente de determinación informa sobre el porcentaje exacto de variación de dos variables Verdadero Falso.
Si queremos estudiar la asociación entre dos variables después de controlar los efectos de una o más variables adicionales usamos la correlación parcial Verdadero Falso.
Uno de los fines de la regresión simple es determinar la función que relaciona la VI con la VD Verdadero Falso.
Según el método de mínimos cuadrados necesitamos ajustar la ecuación Y = a+bX a los datos para, posteriormente, minimizar el error con diferencias de los valores de las variables elevadas al cuadrado Verdadero Falso.
La estimación de parámetros en la regresión lineal se realiza mediante el método de mínimos cuadrados Verdadero Falso.
Se cumple que el Sumatorio (Yi - ^Yi)^2 es mínimo Verdadero Falso.
La varianza explicada es la proporción de variación que podemos explicar de la variación total de Y, y alcanza valores entre 0 y 1. Verdadero Falso.
El modelo general del análisis de regresión lineal sería: ^Yi = B0+B1X1+B2X2 + ...BnXn, donde a es un estimador de B0 Verdadero Falso.
Para utilizar el método de minimos cuadrados debemos descomponer la variación total de Y y aplicar el método de mínimos cuadrados Verdadero Falso.
R^2 ajustado se utiliza cuando utilizamos muchas variables o la muestra es muy reducida Verdadero Falso.
Para poder comparar los coeficientes b debemos estandarizarlos Verdadero Falso.
En la regresión simple t^2 = F Verdadero Falso.
El método por pasos puede ser de tres tipos distintos: hacia adelante, hacia atrás o en pasos sucesivos Verdadero Falso.
El error típico de estimación es la desviación típica de los errores y equivale a la raiz cuadrada de la media cuadrántica residual Verdadero Falso.
El método hacia delante de la selección de variables inicia sin variables e introduce primero la variable con mayor valor de Bn Verdadero Falso.
La distancia de Cook detecta los outliers que pueden estar afectando al modelo Verdadero Falso.
Para comprobar la independencia de los datos usamos el estadístico de Durbin Watson en la regresión lineal Verdadero Falso.
En la ecuación predictiva de la regresión lineal múltiple b1, b2, bn serían las variables independientes Verdadero Falso.
El coeficiente de correlación varía entre 0 y 1 Verdadero Falso.
Si la medida del coeficiente de correlación fuese 0,25 estaríamos diciendo que existe una relación inversa entre las variables Verdadero Falso.
El sumatorio de productos cruzados se expresaría matemáticamente según: [∑( ^Yi-Y)^2]/[∑(Y-^Yi)^2] Verdadero Falso.
El coeficiente de correlación de Pearson es una buena medida de la relación de las variables cuando estas se miden en escala cualitativa Verdadero Falso.
El coeficiente de determinación es la raiz cuadrada del coeficiente de correlación de Pearson Verdadero Falso.
Si la covarianza tiene un valor igual a 0, quiere decir que las variables son dependientes, mientras que si el valor es distinto a 0, son independientes Verdadero Falso.
La fórmula del coeficiente de correlación de Pearson para puntuaciones directas sería: Verdadero Falso.
El coeficiente de correlación informa sobre la fuerza de la relación pero no sobre la dirección puesto que solo alcanza valores entre 0 y 1 Verdadero Falso.
La regresión simple no hace predicciones de valores de la VD, para ello tenemos que recurrir a la regresión múltiple Verdadero Falso.
La regresión lineal consiste en hacer un ajuste de los valores de las variables a una ecuación matemática lineal, lo que solo puede hacerse con un diagrama de dispersión Verdadero Falso.
En la estimación de parametros la desviación total de Y es igaul a la suma de las desviaciones predichas por el modelo Verdadero Falso.
El método de mínimos cuadrados nos permite encontrar los valores de a y b que minimizan la desviación debida a la regresión Verdadero Falso.
B es un parámetro que nos informa de la cantidad de comabio pronosticado en Y para el cambio de 1 unidad en X, y además, es siempre positivo, dado que alcanza valores entre 0 y 1 Verdadero Falso.
Al parámatro a también se le denomina interconcepto, puesto que representa el valor que alcanza Y cuando X=0 Verdadero Falso.
La varianza explicada también es 1+variación debida al error Verdadero Falso.
La varianza explicada explica la fuerza de la relación y la dirección de la misma Verdadero Falso.
Bn, cuando es mayor de 0 indica que un incremento en la VI provoca un descenso en la VD Verdadero Falso.
La estimación de parámetros es el fin de la regresión Verdadero Falso.
R^2 es el cuadrado del coeficiente de correlación múltiple y toma valores entre 1 y -1 Verdadero Falso.
R^2 x 100 es una medida de bondad de ajuste del modelo, es un porcentraje de la variación de X que está explicada por Y Verdadero Falso.
La prueba ANOVA se usa para comprobar la significación de los resultados en la regresión lineal para cada variable por si sola Verdadero Falso.
La prueba t es capaz de comprobar si un VD es estadísticamente significativo Verdadero Falso.
Para que una variable resulte significativa con la prueba t debe ofrecer un resultado mayor de 2,96 con un nivel de significación del 0,05 Verdadero Falso.
En la selección de variables existen dos métodos: enter y stepwise, siendo el primero el más recordado Verdadero Falso.
Para mejorar el ajuste de los datos en la regresión lineal podemos usar sólo la distancia de Cook o la de Mahalanobis Verdadero Falso.
Los modelos multiatributo se basan en la teoría de la integración de información Verdadero Falso.
Los modelos multiatributo explican las preferencias centrándose en el sujeto Verdadero Falso.
Las preferencias se han explicado según la teoría de la decisión y los modelos multiatributo Verdadero Falso.
Según la teoría de los modelos multiatributo solo los objetos están configurados por atributos Verdadero Falso.
El atractivo de un objeto se explica a partir de las características del objeto Verdadero Falso.
Los sujetos perciben cada objeto en conjunto, no perciben los atributos de este Verdadero Falso.
El atractivo de un objeto es el nivel de preferencia que tiene para el sujeto dicho objeto Verdadero Falso.
En investigación interesa medir el estímulo, más que el atributo subyacente del estímulo Verdadero Falso.
Los objetos tienen niveles que únicamente aportan valor final al objeto Verdadero Falso.
La TII de Anderson postula que la preferencia puede expresarse en función de coeficientes que ponderan la aportación de cada característica a la preferencia global y en función del objeto en cuestión sobre el que se tiene dicha preferncia Verdadero Falso.
La TII de Anderson se puede explicar matemáticamente como Y = f (C, X). Verdadero Falso.
Según los modelos compensatorios, los efectos de las características de un estímulo son multiplicativos Verdadero Falso.
Los modelos compensatorios postulan que niveles de atributo no deseados son compensados con otros niveles de atributo Verdadero Falso.
La utilidad total de un objeto es igual a la suma de utilidades parciales de los distintos niveles de un mismo atributo del objeto Verdadero Falso.
En un modelo compensatorio el precio de la leche puede compensar el envase Verdadero Falso.
Existen dos opciones para explicar las preferencias: la estrategia composicional y la estrategia descomposicional Verdadero Falso.
La estrategia descomposicional es más realista que la composicional Verdadero Falso.
El análisis conjunto tiene su origen en la psicología y en el marketing Verdadero Falso.
El análisis conjunto consiste en una metodología para modelizar las preferencias de los sujetos Verdadero Falso.
Los atributos son características en las que se descompone un objeto Verdadero Falso.
El objetivo del análisis conjunto es entender la estructura de preferencias de cada sujeto Verdadero Falso.
En el diseño de la investigación debemos seleccionar los atributos y los niveles de estos Verdadero Falso.
Podemos recoger datos usando matrices trade-off o perfiles completos Verdadero Falso.
En la recogida de datos podemos usar tanto estímulos reales como simulados Verdadero Falso.
Se pueden recoger los datos mediante cuestionarios digitales a través de Internet Verdadero Falso.
En la estimación del modelo se busca averiguar la utilidad subjetiva de un estímulo Verdadero Falso.
Los Partworth se conocen a través de la ordenación de preferencias que ha realizado el sujeto Verdadero Falso.
Los Partworth se conocen a través de la presencia o ausencia de los niveles de atributo Verdadero Falso.
El método OLS es válido y robusto tanto si la VD es ordinal como si es de intervalo Verdadero Falso.
La estimación OLS se lleva a cabo con regresión a partir de la ordenación de los sujetos Verdadero Falso.
A partir de la estimación OLS obtenemos para cada sujeto la relación r=XB+e Verdadero Falso.
Las tarjetas hold - out son tarjetas que se hacen a mayores para comprobar si el ajuste del modelo es bueno Verdadero Falso.
Las utilidades parciales sumadas son iguales a la utilidad total del objeto Verdadero Falso.
El análisis conjunto es un método composicional Verdadero Falso.
La estrategia descomposicional consiste en preguntar directamente al sujeto por la importancia de cada atributo particular Verdadero Falso.
El análisis conjunto emplea el ajuste de los diseños experimentales a variables ordinales y la lógica de los modelos lineales Verdadero Falso.
El análisis conjunto parte de información métrica (preferencias) y proporciona información no métrica (utilidades) Verdadero Falso.
El análisis conjunto explica las preferencias de modo cualitativo Verdadero Falso.
El análisis conjunto utiliza las utilidades totales para calcular utilidades parciales que nos revelan las preferencias de los sujetos; con estas predecimos el comortamiento Verdadero Falso.
Antes de seleccionar el conjunto de estímulos el sujeto debe ordenarlos Verdadero Falso.
Los atributos deben ser relevantes, operativos, comunicables, y dependientes conceptualmente e ilimitados Verdadero Falso.
Los perfiles completos son poco realistas ya que solo permiten al sujeto evaluar dos atributos al mismo tiempo Verdadero Falso.
Las matrices trad-off son realistas ya que contienen pocos atributos y niveles Verdadero Falso.
Las matrices trad-off ofrecen la posibilidad de usar diseños fraccionados Verdadero Falso.
En la estimación del modelo se estiman los pesos B para cada atributo del objeto Verdadero Falso.
Los Partworth son los pesos estimados para cada nivel (J) del objeto (J) Verdadero Falso.
r = XB + e; en esta relación r es la matriz de datos del sujeto Verdadero Falso.
Para evaluar el ajuste en el análisis conjunto, usamos únicamente R^2 Verdadero Falso.
La regresión logística identifica factores de riesgo y de protección Verdadero Falso.
La regresión logística trabaja con posibilidades Verdadero Falso.
La regresión logística estima cuanto aumentan las posibilidades de sufrir una patología si se dan determinadas condiciones Verdadero Falso.
La regresión logística realiza pronósticos de pertenencia a un grupo en base a la estimación de probabilidades, a partir de los valores de las VI's Verdadero Falso.
La ODD identifica cambios en las VI's que implican cambios en el ratio de probabilidad de un evento Verdadero Falso.
El Logit es una función de enlace logarítmica Verdadero Falso.
La regresión logística sigue los mismos pasos que el análisis discriminante Verdadero Falso.
Debe existir una relación lineal entre el Logit y las VI's en la regresión logística Verdadero Falso.
Al igual que en la regresión lineal múltiple, en la regresión logística las mejores variables se seleccionan con el método enter o el método stepwise Verdadero Falso.
En la regresión log´sitica X2 sirve para saber si el modelo es estadísticamente significativo Verdadero Falso.
El estadístico de Wald se usa para interpretar los coeficientes en la regresión logística Verdadero Falso.
Las matrices de clasificación nos hablan del porcentaje de sujetos correctamente clasificados Verdadero Falso.
En el estadístico de Wald un b positivo aumenta la probabilidad de que ocurra un evento Verdadero Falso.
El Exp(b) permite identificar factores de riesgo y de protección Verdadero Falso.
Existen dos tipos de regresión logística, la simpre (con VD dicotómica) y la múltiple (con VD politómica) Verdadero Falso.
La regresión logística es restrictiva, ya que no se pueden usar VI's cualitativas Verdadero Falso.
Si no se cumplen los supuestos para el análisis discriminante tampoco se cumplirán para la regresión logística. Verdadero Falso.
Si la VD es dicotómica, en una predicción de recaída - rehabilitación, para la regresión logística se trabaja con un valor de referencia del tipo: P<0 recaída; P> o = 0 rehabilitación Verdadero Falso.
La ODD es el cociente 1-P(Y) (probabilidad de que no ocurra un evento) entre P(Y) (probabilidad de que ocurra un evento) Verdadero Falso.
El logit toma valores entre +1 y -1 Verdadero Falso.
El modelo de regresión logística es: Ln[P(Y)/1-P(Y)] = B0+B1X1+B2X2+...+BnXn Verdadero Falso.
El Logit no es imprescindible para obtener valores de probabilidad en la regresión logística Verdadero Falso.
La regresión logística es más exigente que el análisis discriminante en lo tocante a supuestos Verdadero Falso.
En la regresión logística las variables no tienen porque ser cuantitativas, pero si deben ser normales Verdadero Falso.
Uno de los supuestos más importantes de la regresión logística es la multicolinealidad Verdadero Falso.
Al igual que en la regresión lineal múltiple, en la regresión logística los parametros se estiman mediante mínimos cuadrados Verdadero Falso.
El criterio de máxima verosimilitud minimiza las diferencias entre Y e Y' Verdadero Falso.
Existen dos versiones de los coeficientes de la regresión logística: los estandarizados y los minimizados Verdadero Falso.
R^2 de Nagelkerke no es un indicador de ajuste de la regresión logística muy exacto, es mejor el R^2 de Coxx y Snell Verdadero Falso.
Al usar las matrices de clasificación como indicador de bondad de ajuste, el criterio de aleatoriedad debe ser ganar 1/2 al azar Verdadero Falso.
El R^2 de Coxx y Snell tiene valores entre -1 y 1 Verdadero Falso.
-2LL nos ofrece el valor de la varianza explicada Verdadero Falso.
Con -2LL, cuanto más próximos a 0 peor ajuste Verdadero Falso.
El estadístico de Wald un b positivo aumenta la probabilidad de que ocurra un evento Verdadero Falso.
El analisis de supervivencia está relacionado con los modelos de series temporales Verdadero Falso.
El objetivo del análisis de superviviencia es estimar el Riesgo o probabilidad de pertenecer a un grupo de recaída Verdadero Falso.
En el análisis de supervivencia se estima la función de supervivencia general con tablas de supervivencia y gráficos de supervivencia Verdadero Falso.
El análisis de supervivencia permite modelizar la supervivencia de la población objeto de estudio Verdadero Falso.
Las variables de censura permiten identificar factores de riesgo y de protección en el análisis de supervivencia Verdadero Falso.
La variable de respuesta nos da información del tiempo durante el que cada sujeto ha formado parte del estudio Verdadero Falso.
La variable de respuesta es una variable cualitativa Verdadero Falso.
Las variables explicativas deben ser cuantitativas en el análisis de supervivencia Verdadero Falso.
El análisis de supervivencia permite aprovechar la información de todos los sujetos porque todos los sujetos empiezan y terminan al mismo tiempo el estudio Verdadero Falso.
En el planteamiento de objetivos (en el análisis de supervivencia) únicamente se define el evento de interés y se determinan las variables manipuladas Verdadero Falso.
En el diseño del estudio debe definirse el período concreto de registro, definiendo el evento, el inicio y la finalización del seguimiento y la escala del tiempo Verdadero Falso.
En el análisis de supervivencia los supuestos a considerar son más teóricos que estadísticos Verdadero Falso.
El único supuesto que debe cumplirse en el análisis de supervivencia es que la censura debe tener carácter aleatorio Verdadero Falso.
La asunción de proporcionalidad consiste en que si dos sujetos tienen valores distitnso en VI's, la razón entre sus funciones al azar debe ser independiente del tiempo Verdadero Falso.
La estimación de la función de superviviencia para distintos grupos se hace según el método de Log Rank Verdadero Falso.
El análisis de supervivencia permite probar el efecto de distintas variables independientes en la función de supervivencia Verdadero Falso.
Las tablas y gráficos de Kaplan-Meier tienen carácter explicativo Verdadero Falso.
Para elaborar curvas de supervivencia podemos usar el método actuarial o el método de Kaplan - Meier Verdadero Falso.
Las tablas de Kaplan - Meier sirven para estimar la probabilidad de supervivencia por encima de un período de tiempo determinado Verdadero Falso.
Una de las condiciones que requiere su cumplimiento para poder usar tablas y gráficas de Kaplan - Meier es que los sujetos que se retiran del estudio tengan un perfil distinto a los que permanecen en el Verdadero Falso.
En las tablas de Kaplan - Meier se ordenan los sujetos de mayor a menor tiempo de superviviencia Verdadero Falso.
Para calcular la probabilidad de supervivencia en las tablas de Kaplan - Meier se usa la expresión: Verdadero Falso.
En la fórmula de cálculo de supervivencia Pk es la probabilidad de sobrevivir el décimo mes Verdadero Falso.
Otra forma de calcular la probabilidad de supervivencia es usando la expresión Verdadero Falso.
Sólo se calcula Pk en los meses en los que se ha producido algún evento Verdadero Falso.
Con el método Kaplan - Meier se construye un gráfico de supervivencia para cada sujeto Verdadero Falso.
Es frecuente que con muestras pequeñas existan grandes zonas planas y pequeños saltos Verdadero Falso.
En la gráfica de supervivencia nos interesa el RIESGO o HAZARD RATIO (la decelareación o tendencia de la curva Verdadero Falso.
Ayudándose de la gráfica de supervivencia se puede calcular la mediana o supervivencia media (período de tiempo en que la probabilidad de supervivencia es 1) Verdadero Falso.
El Cálculo del error estándar en el análisis de supervivencia se hace mediante el método de Greenwood Verdadero Falso.
La fórmula del error estándar en el análisis de supervivencia corresponde con: Verdadero Falso.
En la fórmula del error estándar n es el número de sujetos que han abandonado el estudio Verdadero Falso.
Con el valor de Se podemos elaborar un intervalo de confianza para alfa =0,05 y Se +- 1'96 Verdadero Falso.
En el análisis de supervivencia se pueden realizar cálculos para distintos grupos (prueba Log Rank) explorando el efecto de una VI sobre la función (habría tantas curvas y tablas como VI's) Verdadero Falso.
La prueba Log Rank asume que la función de supervivencia en los distitnos grupos debe ser similar, cuando esto no ocurra así, se reocmienda usar Z Verdadero Falso.
La regresión de Cox tiene carácter descriptivo Verdadero Falso.
La regresión de Cox permite incorporar en la modelización variables cuantitativas y cualitativas Verdadero Falso.
En el modelo del análisis de supervivencia, λ es Hazard o tasa de riesgo y α es el coeficiente de regresión para cada VI Verdadero Falso.
En la regesión de Cox, la estimación de parámetros se hace mediante Máxima Verosimilitud con el Método Newton-Rahson (en cada iteración consigue descender el valor de -2LL) Verdadero Falso.
-2LL es la varianza explicada por el modelo ( X2 para ver si el modelo es estadísticamente significativo). Verdadero Falso.
El estadístico de Wald sirve para conocer la significación de la Bn en su conjunto, cuando α<0,05 el Bn es significativo Verdadero Falso.
Exp(b) o HR es el cociente entre la tasa de riesgo de un sujeto bajo la condición A frente a la condición B Verdadero Falso.
Cuando Exp(b) = 1 disminuye el riesgo (aumenta la probabilidad de supervivencia) Verdadero Falso.
Cuando Exp(b)>1 aumenta el riesgo (disminuye la probabilidad de supervivencia) y tendrá un Bn equivalente positivo Verdadero Falso.
En la prueba Log Rank el estadístico de contraste es: Verdadero Falso.
El modelo de regresión de Cox es: Verdadero Falso.
Para el cálculo de R (correlación parcial) se utiliza: Verdadero Falso.
Denunciar test Condiciones de uso
INICIO
CREAR TEST
COMENTARIOS
ESTADÍSTICAS
RÉCORDS
Otros tests del Autor