Estadística Empresarial ADE II UNED
![]() |
![]() |
![]() |
Título del Test:![]() Estadística Empresarial ADE II UNED Descripción: Resumen, planteamiento de preguntas teóricas - Estadística Empreasrial |




Comentarios |
---|
NO HAY REGISTROS |
Varios: Una variable aleatoria es una función que asigna un VALOR NUMÉRICO a cada suceso elemental del espacio muestral. La función de distribución F(x) se define como la probabilidad acumulada en el caso de variables aleatorias tanto DISCRETAS como CONTINUAS. Una muestra aleatoria simple es un SUBCONJUNTO de una muestra elegida de una población más grande por azar. La distribución muestral es la distribución de probabilidad que resulta de considerar todas las muestras posibles que pueden ser tomadas de una población. El Teorema central del límite lo podemos utilizar cuando tenemos una distribución suma n-variables (n > 100) aleatorias INDEPENDIENTES e IDÉNTICAS distribuidas. El coeficiente de variación de una variable aleatoria es una medida relativa de dispersión y permite comparar 2 distribuciones de probabilidad. El valor esperado de una variable aleatoria hace referencia a la MEDIA PONDERADA de la distribución. Varios ... Poisson se utiliza para sucesos de éxito muy pequeñas y un gran número de repeticiones. Binomial: La variable aleatoria X toma valores enteros comprendidos entre 0 y n, y nos indica el número repeticiones independientes de una prueba de Bernoulli. Binomial se puede aproximar a una de Poisson (λ) cuando la probabilidad asociada al suceso de éxito sea muy pequeña se den un número elevado de repeticiones independientes. Normal: Se define por su media y su desviación típica. Normal: El máximo de su función de densidad se da en la media, que coincida con la mediana y la moda. Distribuciones DISCRETAS: Uniforme discreta. Bernouilli. Binomial B(n,p). Poisson P(λ). Poisson como Límite Binomial. Distribuciones CONTINUAS: Uniforme continua. Normal N(0,1), N(µ,σ). Teorema central de Límite (Sn). Asociadas a la Normal: Pearson (x²) ; t-Student ; F de Snedecor. Contraste de hipótesis: α RECHAZAMOS y es VERDADERA (Error: Tipo I). β ACEPTAMOS y es FALSA (Error: Tipo II). 1 - α RECHAZAMOS y es FALSA (Decisión ✓). 1 - β ACEPTAMOS y es VERDADERA (Decisión ✓). La calidad del contraste será mayor cuanto mayor (+) sea la potencia del test y cuanto menor (-) sean los errores tipo I y II. NO PARAMÉTRICOS: Las hipótesis planteadas se refieren a características como forma de la distribución de la población, localización, aleatoriedad de la muestra, etc... Potencia o poder de un test de contraste: Es 1 - β. Potencia próxima a 1 = GRANDES. Potencia próxima a 0 = PEQUEÑAS. Es la capacidad que tiene el contraste para reconocer correctamente que la hipótesis nula es falsa, y por tanto, rechazarla. Para asegurar la calidad de un proceso de contraste es conveniente encontrar test estadísticos que proporcionen regiones críticas con potencias grandes. Tipificación de una variable aleatoria: Es la operación de realizar una transformación lineal en la variable para que la (nueva) variable transformada, tenga por media x̅ = 0, y por desviación típica σ = 1. Permite la COMPARACIÓN de valores puntuales de dos distribuciones distintas de distintas medias y varianzas. Es una transformación de una variable aleatoria mediante cambio de ORIGEN (✓) y de ESCALA (✓). Consiste en restar a la variable la media (x̅) y dividirla por la desviación típica (σ). La nueva variable tipificada es ADIMENSIONAL. La varianza (σ²): Es el 2º momento CENTRAL. Mide la DISPERSIÓN de los valores de la variables aleatoria respecto de su MEDIA (x̅). Se expresa en las mismas unidades de la variable aleatoria pero elevadas AL CUADRADO (σ²). Siempre es un valor POSITIVO (σ² > 0) y es cero (σ² = 0) cuando lo que tenemos es una CONSTANTE. SI cambia ante un cambio de ESCALA (✓). NO cambia ante un cambio de ORIGEN (⨉). Está considerada (junto con la desviación típica) el mejor indicador de la VARIABILIDAD global de la distribución. El concepto ERROR CUADRÁTICO medio (también denominado varianza Residual) es una medida que a través de la varianza y el SESGO de un estimador nos permite saber ¿Cuál es el mejor estimador de un parámetro?. La desviación típica (σ): Es una medida de la DISPERSIÓN de los datos; cuanto mayor sea la dispersión (+) mayor es la desviación típica (+). Es la raíz cuadrada de la varianza. SI cambia ante un cambio de ESCALA (✓). NO cambia ante un cambio de ORIGEN (⨉). Está considerada (junto con la varianza) el mejor indicador de la VARIABILIDAD global de la distribución. El concepto ERROR ESTÁNDAR de la media muestral hace referencia a la desviación típica de la distribución muestral del estadístico media muestral. La covarianza Cov(X,Y): Es el momento central de ORDEN 1.1 (a11) de la distribución BIDIMENSIONAL. Da una medida de DEPENDENCIA lineal entre 2 variables X e Y. Cov (X,Y) = 0 variables INDEPENDIENTES y NO existe relación lineal entre las variables (una de las variables es una CONSTANTE). SI cambia ante un cambio de ESCALA (✓). NO cambia ante un cambio de ORIGEN (⨉). La magnitud de la covarianza DEPENDE DE LAS UNIDADES DE MEDIDA de las variables aleatorias relacionadas. El coeficiente de variación (CV) de Pearson: Es una medida de DISPERSIÓN que permite comparar 2 distribuciones de probabilidad. Mide, en TÉRMINOS REALTIVOS, la dispersión alrededor de la media aritmética (x̅), es el más utilizado. NO cambia ante un cambio de ESCALA (⨉). SI cambia ante un cambio de ORIGEN (✓). Es ADIMENSIONAL. Coeficiente de correlación lineal ρ(X,Y) de Pearson : Es una medida de COVARIACIÓN CONJUNTA que nos informa del sentido de esta y permite la COMPARACIÓN entre distintos casos. Correlación positiva (+) perfecta: ρ = 1 correlación PERFECTA con pendiente +. Correlación negativa (-) perfecta: ρ = -1 correlación PERFECTA con pendiente -. Correlación positiva (+): ρ > 0 correlación DIRECTA. Correlación negativa (-): ρ < 0 correlación INVERSA. Variables incorrelacionadas: ρ = 0. Toma valores comprendidos entre -1 y 1. NO cambia ante un cambio de ESCALA (⨉) (salvo el signo*). NO cambia ante un cambio de ORIGEN (⨉) (salvo el signo*). El coeficiente de determinación (R²): Es una medida utilizada para explicar cuánta VARIABILIDAD de un factor puede ser causada por su relación con otro factor relacionado. Toma valores entre 0 y 1. R² = 0 variable predictora no tiene NULA capacidad predictiva de la variable a predecir (Y). R² = 1 la variable predictora explicaría TODA la variación de Y, y las predicciones NO tendrían error. Cuanto mayor (+) sea la PROPORCIÓN, mejor (+) será la PREDICCIÓN. Se utiliza para saber si una muestra aleatoria procede de una población con una determinada distribución de probabilidad. Es el cuadrado del coeficiente de correlación de Pearson, y da la proporción de variación de la variable Y que es explicada por la variable X. Bondad de ajuste: es una prueba de hipótesis estadística que se usa para averiguar si es probable que una variable provenga o no de una distribución específica. Se emplea a menudo para determinar si los datos de una muestra son representativos de la población completa. La estimación: Una estimación es el VALOR NUMÉRICO que toma el estimador para una muestra concreta. Para cada parámetro pueden existir varios estimadores diferentes. En la estimación PUNTUAL obtendremos un ÚNICO valor, calculado con las observaciones de la muestra, que es utilizado como estimación del valor del parámetro poblacional. Un estimador es INSESGADO si está centrado en el valor del parámetro poblacional. Estimación por intervalos: En la estimación POR INTERVALO de CONFIANZA para un coeficiente de confianza FIJO, cuanto menor (-) sea la amplitud del intervalo más precisa es la estimación. A mayor tamaño muestral será menor (-) la amplitud y por lo tanto será mejor (+) precisión. Si se mantiene la amplitud, a mayor (+) coeficiente de confianza mayor (+) precisión. Si disminuye (-) la varianza, disminuye (-) la amplitud y por lo tanto aumenta (+) la precisión. En la estimación POR INTERVALO se obtiene un extremo inferior y un extremo superior que definen un intervalo sobre la recta real el cual contendrá, con cierta seguridad, el valor del parámetro poblacional. Un estimador: Un estimador INSESGADO tiene una distribución muestral CENTRADA EN EL PARÁMETRO POBLACIONAL que estamos interesados en estimar. INSESGADOS son la media (x̅) y la varianza (σ²). Un estimador es CONSISTENTE si aproxima el valor del parámetro cuanto mayor es n (tamaño de la muestra). CONSISTENTES son la media (x̅) y la varianza (σ²). Un estimador es + EFICIENTE que otro si la varianza (σ²) de la distribución muestral del estimador es menor (-) a la del otro estimador. Cuanto (-) EFICIENCIA, (-) CONFIANZA de que el estadístico obtenido en la muestra aproxime al parámetro poblacional. Podemos decir que un estimador es EFICIENTE cuando sea insesgado y su varianza (σ²) alcance la Cota de Frechet-Cramer-Rao. |