Estimación por intervalo y propiedades de los estimadores

Estimación por intervalo

Etapas

  • Elección del Estimador
  • Determinación del Nivel de Significación
  • Determinación del Error Estándar según datos
  • Determinación y Cálculo del Intervalo

Propiedades de los estimadores

1. Carencia de sesgo

Cuando la esperanza matemática de su distribución de probabilidad coincide con el parámetro a estimar (Ej. MEDIA).

2. Consistencia

Si la probabilidad del valor del estadístico es cercano a la del parámetro. Se aproxima a la UNIDAD conforme AUMENTA el tamaño de la muestra.

3. Eficiencia

Dados 2 estimadores insesgados del parámetro poblacional, se dice que el estimador 1 es más eficiente que el 2, si la varianza del 1 es menor que la del 2. Un estimador EFICIENTE pero ligera/ SESGADO será preferible a uno INSESGADO pero MENOS EFICIENTE (EFICIENCIA> SESGO).

4. Suficiencia

Si agota toda la info que existe en la muestra para estimar el parámetro, utiliza todas las observaciones (Ej. MEDIA).

5. Eficacia

Si es insensible a los valores extremos (Ej. MEDIANA).

Métodos de selección del estimador

1. Método de analogía

Se basa en la analogía que debe existir entre muestras y población. Así, la MEDIA, MEDIANA, PERCENTILES, VARIANZAS, etc. de una muestra se toman como una buena aproximación de los correspondientes valores de la población.

2. Met. de los momentos-M. Máx verosimilitud

Nivel de confianza (1-alfa) (Espacio Probabilístico)

Probabilidad de que los valores obtenidos a través del estimador por medio de un intervalo contengan el verdadero valor del parámetro que se pretende estimar en la población. Las más utilizadas son 0,99-0,95-0,90.

Coeficiente de confiabilidad (Z-T) (Según nivel de confianza)

Indica entre más menos cuantos errores estándar del estimador está comprendido 1-alfa.

Nivel de significación (Alfa) (Probabilidad-Espacio probabilístico complementario del nivel de confianza)

Permite separar sucesos que tienen mucha probabilidad de ocurrir de aquellos que la tienen baja. Establecido por el investigador, marca el error que está dispuesto a cometer. Por omisión, se considera el nivel 0,05.

Grado de significación (P) (Nivel mín de significación)-(Determinado por el nivel de significación-Alfa)

Valor probabilístico, a través del cual se va a rechazar la Ho. Es la probabilidad, correspondiente a un valor estadístico determinado, de encontrar una diferencia igual o superior a la hallada cuando la H.NULA es cierta. Conforme más pequeño sea el G.S. más probable será que la Ho sea falsa o más verosímil será la decisión de aceptar la H1.

Contraste de hipótesis

Etapas

  • Conocer, a ser posible, la distribución de probabilidad de la población
  • Determinación de la Hipótesis
  • Elección del nivel de significación y Estadístico de prueba
  • Obtención de los valores críticos, región/es de Aceptación/Rechazo
  • Establecimiento de las reglas de decisión
  • Cálculo del Estadístico de Prueba
  • Conclusiones

Reglas de decisión

1. Z-normal (n>30)

Bilateral, se rechaza Ho: -Zalfa/2 > Z > +Zalfa/2.

2. T-student

n T > +Talfa/2, n-1.

Propiedades t-student

  1. Depende de los G.L.
  2. Simétrica, puede presentar distintos aplasmatimiento según los grados de libertad.
  3. Su recorrido abarca desde -infinito a + infinito.

3. Chi-cuadrado

X2 1-alfa, n-1 > X2 > X2 alfa/2, n-1.

Propiedades chi-cuadrado

  1. Depende de los G.L.
  2. Asimétrica.
  3. Su recorrido abarca desde 0 a +infinito (tabula valores solo de la cola derecha).

4. F-Snedecor

Bilateral/unilateral (Zalfa) (derc o izq), se rechaza Ho: F > F alfa/2, n1 – 1, n2 – 1. (Siempre la varianza mayor en el Numerador y la menor en el Denominador para decidir sobre la cola Derecha).

Propiedades F-Snedecor

  1. Depende de los G.L.
  2. Asimétrica.
  3. Su recorrido abarca desde 0 a +Infinito.

Test paramétricos

Se aplica: -Normalidad (Datos Cuantitativos). -Homocedasticidad (igualdad de varianzas). -Independencia(observaciones). -Más de 2 grupos: 1. Datos INDEPEND: ANOVA. 2. Datos DEPENDT: ANOVA medidas repetidas.

Test no paramétricos

Son menos potentes que las Paramétricas para rechazar la H.Nula, cuando esta deba ser rechazada. Se aplica: -Cuando NO se cumplen las condiciones de los T.Paramétricos. -Cuando las muestras son PEQUEÑAS.

Inferencia sobre medias

Comparación de 2 muestras
  • Datos INDEPENDIENTES: Test de MANN-WHITNEY
  • Datos APAREADOS: Test de WILCOLXON
Comparación de más de 2 muestras
  • Datos INDEPENDIENTES: Krskal Wallis
  • Datos DEPENDIENTES: Friedman
1. Test de la U de Mann-Whitney

Consiste en determinar el valor de U, frecuencia de puntuaciones de una muestra que son inferiores a las puntaciones de la otra muestra. Cuando crece el tamaño de la muestra, en el límite, la distribución de U tiende a ser normal. Por tanto, cuando n sea grande se puede utilizar la Normal.

2. Test de la T de Wilcoxon

También llamada “Prueba de rangos apareados”, consiste en determinar el valor de T, que mide el rango de las diferencias de los datos de muestras apareadas. Una peculiaridad es que los RANGOS IGUALADOS los elimina, es decir, sólo considera diferencias Positivas o Negativas.

Tablas de contingencia

Presentan datos correspondientes a variables CUALITATIVAS O CUANTITATIVAS CATEGORIZADAS, recogidas en forma de FRECUENCIAS. En estas tablas, si se cambian FILAS por COLUMNAS o el orden de las CATEGORÍAS, el SIGNO y/o los RESULTADOS pueden cambiar, por ello hay que tener cuidado en el diseño de las tablas y analizarlas en función del sentido del estudio, y consecuente/ su interpretación. Presentan datos correspondientes a variables CUALITATIVAS o CUANTITATIVAS CATEGORIZADAS, recogidos en forma de frecuencias.

Tipos de tablas
Tablas RxS

R: Hace referencia al nº de elemtnos que integran la Primera Columna. S: Hace referencia al nº de elementos de la Primera Fila. Según el Análisis a Realizar: -HOMOGENEIDAD: R es el nº de muestras o caracteres de la “variable muestral” y S el de categorías del carácter (variable analizada). -INDEPENDENCIA: R es el nº de categorías del primer carácter (Variable) y S el del Segundo carácter (Variable).

Tablas 2×2

R=S=2. Caso particular de una RxS.

Tipos de variables

1. V.Independiente (X): Aquella que puede cambiar libre/ sus valores, sin que se vean afectados por los datos de otra variable. 2. V.Dependiente (Y): Aquella cuyos valores, depende de los que tome otra variable.

Independencia

1. Indep interna: De las OBSERVACIONES. Cada valor de la variable son independientes de los demás, no existe correlación entre los valores de la variable (Variable estatura: los datos de un individuo, no influirán con los que tenga al lado). 2. Independencia externa: (Peso y Años). De las VARIABLES. Una variable es independiente cuando sus valores pueden cambiar libre/, sin que se vean afectados por los de otra variable.

Tipos de muestras de datos según independencia o no interna de los datos (aleatoriedad)

1. Muestra de datos indep: Cada valor (Resultado obtenido) que presenta, es indepen de los anteriores. 2. Muestra de datos dpend: Depende de los anteriores.

Tipos de muestras de datos según nº de situaciones experimentales=medición de una variable

1. Muestra de datos indep: Cada elemento-individuo (unidad de análisis), ha sido sometido a UNA SOLA situación experimental. 2. Muestra de datos emparejados: Cada elemento-individuo, ha sido sometido a MÁS de una situación experimental. 3. Muestra de datos apareados: Ha sido sometido a la MISMA situación experimental más de una vez.

Chi-cuadrado

Características

  • Único dato numérico con que se cuenta son FRECUENCIAS.
  • Se basa en la diferencia entre FREC.OBSERVADAS y FREC TEÓRICAS que les corresponderían si siguiesen una cierta hipótesis previa/ establecida.
  • Los límites de ACEPTACIÓN/RECHAZO serán establecidos por los G.L y NIVEL DE SIGNIFICACIÓN predeterminado.

Fundamento

Entre las FREC OBSERVADAS de la muestra y las FREC ESPERADAS no debería haber diferencias si midiesen lo mismo, es decir, que ambas distribuciones fueran la misma (ambas tendrían que sumar el msmo nº de observaciones). El sumatorio de todas las probabilidades es 1.

Condiciones de aplicación del estadístico de Pearson

  • Tamaño de la muestra MAYOR o IGUAL a 30.
  • En HOMOG e INDEPN, aunque el planteamiento sea BILATERAL se toma ALFA.

Condicones que deben cumplir las Frec teóricas

  • Ninguna Frecuencia Teórica MENOR a 1.
  • No más del 20% INFERIORES a 5.

SI NO CUMPLEN LAS CONDICIONES/ALTERNATIVAS: -Aumentar el tamaño de la muestra. -Unir categorías. -SI NO SON POSIBLES LAS ANTERIORES, EN TABLAS 2X2: APLICAR T.FISHER (Corrección Yates)

1. Homogeneidad

Su OBJETIVO es verificar si 2 o más MUESTRAS en las que se estudia una MISMA VARIABLE pertenecen a la misma población. Ho: Las r muestras proceden de la misma población/ la % de individuos dentro de una determinada cuadrícula, es la misma en las r muestras. Se rechaza Ho si el X2 calculado > X2 (F-1 X C-1)gl. EXCEPCIÓN: NO SE APLICA CHI-CUADRADO sino Mc.NEMAR EN: (HOMOGENEIDAD /DATOS APAREEADOS/ 2×2) Ho: La % relativa de coincidencia, se mantiene al realizar el análisis conjunto de ambos momentos. En una TABLA 2X2: Con una muestra, una variable con 2 categorias, en 2 momentos difrentes. Las frecuencias que corresponden al mismo resultado de la variable (Antes-Después), no permite descubrir diferencias por lo que se utiliza para este estadístico los resultados NO coincidentes.

2. Independencia

Su OBJETIVO es verificar si 2 VARIABLES CUALITATIVAS o CUANTITATIVAS CATEGORIZADAS, o una en dos momentos diferentes, están relacionadas. Ho:Las características A y B son INDEPENDIENTES/NO ESTÁN RELACIONADAS/NO ESTÁN ASOCIADAS. BÚSQUEDA DE LAS CAUSAS DE SIGNIFICACIÓN MEDIANTE RESIDUALES: p= 0,255 (NO es significativo el análisis de Chi-Cuadrado porque p es mayor de 0,05) p=0,003 (SÍ es significativo porque p es menor de 0,05). Las RESIDUALES: -Buscan el por qué ha dado significativo. -Analizan hasta que punto son diferentes las calculadas a las teóricas. -Si es igual o muy cercano a 0,05 habría que aumentar el tamaño de la muestra.

3. Test de bondad de ajuste a distribuciones

Comprobación de si unos datos EXPERIMENTALES se aproximan a cierta distribución TEÓRICA. (TEST DE KOLMOGOROV-SMIRNOV) (TEST DE CHI-CUADRADO).

4. Test de bondad de ajuste a una distrib normal

TEST D’AGOSTINO (Datos CUANTITATIVOS DISCRETOS: De 10 a 29 datos): Permite de una manera rápida, determinar si unos datos siguen una distribución NORMAL o no. Ho: Se ajusta a una Distribución Normal N(0,1). REGLA DE DECISIÓN: Si DI menor o igual a Dcalculada menor igual a Ds (SE ACEPTA LA Ho). -TEST DE KOLMOGOROV SMIRNOV (Datos CUANTITATIVOS CONTINUOS MENOS DE 30 DATOS) . -TEST DE CHI-CUADRADO (Datos CUANTITATIVOS CONTINUOS: 30 O MÁS datos). -TEST DE SHAPIRO WILK.