lunes, 30 de enero de 2012

Estadística (7). Estimación de parámetros.

Estimación de parámetros: inferir un valor numérico que describe a la población a partir de un estadístico de la muestra. Esta puede ser estimación puntual cuando se hace coincidir el parámetro con el estadístico, o estimación por intervalos cuando se ofrece un intervalo de puntuaciones en el que se puede encontrar el valor del parámetro.

Propiedades de la estimación:
  • Carencia de sesgo: nos garantiza que la estimación se encuentra alrededor del parámetro en cuestión.
  • Eficiencia: más eficiente cuanto menor es la desviación típica.
  • Consistencia: a medida que aumenta el tamaño de la muestra, la probabilidad de que el valor del estadístico se acerca al valor del parámetro.
  • Suficiencia: es capaz de obtener de la muestra toda la información que contiene acerca del parámetro.
Distribución muestral: es la distribución de un estadístico en el muestreo.
Nivel de confianza: porcentaje de confianza al hacer la estimación.
Nivel de significación: probabilidad de error que estamos dispuestos a asumir en la estimación.
Intervalo confidencial: valores entre los cuales es más probable que se encuentre el verdadero valor del parámetro.
Error muestral: diferencia más probable entre el estadístico y el parámetro.

Pruebas para el contraste de hipótesis: son las pruebas que permiten decidir cual de las dos hipótesis es acertada.
Paramétricas: La variable que estamos tratando tiene una función de distribución determinada, conociendo todos los parámetros o bien alguno de ellos.
No paramétricas: Suele desconocerse la función de distribución de la variable.

Error tipo I: Rechazar la Ho siendo cierta.
Error tipo II: Aceptar la Ho siendo falsa.

Hipótesis simple: existe una Ho y una H alternativa. Unilaterales, una sola cola.
Hipótesis compuesta: existen varias hipótesis frente a una Ho. Bilaterales, o dos colas.

Condiciones que exigen las pruebas paramétricas:
  • Independencia de los datos: aleatoriedad del muestreo. La puntuación de un sujeto no influye en la obtenida por otro.
  • Normalidad: el parámetro a estimar se distribuye normalmente entre la población.
  • Homocedasticidad: la varianza es igual en todos los grupos.
  • Medida de intervalo: las variables deben medirse en escala de intervalo o ordinal multicategórica.
Para contrastar una hipótesis estadística hay que:
  • Formular la Ho y la H1
  • Fijar el nivel de significación
  • Comprobar las características de las variables y plantear las suposiciones necesarias.
  • Elegir un estadístico para contrastar.
  • Estudiar las características de la distribución muestral del estadístico.
  • Determinar la región crítica o de rechazo de Ho y la de aceptación.
  • Decidir sobre la aceptación o rechazo de la Ho.
Los estadísticos a elegir son:
  • Para muestras grandes: la media, la proporción, la diferencia de medias, la diferencia de proporciones.
  • Para muestras pequeñas: media, diferencia de medias, varianza poblacional, coeficiente de correlación.
Pruebas no paramétricas:

de una sola muestra:
  • Bondad de ajuste:
    • Kolmogorov-Smirnov: comprueba frecuencias acumuladas entre la muestra y la distribución teórica de la población. Para mediciones ordinales o de intervalo.
    • Contraste de ji2:
  • Aleatoriedad:
    • Prueba de rachas: los datos se presentan dicotomizados.
De dos muestras relacionadas:
  • Mc Nemar: los mismos sujetos son grupo experimental y de control.
  • Pares igualados de Wilcoxon: datos cuantitativos continuos o discretos.
De dos muestras independientes:
  • Contraste de ji2: datos en categorias discretas
  • U de Mann-Whitney: variables ordinales
Más de dos muestras relacionadas:
  • Q de Cochran: variables nominales dicotómicas
  • Friedman: variables ordinales.
Más de dos muestras independientes:
  • Kruskal-Wallis: variable ordinal.

No hay comentarios:

Publicar un comentario

LinkWithin

Related Posts with Thumbnails