Upload
omar-santos
View
217
Download
0
Embed Size (px)
DESCRIPTION
analisis aplicado ala probabilidad y estadistica
Citation preview
ANALISIS DE COVARIANZA
Para el análisis de covarianza se dice que es un procedimiento muy
importante en la fase de experimentación, pero lamentablemente no se usa con
frecuencia. Utiliza el análisis de varianza y el de regresión para eliminar la
variabilidad que existe en la variable independiente X que es conocida como
covariable; también ajusta medias de tratamiento y así estima mucho mejor el
efecto de la variable independiente sobre la variable dependiente.
El análisis de la covarianza como dijimos nos sirve para ajustar la variable
respuesta por el efecto de la covariable. En caso de no hacerlo, la media de
cuadrados del error puede aumentar mucho y hacer que las verdaderas
diferencias en la respuesta debido a los tratamientos sean difíciles de detectar. El
análisis de la covarianza resulta ser una combinación entre el anova y el análisis
de regresión.
El análisis de la covarianza es otro método que se utiliza para un problema
semejante: Ej.: supongamos un experimento con una variable respuesta, y, donde
existe otra variable, x, de modo que ambas están relacionadas linealmente.
Supongamos, además, que x no es una variable controlable por el experimentador
pero que puede ser observada junto con y. A la variable x se le denomina
covariable o variable concomitante.
Análisis de la covarianza unifactorial:
La variable respuesta (Y) está relacionada con una variable cualitativa (τ ) y
una o más variables cuantitativas (X).
- La variable cualitativa (τ ) recibe el nombre de factor
- La variable cuantitativa (X) recibe el nombre de covariable o variable
concomitante.
Suponemos un modelo con un solo factor y una covariable y asumimos una
relación lineal entre la variable respuesta y la covariable:
y ij=μ+τ i+ β (x ij−x .. )+u ij
Para:
i = 1, . . . , a
j = 1, . . . , n
En el modelo,
y ij es la j -ésima observación bajo el i-ésimo nivel del tratamiento.
x ij es la medida de la covariable que se hace para yij
x . . es la media de los valores de xij
μ es el valor medio global.
τ i es el efecto del nivel i-ésimo del tratamiento
β coeficiente de regresión que relaciona y ij con la covariable x i j
uij error aleatorio
Se asume que uij N (0 , σ 2 ) son independientes entre sí, β≠0 ,∑i=1
a
α i=0 y la
covariable x no está afectada por los tratamientos.
En un diseño completamente aleatorizado la suma total de cuadrados
puede descomponerse en suma de cuadrados entre tratamientos y en suma de
cuadrados residual.
Syy=∑i=1
a
∑j=1
n
( y¿¿ ij− ȳ ..)2=∑i=1
a
∑j=1
n
y ij2− y2
an¿
Sxx=∑i=1
a
∑j=1
n
(x¿¿ ij−x ..)2=∑i=1
a
∑j=1
n
xij2− x2
an¿
Sxy=∑i=1
a
∑j=1
n
(x¿¿ ij−x ..)2( y¿¿ ij− ȳ ..)=∑i=1
a
∑j=1
n
x ij y ij−(x ..)( y ..)
an¿¿
T yy=n∑i=1
a
( y¿¿ i− y ..)2=1n∑i=1
a
y i2− y2
an¿
T xx=n∑i=1
a
(x¿¿ i−x ..)2=1n∑i=1
a
x i2− x2
an¿
T xy=n∑i=1
a
( y¿¿ i− y ..)(x¿¿i−x ..)=1n∑i=1
a
x i y i−x .. y ..an
¿¿
E yy=∑i=1
a
∑j=1
n
( y¿¿ ij− y i .)2=s yy−T yy¿
E xx=∑i=1
a
∑j=1
n
(x¿¿ ij−x i .)2=sxx−T xx¿
E xy=∑i=1
a
∑j=1
n
(x¿¿ ij−x i .)( y¿¿ ij− y i .)=s x y−T x y¿¿
T yy=A yy+Eyy ;T xx=Axx+Exx ;T xy=Axy+Exy
T yy (aj) : es la variación debida al efecto del factor más el efecto residual.
T yy (aj )=T yy−T xy2
T xx
E yy(aj): es la variación de y asociada al término del error.
E yy (aj )=E yy−Exy2
Exx
A yy(aj) : es la variación entre los valores de la variable dependiente debida sólo al efecto del nivel del factor.
A yy(aj)=T yy (aj)−Eyy(aj)
Contraste de los efectos del FactorH 0 :τ i=0∀ i
H 1: τ i≠0 por lomenos paraalgúniSe contrasta mediante el valor experimental del estadístico
F=A yy (aj )(I−1)
Eyy (aj )(N−I−1)
En general, S = T + E donde los símbolos S, T y E son las sumas de cuadrado y los dobles productos para el total, los tratamientos y el error respectivamente.
Los estimadores por minimos cuadrados son:
u= yτ i= yi− y ..− β (xi−x ..)
β=Exy
Exx
La suma de cuadrados del error es:
SCE=E yy−Exy2
Exx
Con a(n-1)-1 grados de libertad
Aplicaciones del análisis de covarianza.
a) En el campo de la salud tenemos:
- Para estudiar la relación entre calorías consumidas (covariable) y edad (covariable)sobre el incremento de peso (variable dependiente) por país (tratamientos) en distintas épocas del año (bloque)
- Para estudiar la relación entre peso inicial (covariable) y consumo (covariable) sobre el aumento de peso (variable dependiente) por razas (tratamientos) b) En el campo de la agronomía tenemos:
- Para estudiar la relación entre fosforo inorgánico e organico (covariables) y el rendimiento por [arcela (variable dependiente) por tipo de suelo (tratamientos)
- Para estudiar el numero de plantas (covariable) y el rendimiento por parcela (variable dependiente) por variedad de sogro (tratamientos)c) En el campo de la eduacacion tenemos:
- Para estudiar la relacion entre autoestima (variable dependiente) y el climax familiar (x=covariable) para diversos grupos familiares ‘’padre, con padrastro, sin padre” (tratamientos).d) En el campo de la gerencia tenemos;
- Para estudiar la relación entre desempeño (variable dependiente) y el clima organizacional (X1=covariable) con tipo de liderazgo (X2=covariable) en diversos departamentos de la empresa (tratamientos)
Consideraciones.
- La covarianza disminuye el error experimental con el consecuente aumento en la precisión del experimento. Lo cual puede ser corroborado a travez de la disminución que experimenta el coeficiente de variación.
- La covarianza ajusta los promedios de los tratamientos. Esto puede ser corroborado comparando los promedios antes y después del ajuste. Los promedios corregidos por las covariables se llaman Medias minimo Cuadraticas Corregidas y se calculan asi:
Y=Y−bxy(X i−X )- La covarianza facilita la interpretación de los resultados en el experimento,
especialmente en lo relacionado con la naturaleza de los efectos de los tratamientos.
- La covarianza estima el valor de las unidades perdidas en los experimentos.