39
SPSS - ANOVA Miquel A. Belmonte Hospital General de Castellón España, 2000

1071

Embed Size (px)

DESCRIPTION

sasa

Citation preview

  • SPSS - ANOVAMiquel A. BelmonteHospital General de CastellnEspaa, 2000

  • Eleccin de tests estadsticos11> 1> 1Varbl. dependientesVarbl. Indep.

    CATEG

    CUANT

    CATEG

    CUANT

    CATEG

    X2

    Oneway

    Manova

    CUANT

    Student T

    Correlac

    CATEG

    Loglinear

    ANOVA

    Manova

    CUANT

    Reg. Logist

    Reg.Mult

  • ANOVA - conceptos bsicosInfluencia de una o varias variables categricas (factores) sobre una variable dependiente cuantitativaValora efectos principales de factores e interacciones de stos entre sAdmite una o ms covariables de control, de tipo cuantitativoEstudia reduccin de variabilidad (suma de cuadrados) Test paramtrico: Compara las medias de los subgrupos formados para cada factor

  • CondicionesIgualdad de varianzasDistribucin paramtrica

  • ANOVA - estadsticosSS total = SS efectos principales + SS interacciones orden 2 y sucesivas + SS residuosSS (factor o interaccin) MS = DF (grados de libertad) MS (factor o interaccin) F = MS de los residuos

  • ANOVA - Output SPSS Sum of Mean SigSource of Variation Squares DF Square F of F

    Covariates 601239435 1 601239435,132 54,882 ,000 AGE 601239435 1 601239435,132 54,882 ,000

    Main Effects 11677985838 7 1668283691,12 152,284 ,000 JOBCAT 7428829687 4 1857207421,83 169,529 ,000 SEXRACE 709773003 3 236591000,879 21,596 ,000

    2-Way Interactions 318155497 8 39769437,169 3,630 ,000 JOBCAT SEXRACE 318155497 8 39769437,169 3,630 ,000

    Explained 12597380770 16 787336298,143 71,869 ,000

    Residual 4885977728 446 10955107,014

    Total 17483358499 462 37842767,313

    Mean Square = _______________Sum of SquaresDFF = _____________________MS Factor explainedMS Residual

  • Modelos de ANOVAANOVA factorial generalANOVA multivariado: MANOVAANOVA de medidas repetidas

  • ANOVAModelo Lineal General Factorial

  • Definicin del modelo

  • Opciones

  • ContrastesPermiten comparar niveles o categoras entre s, dentro de cada factor considerado.

  • Profile PlotsMuestran estimaciones de Media Marginalpara cada subgrupo formado.

  • Grfico de distribucin

  • ANOVAModelo Lineal General FactorialSYNTAXUNIANOVA salnow BY sexrace jobcat WITH age /METHOD = SSTYPE(3) /INTERCEPT = INCLUDE /PRINT = DESCRIPTIVE ETASQ HOMOGENEITY /CRITERIA = ALPHA(.05) /DESIGN = age sexrace jobcat sexrace*jobcat .

  • Estadsticas Descriptivas

  • ANOVA Output

  • ANOVA factorialSimpleDiseos factoriales de modelos saturados Mtodos:nico: todos los elementos concurrentementeJerrquico: covariables - factores- interaccinExperimental: factores- interaccinGeneralDiseos factoriales de modelos no saturadosPermite especificar con ms flexibilidad el modelo a utilizar y variedad de estadsticos

  • ONEWAYCaso particular de ANOVA de un factorUna sola variable dependiente cuantitativaUn factor con varias categorasONEWAY, pero no ANOVA, produce:ContrastesComparaciones mltiplesPruebas de tendenciaTest homogeneidad de varianza

  • ONEWAY

  • Resultados OnewayListado descriptivo

  • ONEWAY - Output SPSSAnalysis of Variance

    Sum of Mean F F Source D.F. Squares Squares Ratio Prob.

    Between Groups 4 11168758807 2792189702 202,5184 ,0000

    Unweighted Linear Term 1 9966174401 9966174401 722,8499 ,0000 Weighted Linear Term 1 8987023511 8987023511 651,8318 ,0000 Deviation from Linear 3 2181735296 727245098,6 52,7473 ,0000 Within Groups 458 6314599691 13787335,57

    Total 462 17483358499

  • ONEWAY - Comparaciones MltiplesMultiple Range Tests: Scheffe test with significance level ,05

    The difference between two means is significant if MEAN(J)-MEAN(I) >= 2625,5795 * RANGE * SQRT(1/N(I) + 1/N(J)) with the following value(s) for RANGE: 4,37

    (*) Indicates significant differences which are shown in the lower triangle

    C O S E l f e C x e f c o er i u l m Mean JOBCAT 11134,8194 Clerical 11136,4118 Office t 12375,5556 Security 23901,0732 College * * * 25595,6250 Exempt e * * *

  • Oneway - Contrastes

  • Oneway - Means Plot

  • Tipos de Anlisis de VarianzaNmero de Varbl. independientesCondicionesprevias

    1

    >1

    independ

    >1

    relacionada

    Paramtrico

    Oneway

    ANOVA

    No Paramtrico

    Kruskal-Wallis

    Friedman

  • Kruskal-Wallis Oneway no paramtricoTests no paramtricos - K muestras independientes

  • Kruskal-Wallis Estadsticos descriptivos

  • Kruskal-Wallis Prueba de la Mediana

  • Kruskal-WallisContrastes

  • FriedmanAnova de dos vas para muestras apareadasKendall W es un test de concordancia donde cada variable es un sujeto de estudio y cada caso es un juez.Cochran Q se usa cuando todas las variables independientes son dicotmicasFriedman es el test bsico, que compara los rangos entre K variables relacionadas entre s. Se basa en X2

  • FriedmanResultados

  • ANOVA - otros modelosANOVA multivariado: MANOVAMs de una variable dependienteGran complejidad de modelosANOVA medidas repetidasLa variable dependiente se mide en ms de una ocasin para cada sujetoMultivariante complejo

  • MANOVA

  • Manova - Resultados

  • ANOVA medidas repetidasSe define un factor intra-sujetos conel nmero de categoras o niveles adecuadoal nmero de mediciones realizadasSe especifican las variables de las mediciones realizadas como grupos del factor intra-sujetos creado.Pueden definirse tambin covariables de correccin y factores de agrupamiento entre-sujetos.

  • Resultados - Efectos intrasujetosLas pruebas de efectos entre sujetos icnluyen diversos tests. Se determinan tambin estadsticos para las interacciones con el factor estudiado.

  • ANOVA medidas repetidasPruebas multivariadas

  • ANOVA medidas repetidas Contrastes intra-sujetos

  • ANOVA medidas repetidas

    En esta revisin vamos a estudiar el test estadstico de la Anlisis de la Varianza desribiendo sus bases tericas fundamentales as como la forma de usarla mediante el programa SPSS 8.0. Supongamos que queremos conocer la relacin entre el salario actual de los empleados de un banco (variable cuantitativa dependiente) y diversos factores (variables categricas independientes) como el sexo, el nivel de estudios y la raza, as como variables cuantitativas como la edad y el salario inicial cuando el empleado entr a trabajar en la empresa. Para ello usaremos las tcnicas de ANOVA (ANalisys Of Variance)En este esquema se indica el test estadstico a realizar para analizar diversos tipos de estudios, segn el tipo y nmero de variables dependientes e independientes.El test ANOVA se aplica cuando tenemos una variable dependiente cuantitativa, y queremos ver su relacin respecto a varias variables independientes cualitativas denominadas factores. El anlisis de varianza tambin permite estudiar su relacin o corregir el efecto de variables independientes cuantitativas (edad) denominadas covariables.En el test de ANOVA se forman subgrupos para cada nivel de cada factor, y se compara la media de la variable de estudio para cada subgrupo con tcnicas de correccin para comparaciones mltiples.El resultado final del test ANOVA, en caso de resultar singnificativo, solo establece que al menos un subgrupo del factor considerado es distinto de los dems, sin especificar cual es ese subgrupo concreto.

    Se trata de una tcnica paramtrica, que exige igualdad de varianzas entre los subgrupos as formados, y distribucin aproximadamente gaussiana.El test de Levene determina si los subgrupos tienen varianzas significativamente distintas entre s. En tal caso, hay que tener precaucin al interpretar los resultados ya que pueden no ser fiables.La suma total de cuadrados (SS total, siendo SS = Sum of Squares) indica la variabilidad total de la muestra estudiada. De hecho, la varianza es el cociente entre esta SS y la N de la muestra estudiada.Esta SS total es la suma algebrica de la variabilidad (SS) explicada por los factores considerados en el modelo (efectos principales y sus interacciones) ms la variabilidad residual, no explicada por el modelo establecido.

    SS = Sum of Squares = Suma de CuadradosMS = Mean Squares = Media de CuadradosEn este ejemplo se estudia la influencia del nivel laboral (5 categoras) y de una variable que combina sexo y raza de los individuos (varon-mujer, blanco-minora = 4 categoras) sobre el salario de los empleados corrigiendo por el efecto de la edad del sujeto (age).Como vemos, DF es siempre igual al nmero de categoras menos una.La media de cuadrados (MS o mean square) es el cociente entre cada suma de cuadrados (SS) y su DF.El valor de F es el cociente entre cada MS y el valor de MS de los residuos. Cuanto ms elevado, ms importancia tiene ese factor en el modelo considerado.La significacin se calcula a partir del estadstico F mediante tablas de Sndecor con DF grados de libertad.En este ejemplo, todos los factores y covariables son significativos, indicando que todos estos elementos influyen en el modelo final y por tanto en el salario de los individuos.En SPSS 8.0 se contemplan tres tipos de ANOVA, englobados bajo el trmino GLM (General Linear Models):ANOVA factorial general. Es el ms utilizado. Se basa en el modelo de una variable dependiente simple antes comentado respecto a varias variables categricas independientes entre s.ANOVA multivariado. Cuando hay ms de una variable dependiente se usan tcnicas de MANOVA.ANOVA de medidas repetidas (GLM Repeated Measures) analiza grupos de variables dependientes relacionadas entre s que representan diferentes medidas del mismo atributo, lo que es habitual en el caso de mediciones repetidas en el tiempo. Este modelo en cierto modo se asimila a un ANOVA para datos apareados. En el modelo general, las variables son independientes entre s.Los tests de ANOVA los encontramos en SPSS 8.0 en el men Statistics > General Linear Model. Elegimos el Modelo Lineal General Factorial.Normalmente elegimos las variables independientes (factores) con el modelo de tipo fijo, ya que de este modo se incluyen todas las categoras o niveles del factor considerado, en el modelo.Si el nmero de categoras del modelo es muy elevado para una muestra relativamente pequea, se formaran demasiados subgrupos con pocos elemntos en cada uno de ellos, por lo que es preferible realizar un muestreo aleatorio de categoras para establecer nuestro modelo. Elegimos entonces el sistema de efectos aleatorios.Las covariables son variables cuantitativas predictivas. Podemos usarlas para corregir el efecto de esas variables en el modelo, o bien para definir un modelo de regresin. Lo ms habitual es usar el modelo factorial completo, en el que se toman en consideracin todas las variables disponibles, incluyendo sus efectos principales e interacciones a todos los niveles. Por otro lado, para expertos en estadstica, SPSS permite definir modelos a medida con un alto grado de flexibilidad sobre el nmero, tipo y nivel de interaccin de las variables del modelo.Entre las principales opciones del programa encontramos:Descriptive: produce medias observadas, desviaciones standard, y recuento N para todas las variables dependientes en todas las celdas o subgrupos formados. Estimates of effect size: Da un valor parcial de eta-cuadrado para cada efecto y cada estimacin de parmetro. Este estadistico describe la proporcion de la variabilidad total atribuible al factor, de modo similar a R2 para la regresin. Observed power da la potencia del test cuando la hipotesis alternativa se establece en base al valor observado. Parameter estimates produce the estimaciones de parametros, errores standard, t tests, intervalos de confianza, y la potencia para cada test.Homogeneity comprueba la homogeneidad de la varianza mediante el test de Levene para cada variable dependiente a travs de todas las combinaciones de factores entre-sujetos, solo para este tipo de factores.

    Los contrastes se usan para medir diferencias entre niveles de un factor. Puede especificarse un contraste para cada factor del modelo. Los contrastes representan combinaciones lineales de los parmetros.Los contrastes disponibles son: desviacin, simple, diferencia, Helmert, repetidos, y polinmicos. Para los contrastes simple y desviacin, es posible elegir si la categora de referencia es la primera o la ltima.Los frecuentemente usados contrastes a priori estn disponibles para realizar pruebas de hiptesis. Adicionalmente, despus de que una prieba F global haya mostrado ser significativa, pueden usarse puebas post hoc para evaluar diferencias entre medias especficas. Las medias marginales estimadas da estimaciones de los valores de media predichos para las celdas en el modelo, y los grficos de perfiles (interaction plots) de estas medias te permiten visualizar fcilmente algunas de las relaciones. Las pruebas de comparacin mltiple post hoc se realizan para cada variable separadamente.

    Los grficos de perfiles (interaction plots) son tiles para comparar las medias marginales (medias de los subgrupos formados) en el modelo. Un profile plot es una linea en la que cada punto indica la media marginal estimada para una variable depiendente (ajustada para cualquier covariable) para un nivel de un factor. Los niveles de un segundo factor pueden ser usados para hacer lineas separadas.Un grficos de perfiles de un factor muestra si las medias marginales estimadas aumentan o disminuyen entre niveles. Para dos o ms factores, las lineas paralelas indican que no existe interaccin entre los factores, loo que significa que puedes investigar los niveles de un solo factor. Las lineas no paralelas indican que existe interaccin entre los factores.

    Los grficos o plots (spread-versus-level y residual) son opciones tiles para comprobar asunciones sobre los datos. El grfico de distribucin permite observar el comportamiento de la media y la desviacin estndard entre distintos niveles del factor. En distribuciones paramtricas la relacin entre ambas debe ser lineal.El grfico Residual muestra la relacin entre valores observados y predichos as como los valores estandarizados para cada variable dependiente, lo que es til para comprobar que las varianzas son iguales. Lack-of-fit comprueba si las relaciones entre la variable dependiente y las independentes pueden ser adecuadamente descritas por el modelo.

    Podemos usar el mtodo clsico de comandos mediante lneas de texto para establecer el mtodo y designar las variables y las opciones del anlisis a realizar. Con SPSS para Windows (versin 6 y posteriores), es ms sencillo usar las ventanas interactivas de SPSS, pero si deseamos automatizar el proceso para repetirlo posteriormente deberemos pegar (paste) el comando a ejecutar en la ventana de sintaxis y luego guardarlo en un fichero de texto apropiado.Es siempre muy interesante repasar los valores de medias y nmero de sujetos incluidos en cada subgrupo establecido para el anlisis. Si la N es muy baja (lo que se da si hay muchos niveles y variables independientes y/o la muestra es escasa), los grupos pueden tener pocos sujetos y por tanto potencia insuficiente para encontrar diferencias significativas.Por defecto, se usa el tipo III de clculo de suma de cuadrados, que es el ms apropiado si no hay casillas (subgrupos) vacias.Se muestran como resultados: la suma de cuadrados para cada factor e interaccin as como los residuos (error), media de dicha suma en relacin a los grados de libertad (DF), valor de F de Sndecor para cada elemento e interaccin, y significacin para cada elemento.La R cuadrada indica la proporcin de varianza explicada por el modelo, y varia entre cero y uno.En las versiones anteriores a la 7.0 de SPSS el procedimiento ANOVA se realiza de modo distinto,permitiendo elegir entre sistemas simples y generales, dependiendo de que se usen modelos saturados o no saturados.Los modelos saturados son aquellos en los que todas las variables se incluyen en el modelo. Los factores y las covariables as como sus interacciones pueden entrar en el modelo de forma simultnea (modelo nico) o bien en distinto orden.Los modelos no-saturados son ms complejos. En ellos se eligen las variables a incorporar al modelo, bien manualmente o de forma aleatoria. Requieren conocimientos de estadstica avanzada para tomar las decisiones ms adecuadas.Cuando solo tenemos una variable independiente o factor, con varios niveles o categoras, utilizamos una variante de ANOVA ms simple, denominada Oneway.

    Si se especifican varias variables dependientes se realizar un Oneway separado para cada una de ellas.Esta prueba, que es una modalidad del Anova general, tambin es paramtrica por lo que requiere igualdad de varianzas entre los niveles o categoras. Las comparaciones mltiples post-hoc permiten conocer qu niveles o categoras del factor difieren entre s, una vez deteminado que existe al menos un subgrupo o nivel distinto de los dems mediante la prueba de F para el conjunto de niveles.

    Para cada grupo formado por un nivel o categora del factor se muestran las estadsticas centrales: N, media, desviacin y error estndard, mximo y mnimo.Esmuy til observar estos parmetros para detectar valores atpicos (outliers) que pueden haberse introducido por error en la base de datos.La inspeccin visual de la media marginal de estos niveles o categoras frecuentemente ya revela si hay diferencias entre ellos, siempre que stas diferencias tengan una magnitud suficiente.El resultado del test Oneway es un valor de F que solo indica si al menos una categora difiere significativamente de las dems.En ejemplo aqu mostrado el resultado es significativo, por lo que procederemos a un estudio en mayor profundidad, mediante comparaciones post-hoc entre las categoras del factor o variable independiente.En este ejemplo, donde se estudia si hay diferencias de salario segn el nivel laboral, vemos que los tres primeros grupos no son significativamente diferentes entre s, como tampoco difieren los dos ltimos. Por tanto, hay dos subgrupos estadticamente homogneos, uno de salario bajo formado por los niveles 1+2+3 (trabajos de bajo nivel) y otro de salario alto formado por los niveles 4+5 (trabajos de alto nivel).Este es el mismo ejemplo pero con siete niveles o categoras. Aqu se forman tres subgrupos segn su respectivo nivel de salario. Los tres primeros tienen salarios bajos, los dos siguientes son de nivel medio y el ltimo es de alto nivel.Se comprueba que el nivel significacin dentro de cada subgrupo de categorias (intragrupo) as formado no es significativo (P>0.05) mientras s lo es en las comparaciones inter-grupos.Como en el caso del ANOVA general, es posible mostrar gficamente la estimacin de media de subgrupo, que corrobora as los conceptos expuestos anteriormente.En este esquema se indica el test estadstico a realizar para analizar diversos tipos de estudios, segn el tipo y nmero de variables dependientes e independientes.El test ANOVA se aplica cuando tenemos una variable dependiente cuantitativa, y queremos ver su relacin respecto a varias variables independientes cualitativas denominadas factores. El anlisis de varianza tambin permite estudiar su relacin o corregir el efecto de variables independientes cuantitativas (edad) denominadas covariables.Las pruebas no paramtricas de anlisis de varianza son el test de Kruskal-Wallis, de comparacin de k-muestras independientes, y el de Friedman para comparacin de k-muestras interrelacionadas o dependientes.El equivalente al test de Oneway para datos que no cumplen las condiciones requeridas para Anova es el test de Kruskal-Wallis (K-W).Este procedimiento compara dos o mas grupos de casos, definidos en la variable de agrupacin, respecto a una variable dependiente definida en la casilla contrastar variables.Ejemplo: Difieren tres marcas de bombillas de 100 watios en su tiempo de vida media? Con el test de Kruskal-Wallis puede detectarse que las tres marcas ciertamente difieren de su vida media til. Hay tres tests disponibles: H de Kruskal-Wallis, mediana y Jonckheere-Terpstra.El test H de Kruskal-Wallis, una extension del test U de Mann-Whitney es el anlogo no-parametrico del test Oneway y detecta diferencias en la situacin de la distribucion. El test de la mediana, que es una prueba ms general pero no tan potente, detecta diferencias en la situacin y forma de las distribuciones. Ambas pruebas asumen que no hay un ordenamiento a priori de las k poblaciones de las que se han extraido las muestras. Cuando hay una ordenacin natural a priori (ascendente o descendente) de las k poblaciones,es preferible usar el test de Jonckheere-Terpstra. Estadsticos disponibles: Media, desviacion estandard, minimo, maximo, numero decasos no-perdidos ycuartiles.

    Como en otros tests no paramtricos, se realiza una ordenacin de valores o ranking, y se establece el rango medio para cada nivel o subgrupo respecto de los dems.El test de K-W compara el rango medio alcanzado en cada subgrupo con los dems y determina si estas diferencias son suficientemente significativas como para rechazar la hiptesis nula.En el test de la mediana se ordenan los elementos de cada nivel o subgrupo y se cuenta el nmero de elementos que estn por encima y por debajo de la mediana global de la variable dependiente.Se realiza un test de Chi-cuadrado con la tabla resultante. Si es significativo se da el test de K-W como significativo y se acepta que hay diferencias entres los grupos, es decir, se rechaza la hiptesis nula.El test de Kruskal-Wallis permite realizar pruebas de contraste segn el mtodo asinttico o el de Monte-Carlo.Exact Tests provee dos mtodos adicionales para calcular los niveles de significacin para los estadsticos disponibles con los procedimientos Crosstabs y Nonparametric Tests . Estos mtodos, el mtodo exacto y el de Monte Carlo, son un medio para obtener resultados precisos cuado sus datos no cumplen ninguna de las asunciones subyacentes necesarias para dar resultados fiables mediante el mtodo estndard asinttico. Dentro de las pruebas no paramtricas encontramos varios tests para comparar varios grupos de muestras relacionadas. Uno de los ms usados es el de Friedman. Esta prueba compara las distribuciones entre dos o ms variables.Ejemplo: Asocia el pblico niveles de prestigio distintos segn la profesin: mdico, abogado, polica, maestro? Se le pidi a 10 personas que ordenasen estas cuatro ocupaciones por orden de prestigio. La prueba de Friedman indica que la gente realmente asocia distintos niveles de prestigio con esas profesiones. Estadsticos disponibles: Media, desviacion estandard, minimo, maximo, numero decasos no-perdidos ycuartiles.Pruebas: Friedman, W de Kendall, y Q de Cochran.La prueba de Friedman es el equivalente no parametrico de un diseo de medidas repetidas de una muestra o un anlisis de dos vas de la varianza, con una observacin por celda. Friedman comprueba la hiptesis nula de que k variables relacionadas vienen de la misma poblacin. Para cada caso, las k variables son ordenadas en un ranking de 1 a k. El estadstico de la prueba se basa en estos ranks. La W de Kendall es una normalizacion del estadstico de Friedman. Kendalls W es interpretable como el coeficiente de concordancia, que es una medida del acuerdo entre jueces. Cada caso es un juez o evaluador y cada variable es un elemento o persona siendo juzgada. Se calcula la suma de los ranks para cada variable. Kendalls W varia entre 0 (acuerdo nulo) y 1 (acuerdo absoluto). Cochrans Q es identica al test de Friedman pero se aplica cuando todas las respuestas son binarias. Es una extension del test de McNemar a la situacin de k-muestras. Cochrans Q comprueba la hiptesis de que varias ariables dicotmicas relacionadas tienen la misma media. Las variables se miden sobre el mismo individuo o sobre individuos emparejados.

    El procedimiento Medidas Repetidas GLM (general linear model) proporciona un anlisis de varianza cuando la misma medida se realiza varias veces sobre cada sujeto o caso. Si se especifican factores entre-sujetos, se divide la poblacin en grupos. Usando este procedimiento de GLM pued comprobarse la hiptesis nula sobre los efectos de los factores entre-sujetos y intra-sujetos. Pueden investigarse adems interacciones entre factores as como los efectos entre factores individuales.El procedimiento MANOVA o GLM Multivariante proporciona anlisis de regresin y anlisis de varianza para multiples variables dependientes por uno o ms factores independientes y/o covariables. Las variables de factor dividen la poblacin en grupos. Usando este procedimiento puede probarse la hiptesis nula sobre los efectos de los factores sobre las medias de varios subagrupamientos de una distribucin conjunta de variables dependientes.Pueden investigarse interacciones entre factores as como los efectos de factores individuales. Adems, se puede incluir en el modelo los efectos de las covariables y las interacciones entre covariables y factores. Para el anlisis de regresin , las variables independentes (predictoras) se especifican como covariables.

    Ejemplo. Un manufacturador de plasticos mide tres propiedades de la pelcula de plstico: resistencia al desgarro, brillo y opacidad. Se ensayan dos velocidades de extrusion y dos cantidades distintas de aditivos, y se miden tres propiedades bajo cada combinacion de velocidad de extrusion y cantidad de aditivo. El manufacturador encuentra que la velocidad de extrusion y la cantidad de aditivos individualmente producen resultados significativamente distintos en las propiedades medidas, pero que la interaccion entre los dos factores no es significativa.Pueden comprobarse modelos equilibrados (balanced) y desequilibrados (unbalanced). Un diseo est equilibrado si cada celda en el modelo contiene el mismo nmero de casos. En un modelo multivariado, las sumas de cuadrados debidas a los efectos en el modelo y las sumas de cuadradros de los errores estn en un formato de matriz ms que en el formato escalar existente en el anlisis univariado. Estas matrices se denominan matrices SSCP (sums-of-squares and cross-products). Si se especifica ms de una variable dependiente se suministra un anlisis de varianza multivariado usando la traza de Pillai, Wilks lambda, la traza de Hotelling, y el criterio de la mayor raiz de Roy con tests F aproximados, as como un anlisis univariado de la varianza para cada variable dependiente. Adems de comprobar estas hiptesis, MANOVA produce estimaciones de los parmetros.El procedimiento GLM de Medidas Repetidas analiza grupos de variables dependientes que representan diferentes mediciones del mismo atributo; proporciona pues un Anova cuando ser realiza una misma medicin varias veces sobre los mismos sujetos. Para usar Medidas Repetidas, los datos deben estar dispuestos correctamente. Debe definirse al menos un factor intra-sujetos que indica las variables que contienen las medidas repetidas. Ntese que el o los factores intra-sujetos no son variables existentes en sus datos sino ms bien factores que vd. define aqu.Ntese que el rden en el que se especifican los factores intra-sujetos es importante. Cada factor constituye un nivel dentro del factor previo.Si se especifican tambin factores entre-sujetos, stos dividen la poblacin en grupos. Por ejemplo, anlisis considerando el sexo de los suejtos. Usando el procedimiento GLM Medidas Repetidas puede probarse la hiptesis nula sobre los efectos tanto de factores entre-sujetos como intra-sujetos. Tambin pueden investigarse interacciones entre factores as como los efectos de factores individuales. Adems, puede incluirse el efecto de covariables constantes y de interacciones entre covariables con los factores intra-sujetos.

    Ejemplo. En un estudio sobre pacientes diabticos, medimos el nivel de hemoglobina glicosilada (HbA1c) semanalmente durante 4 semanas. En el fichero de datos, cada persona es un sujeto o caso. El valor HbA1c para cada semana se registra en cuatro variables distintas. El sexo de cada persona se registra en otra variable. Los valores de HbA1c medidos para cada sujeto repetidamente, pueden agruparse definiendo un factor intra-sujetos. Ese factor podra llamarse semana, y se define para tener cinco niveles. En la caja de dilogo principal, las variables HbA1_s1...s4 se usan para asignar los cuatro niveles de semana. La variable en el fichero de datos que agrupa varones y mujeres (sexo) puede ser especificada como un factor entre-sujetos para estudiar las diferencias entre varones y mujeres .

    De modo similar a MANOVA, el procedimiento de Medidas Repetidas proporciona anlisis uni y multivariados para los datos medidos. Se pueden probar modelos equilibrados y desequilibrados, dependindo de que cada celda del modelo contenga el mismo nmero de casos o no.En un modelo multivariado, la suma de cuadrados debida a los efectos en el modelo y la SS de errores estan en forma de matriz mas que en la forma escalar encontrada en el anlisis multivariado. Estas matrices se denominan SSCP (sums-of-squares and cross-products). Si se especifica ms de una variable dependiente se suministra un anlisis de varianza multivariado usando la traza de Pillai, Wilks lambda, la traza de Hotelling, y el criterio de la mayor raiz de Roy con tests F aproximados, as como un anlisis univariado de la varianza para cada variable dependiente. Adems de comprobar las hiptesis, el procedimiento Medidas Repetidas produce estimaciones de los parmetros.

    Del mismo modo que vimos ya con GLM Anova, pueden usarse aqui tambin contrastes a priori para realizar pruebas de hiptesis de factores entre-sujetos. Adems, si el test F global ha demostrado ser significativo, pueden usarse pruebas post-hoc para evaluar diferencias entre medias especficas. Las medias marginales dan estimaciones de los valores medios predichos para las celdas del modelo, y los grficos de perfiles (interaction plots) de estas medias permiten visuallizar fcilmente algunas de estas relaciones.

    En el ejemplo arriba mostrado no se demuestra interaccin del factor intra-sujetos con ninguno de los factores entre-sujetos o covariables analizadas.Estructura de los datosLas variables deben ser cuantitativas. Los factores entre-sujetos dividen la muestra en subgrupos discretos, como hombre-mujer. Estos factores son categricos y pueden tener valores numricos o ser cadenas de hasta 8 carcteres. Los factores entre-sujetos se definen en la caja de dilogo de GLM Repeated Measures Define Factor(s). Las covariables son variables cuantitativas que estn relacionadas con la variable dependiente. Para un anlisis de medidas repetidas, stas deben permanecer constantes para cada nivel de una variable entre-sujetos. El fichero de datos debe contener un conjunto de variables para cada grupo de mediciones de los sujetos. El grupo tiene una variable para cada repeticin de la medicion dentro del grupo. Un factor intra-sujetos se define para el grupo con un nmero de niveles igual al numero de repeticiones. Un ejemplo muy adecuado para practicar con este procedimiento est incluido en SPSS 8.0 en el fichero anxiety.sav