28
Medidas de asociación y sus pruebas de significancia. Universidad de Santiago de Chile Facultad de Ciencia Departamento de Matemática y Ciencias de la Computación

Cramer - Estadistica

Embed Size (px)

DESCRIPTION

cramer

Citation preview

Medidas de asociación y sus pruebas de significancia.

Integrantes: Yeniffer Carreño Baeza.Alonso Pacheco Arrué.Victor Guzmán Agurto.

Profesor: Rodolfo Barría.Fecha: 22 de Noviembre 2010.

Universidad de Santiago de ChileFacultad de Ciencia

Departamento de Matemática y Ciencias de la Computación

Ingeniería Estadística

Índice.

Tema PáginaIntroducción 3Coeficiente C de Cramer 4Coeficiente Phi 6Coeficiente T de Kendall para rangos ordenados 7Coeficiente T de kendall por correlaciones parciales 9Ejemplos 11Conclusión 18Bibliografía 18Anexo 1 19Anexo 2 20

2

Introducción.Frecuentemente deseamos conocer si dos series de puntuaciones están relacionadas

y, si es así, el grado de su asociación. Además de presentar medidas de asociación presentaremos pruebas estadísticas que determinan la significación de la asociación observada. El problema de medir el grado de asociación entre dos series de puntuaciones es más general que el de probar existencia de algún grado de asociación en alguna población.

En el caso paramétrico, la medida usual de correlación es el coeficiente de correlación producto-momento r de Pearson. Si, para un conjunto determinado de datos la suposición asociada con el coeficiente de correlación producto-momento r de Pearson no es sostenible o no realista, entonces se debe usar uno de los coeficientes de correlación y las pruebas estadísticas no paramétricas asociadas, las que están disponibles tanto para datos tanto categóricos como ordenados.

El investigador encontrará que, especialmente con muestras pequeñas, el cómputo de las medidas de asociación y las pruebas de significación no paramétricas no es más difícil y frecuentemente es más fácil que el cómputo de la r de Pearson.

3

Coeficiente C de Cramer.El coeficiente C de Cramer es una medida del grado de asociación o relación entre dos

series de atributos o variables. Se usa cuando tenemos sólo información categórica (escala nominal).

Para usar este coeficiente no es necesario suponer continuidad para las diferentes categorías usadas al medir uno o ambos conjuntos de atributos.

Método.

Tenemos datos en dos series de variables categóricas no ordenadas. Denotaremos estas variables como A y B, donde A tiene k categorías y B tiene r categorías, arreglamos las frecuencias conjuntas de la siguiente tabla de contingencia:

Se puede calcular el coeficiente de cramer de una tabla de 2x2, 2x4 o cualquier tabla de rxk, De tal tabla podemos obtener las frecuencias esperadas para cada celda (Eij). Mientras mayor sea la discrepancia entre esos valores esperados y los valores observados, más alto es el grado de asociación entre dos variables y, por lo tanto, más grande el valor del coeficiente de Cramer.

El grado de asociación entre dos conjuntos de atributos al medirse por medio del coeficiente de Cramer, aunque sean o no ordenables, con variables continuas o discretas, con cualquier distribución, se calcula por:

L: es el número mínimo del número de filas o columnas de la tabla de contingencia.nij: frecuencia conjunta observada.Eij: frecuencia conjunta esperada.

El coeficiente de Cramer tiene un valor máximo de 1 y será igual a 0 cuando las variables o atributos sean independientes. El coeficiente Cramer no puede tomar valores negativos.

Resumen del procedimiento.1- Arreglar las frecuencias observadas en una tabla de contingencia de rxk, donde r es la

cantidad de categorías de una variable y k las categorías de la otra variable.

4

2- Determinar frecuencias esperadas para cada celda. Si más cerca del 20% de las celdas tiene frecuencias esperadas menores que cinco o si cualquiera de las celdas tiene una frecuencia esperada menor que 1, combine las categorías (ya sea filas o columnas) para incrementar las frecuencias esperadas que sean deficientes.

3- Calcule el valor de X2 para los datos.4- Use el valor de X2 para calcular el valor de C. (coeficiente de Cramer)

Para probar si el valor observado de C indica que existe una asociación significativa entre dos variables, determine la probabilidad asociada según la hipótesis nula de un valor tan grande como el observado X2 con gl=(r-1)(k-1), consultando la tabla.

Limitaciones del coeficiente de Cramer.

Un índice de correlación muestra al menos una de las siguientes características:1º cuando las variables sean independientes y exista una carencia completa de asociación entre las variables, el valor del índice debe ser 0.2º cuando las variables muestren completa dependencia una de la otra, esto es, cuando estén perfectamente correlacionadas, el índice debe ser 1.

El coeficiente de Cramer tiene sólo la primera característica: que si no hay asociación el valor de C es 0, sin embargo cuando es igual a la unidad, pudiera no ser una correlación perfecta entre las variables. Esta es la primera limitación de C.

Cuando C=1, eso indica que las variables están perfectamente correlacionadas cuando la tabla de contingencia asociada es cuadrada, esto es, cuando r=k, si la tabla de contingencia no es cuadrada, es aun posible que C sea igual a la unidad. Sin embargo, en este caso existe asociación perfecta entre las variables en solamente una dirección. En el caso de que r<k, entonces, si C=1, existe una perfecta asociación de la variable columna a la variable fila, pero no existe la perfecta asociación en el sentido contrario.

Una segunda limitación es que los datos deben ser fáciles de usar con el estadístico X2, con el propósito de que su significación pueda ser interpretada aproximadamente. En la práctica, la regla común concerniente a los valores esperados, es que la prueba pueda aplicarse aproximadamente sólo si menos del 20% de las celdas en la tabla de contingencia tienen frecuencias esperadas menores que 5 y ninguna celda tiene una frecuencia esperada menor que 1.

Una tercera limitación de C es que no resulta directamente comparable con cualquier otra medida de correlación. Cramer es apropiado para usarse con variables categóricas (escala nominal).

Podemos interpretar valores mayores de C como indicadores de un grado de relación más grande que los indicados por valores menores, las diferencias en la magnitud no tienen interpretación directa.

Ventajas.

El coeficiente de Cramer no debe hacer suposiciones acerca de la forma de las distribuciones poblacionales de donde provienen las variables que están siendo evaluadas, y no requiere continuidad en las variables, sino sólo mediciones categóricas de las mismas. Debido a esta libertad en las suposiciones, C puede usarse frecuentemente para indicar el grado de asociación de dos conjuntos de variables, a las cual ninguna otra medida de asociación es aplicable.

Otra ventaja del coeficiente de Cramer es que permite al investigador comparar tablas de contingencia de diferentes tamaños y, lo más importante, tablas basadas en diferentes tamaños de muestra. Aunque es estadístico X2, no mide la independencia de dos variables y es sensible al tamaño de la muestra.

5

Coeficiente Phi para tablas de 2x2. El coeficiente Phi es una evaluación de la asociación o relación entre dos conjuntos de atributos medidos en una escala nominal, cada uno de los cuales puede tomar sólo dos valores.

Método.

Para calcular el coeficiente Phi, es conveniente arreglar los datos en una tabla de 2x2. Ya que los datos son dicotómicos, supondremos que son codificados como 0 y 1 para cada variable, aunque pueda ser usada cualquier asignación de valor binario.

Variable XVariable Y 0 1 Total

1 A B A+B0 C D C+D

Total A+C B+D N

El coeficiente Phi, se calculara de la siguiente manera:

Cuyo rango puede ser desde 0 hasta 1. El coeficiente phi está relacionado con el estadístico X2 que se usa para probar la independencia de variables categóricas (medidas nominalmente). De aquí que la significación del coeficiente Phi pueda probarse al usar el estadístico X2 de la siguiente manera:

Comparando este valor con X2 con un grado de libertad. Se advierte que si el tamaño de la muestra es pequeño, la significación de puede probarse mediante la prueba exacta de Fisher.

Resumen del procedimiento.1- Arregle las observaciones en una tabla de contingencia de 2x2.2- Use las frecuencias para calcular el coeficiente Phi. ( )

3- Para probar si el valor observado de indica que existe una asociación significativa entre las dos variables en la población muestreada, determine el estadístico asociado a la chi cuadrada X2.

6

Coeficiente de correlación T de Kendall de rangos ordenados.El coeficiente de correlación de T de Kendall para rangos ordenados es adecuado

como una medida de correlación con la misma clase de datos para los cuales es útil. Esto es, si al menos se han logrado medidas ordinales de ambas variables X e Y, tal que a cada sujeto pueda serle asignado un rango tanto en X como en Y, entonces TXY, proporcionará una medida del grado de asociación o correlación entre los dos conjuntos de rangos.

Una ventaja de la correlación de T de Kendall respecto a la correlación de Spearman es que la T de Kendall puede ser generalizada a un coeficiente de correlación parcial.

Método.

En primera instancia, se deben tomar los valores de X y ordenarlos de forma natural (creciente), pareándolas con sus respectivas observaciones de Y. Luego se toma, en orden, el primer valor de Y, y se compara con todos los valores siguientes (ubicados hacia la derecha). Cuando el valor de la derecha es menor al valor fijo, se le asigna el valor -1 (desacuerdo), en el caso en que el valor de la derecha sea mayor, se le asigna el valor +1 (acuerdo), en el caso en que sean iguales, se le asigna el valor 0.

Luego, se define T como:

En general, el número máximo posible total será , que puede ser expresado como

. Esta expresión es el denominador del estadístico T. Para el numerador,

denotaremos la suma observada de puntuaciones +1 como acuerdos y puntuaciones -1 como desacuerdos para todos los pares posibles. Entonces:

Donde N es el número de objetos o individuos colocados en rangos tanto para X como para Y.

Observaciones empatadas.

Cuando dos o más observaciones están empatadas ya sea en la variable X o Y, utilizaremos nuestro procedimiento usual en colocar rangos a las puntuaciones empatadas; se les da a las observaciones ligadas el promedio de los rangos que deberían haber recibido si no hubiese habido empates.

El estadístico se calcula de la siguiente forma:

Donde:, siendo t el número de observaciones empatadas en cada grupo de empates

en la variable X., siendo t el número de observaciones empatadas en cada grupo de empates

en la variable Y.

7

Para la prueba de significancia, si N 10, existe una tabla para determinar la probabilidad exacta asociada a la ocurrencia. (ANEXO 1).

Cuando N>10, la distribución muestral T de Kendall se aproxima a la distribución normal estándar, donde el estadístico queda como:

Resumen del procedimiento.1- Arregle la lista de N sujetos de manera tal que los rangos de los sujetos en la variable

X queden en su orden natural; esto es 1,…, N.2- Observe los rangos de Y en el orden en que ocurrieron cuando los rangos de X están

en el orden natural. Determine los valores de S, para los órdenes observados de Y.3- Calcular el estadístico T, analizando cual usar dependiendo si hay o no empates.4- Si los N sujetos constituyen una muestra aleatoria de alguna población, se puede

probar la hipótesis de que las variables son independientes en esa población. El método depende del tamaño de la población, esto es:

a) Para N 10, ocuparemos la tabla del ANEXO 1.b) Para N>10, se hará una aproximación a una distribución normal.

Si la probabilidad resultante por el método apropiado es igual o menos que un α, H0

puede ser rechazado a favor de H1.

8

Coeficiente de correlación parcial Txy.z de Kendall para rangos ordenados.

Cuando se observa correlación entre dos variables, existe siempre la posibilidad de que la correlación se deba a la asociación entre cada una de las dos variables y una tercera variable. Estadísticamente, este problema puede ser atacado por métodos de correlación parcial, que es lo que veremos a continuación.

Para usar este método no-paramétrico, debemos tener datos que estén medidos en al menos una escala ordinal. No necesita hacer suposiciones acerca de la forma de la distribución de puntuaciones observadas en la población.

+ : Signo de acuerdo con el signo de Z; - : Signo de desacuerdo con el signo de Z.

El coeficiente de correlación parcial Txy.z de Kendall de rangos ordenados (la correlación entre X e Y manteniendo Z constante), se define como:

Método.

Aunque el método mostrado para calcular Txy.z es útil para revelar la naturaleza del

coeficiente de correlación parcial, al incrementar el valor de , el número de pares de N

observaciones, podemos expresar la ecuación de Kendall de la siguiente manera:

Para usarla primero se deben calcular las correlaciones de T de Kendall entre X e Y, X y Z, e Y y Z.

Para la prueba de significancia, en el caso N≤20, se ocupará la tabla del ANEXO 2. Cuya hipótesis es: ó que las variables X e Y son independientes para una variable Z fija.

Para grandes valores de N, la distribución Txy.z es complicada, pero se aproxima a una distribución normal estándar, quedando el estadístico de la siguiente forma:

Resumen del procedimiento.Sean X e Y las dos variables cuya relación se desea determinar, y sea Z cuyo efecto

sobre X e Y se va a mantener constante.1- Ordene las variables desde 1 hasta N2- Calcular Txy, Txz y Tyz, para luego poder calcular Txy.z

9

3- Para probar la significancia del estadístico, el valor obtenido de Txy.z se compara con los valores críticos del estadístico proporcionado por la tabla (ANEXO 2). Para valores grandes de N se aproximará a una distribución normal estándar.

10

Ejemplos.1. COEFICIENTE C DE CRAMER.

Un investigador desea saber si la cantidad de nacimientos ocurridos en hospitales públicos o privados, están asociados (y su grado de asociación) con la escolaridad de la madre. El total de nacimientos ocurridos es de 63 y los datos obtenidos están agrupados en la siguiente tabla:

Escolaridad HospitalPúblico

HospitalPrivado

Total

Básica 19 2 21Media 12 5 17

Universitaria 7 18 25Total 38 25 63

2. COEFICIENTE PHI.

Se pretende conocer la relación que existe entre la zona residencial y la opinión sobre condena de pena de muerte como reductor de criminalidad. Se tomó la opinión de 220 personas, distribuidas por zona residencial urbano-rural, sobre si la pena de muerte debe aplicarse como reductor de criminalidad. Los resultados conseguidos están en la siguiente tabla:

Opinión sobrepena de muerte

ZonaUrbana

ZonaRural

Total

SI 90 7 97NO 10 113 123

Total 100 120 220

3. T DE KENDALL.

Una macroempresa selecciona graduados para puestos de trabajo aplicando una entrevista y un examen psicológico. A la oficina del personal le interesaba determinar si las calificaciones del examen tenían alguna correlación con los resultados de la entrevistas. 10 candidatos fueron evaluados en entrevista y entonces se les aplicó el examen. La siguiente tabla contiene los resultados pareados.

Individuo Calificación de la entrevista Calificación del examen1 8 742 5 813 10 654 3 835 6 666 1 947 4 968 7 709 9 6110 2 86

4. T DE KENDALL CORRELACIONES PARCIALES.

Un investigador está interesado en conocer la asociación entre el desarrollo mental de niños con respecto a la educación formal de sus madres. En esta ocasión desea conocer si los años de escolaridad de la madre actúan en el desarrollo mental de los hijos. Además se midió la estimulación en el hogar, con base a aspectos diferentes, como áreas físicas disponibles para que el niño explore, diversificación de juguetes, afecto de los padres hacia el niño, sensibilidad de los padres frente a las necesidades del hijo, etc. Los resultados son los siguientes:

11

Años de escolaridad materna Estimulación en el hogar Desarrollo mental del niño0 50 750 52 761 40 802 60 822 56 843 64 834 70 855 71 816 71 796 54 856 69 796 93 859 85 83

10 80 8810 125 8611 115 8712 105 9113 110 8914 74 9017 98 92

Solución.

1. Con los resultados, lo primero que debemos hacer es determinar las frecuencias esperadas, las cuales serían:

Escolaridad HospitalPúblico

HospitalPrivado

Total

Básica 12.6666 8.3333 21Media 10.2539 6.746 17

Universitaria 15.0793 9.9206 25Total 38 25 63

Ahora debemos calcular el estadístico X2:

Y por último, calcular el coeficiente de Cramer. Para esto determinamos el valor de L, que es 2, ya que es el menor número entre el total de filas (3) y el total de columnas (2). Luego el coeficiente es:

De este resultado, se puede decir que existe una relación débil entre la escolaridad de las madres que tuvieron hijos y el lugar, hospital público o privado, donde llevaron a cabo su embarazo.

12

Ahora se llevará a cabo el test para la significancia del coeficiente de Cramer.

H0: C=0 vs H1: C≠0α=0.05

X2obs=19.6376

Este valor se debe comparar con el valor de tabla de X2 con gl=(2-1)(3-1)=2, con una significancia de 5%.

X22=5.991

Por lo tanto, como X2obs>5.991, existe evidencia suficiente para rechazar la hipótesis

nula de no-existencia de asociación.

2. Con los resultados de la tabla procedemos a calcular el coeficiente como:

Este resultado nos dice que existe una relación de carácter fuerte entre la opinión de las personas con respecto a que la pena de muerte debe aplicarse como reductor de criminalidad y la zona residencial donde viven.

Para resolver su significancia, se procede a calcular el estadístico X2 asociado al coeficiente Phi.

H0: φ=0 vs H1: φ≠0α=0.05

Este valor se compara con un X2 de un grado de libertad, el que sería igual, con una significancia del 5%, a 3.841. Por lo tanto, como nuestro valor observado es mucho mayor a 3.841, existe evidencia suficiente para rechazar la hipótesis nula de no-existencia de asociación.

3. X: Calificación de la entrevista = {0, 1,2,…}Y: Calificación del examen = {0, 1,2,…}N=10

Luego, se deben ordenar las observaciones de X de menor a mayor y parearlas según la tabla. Quedando:

X 1 2 3 4 5 6 7 8 9 10Y 94 86 83 96 81 66 70 74 61 65

Luego se grafican las observaciones de tal forma de comparar todos los pares posibles, y para todos los valores mayores a la observación fija, se le asigna un +1, si es menor, un -1 y si es igual un 0. Estos valores posteriormente se sumarán para formar el valor de S. Lo anterior queda como:

13

X Y1 94 942 86 -1 863 83 -1 -1 834 96 +1 +1 +1 965 81 -1 -1 -1 -1 816 66 -1 -1 -1 -1 -1 667 70 -1 -1 -1 -1 -1 +1 708 74 -1 -1 -1 -1 -1 +1 +1 749 61 -1 -1 -1 -1 -1 -1 -1 -1 6110 65 -1 -1 -1 -1 -1 -1 -1 -1 -1 65

S -7 -6 -5 -6 -5 0 -1 -2 -1 31

Luego el valor de T es:

Con el valor de T podemos decir que existe una correlación fuerte, de carácter inverso, es decir, mientras mayor sea la calificación en la entrevista, menor es la calificación en el examen, y viceversa.

Para su prueba de significación, al ser N=10, se compara con el valor de la tabla del Anexo 1, que tiene el p-valor asociado al T observado.

H0: T=0 vs H1: T≠0α=0.05

Luego, el p-valor asociado al valor absoluto del T observado, 0.6888, es 0.02, y al ser bidireccional la región de rechazo, este valor se debe multiplicar por 2, resultando 0.04. Por lo tanto, como el p-valor es menor a 0.05, existe evidencia suficiente para rechazar la hipótesis de no-existencia de asociación entre las variables.

4. X: Años de escolaridad de la madre = {0, 1,2,…}Y: Desarrollo mental del niño = {0, 1,2,…}Z: Estimulación en el hogar = {0, 1,2,…}N=20

Ahora, para cada combinación necesaria, es decir, XY, XZ e YZ, necesitamos ordenarlas de la misma manera del ejercicio anterior.

Primero, calcularemos T para la combinación XY. Por lo tanto ordenamos:

X 0 0 1 2 2 3 4 5 6 6 6 6 9 10 10 11 12 13 14 17Y 75 76 80 82 84 83 85 81 79 85 79 85 83 88 86 87 91 89 90 92

Y ordenamos y sumamos tal como el ejercicio anterior, pero para esta combinación:

14

X Y0 75 750 76 +1 761 80 +1 +1 802 82 +1 +1 +1 822 84 +1 +1 +1 +1 843 83 +1 +1 +1 +1 -1 834 85 +1 +1 +1 +1 +1 +1 855 81 +1 +1 +1 -1 -1 -1 -1 816 79 +1 +1 -1 -1 -1 -1 -1 -1 796 85 +1 +1 +1 +1 +1 +1 0 +1 +1 856 79 +1 +1 -1 -1 -1 -1 -1 -1 0 -1 796 85 +1 +1 +1 +1 +1 +1 0 +1 +1 0 +1 859 83 +1 +1 +1 +1 -1 0 -1 +1 +1 -1 +1 -1 8310 88 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 8810 86 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 -1 8611 87 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 -1 +1 8712 91 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 9113 89 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 -1 8914 90 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 -1 +1 9017 92 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 92

S 19 18 13 10 5 7 3 8 10 5 9 6 7 2 5 4 -1 2 1 133

Luego, notamos que en las observaciones tanto de X como de Y existen empates, por lo tanto debemos calcular TX y TY. En las observaciones de X tenemos que el 0, 2 y 10, se repiten dos veces cada uno, y el 6 se repite 4 veces. En las observaciones de Y tenemos que los valores 83 y 79 se repiten dos veces cada uno y el 85 se repite tres veces. Quedando:

Luego, el valor de TXY es:

Ahora se calculará T para la combinación XZ. Ordenamos:

X 0 0 1 2 2 3 4 5 6 6 6 6 9 10 10 11 12 13 14 17Z 50 52 40 60 56 64 70 71 71 54 69 93 85 80 125 115 105 110 74 98

Luego creamos la tabla:

X Z0 50 500 52 +1 521 40 -1 -1 402 60 +1 +1 +1 602 56 +1 +1 +1 -1 563 64 +1 +1 +1 +1 +1 644 70 +1 +1 +1 +1 +1 +1 705 71 +1 +1 +1 +1 +1 +1 +1 716 71 +1 +1 +1 +1 +1 +1 +1 0 716 54 +1 +1 +1 -1 -1 -1 -1 -1 -1 546 69 +1 +1 +1 +1 +1 +1 -1 -1 -1 +1 696 93 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 939 85 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 -1 8510 80 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 -1 -1 8010 125 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 12511 115 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 -1 11512 105 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 -1 -1 10513 110 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 -1 -1 +1 11014 74 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 -1 -1 -1 -1 -1 -1 -1 7417 98 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 -1 -1 -1 -1 + 98

S 17 16 17 12 13 12 9 7 7 10 9 2 3 4 -5 -4 -1 -2 1 127

Y notamos que existen empates igualmente. En X están los mismos empates anteriores y en Z el valor 71 se repite dos veces. Por lo tanto los valores de Tx y TZ son:

15

Ahora, el valor para TXZ es:

Ahora, nos falta el cálculo de T para la combinación YZ. Nuevamente ordenamos:

Y 75 76 79 79 80 81 82 83 83 84 85 85 85 86 87 88 89 90 91 92Z 50 52 71 69 40 71 60 64 85 56 70 54 93 125 115 80 110 74 705 98

La tabla para este caso:

Y Z75 50 5076 52 +1 5279 71 +1 +1 7179 69 +1 +1 -1 6980 40 -1 -1 -1 -1 4081 71 +1 +1 0 +1 +1 7182 60 +1 +1 -1 -1 +1 -1 6083 64 +1 +1 -1 -1 +1 -1 +1 6483 85 +1 +1 +1 +1 +1 +1 +1 +1 8584 56 +1 +1 -1 -1 +1 -1 -1 -1 -1 5685 70 +1 +1 -1 +1 +1 -1 +1 +1 -1 +1 7085 54 +1 +1 -1 -1 +1 -1 -1 -1 -1 -1 -1 5485 93 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 9386 125 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 12587 115 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 -1 11588 80 +1 +1 +1 +1 +1 +1 +1 +1 -1 +1 +1 +1 -1 -1 -1 8089 110 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 -1 -1 +1 11090 74 +1 +1 +1 +1 +1 +1 +1 +1 -1 +1 +1 +1 -1 -1 -1 -1 -1 7491 105 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 -1 -1 +1 -1 +1 10592 98 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 +1 -1 -1 +1 -1 +1 -1 98

S 17 16 2 6 15 4 9 8 1 8 7 8 3 -6 -5 2 -3 2 -1 93

Para este par de variables también existen empates, los cuales hemos denotado en los dos cálculos anteriores, por lo tanto los valores de TY y TZ ya vienen dados y son:

Quedando el valor de TYZ como:

Ahora, una vez teniendo todos los valores pedidos, calculamos TXY.Z, el cual queda como:

De lo cual se puede decir que, dado la condición de la estimulación del niño en el hogar, la relación entre la escolaridad de la madre y el desarrollo mental de sus hijos es fuerte y es directa, lo que quiere decir que a mayor escolaridad de la madre, mayor desarrollo mental del hijo. Ahora bien, se puede decir que la relación entre la escolaridad de la madre y el desarrollo mental del niño (sin condicionar) es más fuerte que condicionando a la estimulación

16

del hogar y de carácter directo (mayor escolaridad de la madre, mayor desarrollo mental del niño), y que la relación entre la el desarrollo mental del niño con la estimulación en el hogar es de magnitud media y directa.

Para este caso, N=20, por lo tanto se debe utilizar la tabla del Anexo 2.

H0: TXY.Z=0 vs H1: TXY.Z≠0α=0.05

Nuestro valor T crítico proporcionado por la tabla del Anexo 2, con una significancia de 2.5%, es 0.318, el cual, contrastándolo con nuestro valor observado, 0.6111, resulta más pequeño, por lo tanto existe evidencia suficiente para rechazar la hipótesis de que las variables X e Y no están correlacionadas en presencia de una variable fija Z.

17

Conclusión.Determinar el grado de correlato entre dos o más series de puntuaciones, es una

situación que la estadística no paramétrica ha sabido plantear y resolver de manera adecuada, amoldándose a las diversas situaciones que puede enfrentar un experimentador frente a las diversas escalas de medición, sin variar su interpretación respecto a la popular r de Pearson del caso paramétrico. Además, presentan la ventaja de poder determinar un grado de significancia ante una medida de asociación observada y un menor número de supuestos para el cálculo de ésta, destacando la no suposición de continuidad en los datos observados, en ciertos casos, y una nula distribución de probabilidad en ellos.

Para la asociación de variables en escalas nominales destacan el coeficiente C de Cramer y el coeficiente Phi, en el caso en que las variables medidas tengan a lo menos una escala ordinal, el coeficiente T de Kendall para rangos ordenados es el adecuado en esta situación, destacando el caso de la medida de asociación entre dos variables cuando una tercera permanece constante (caso de la correlación TXY.Z de Kendall para rangos ordenados).

Bibliografía.

- “Estadística no paramétrica: aplicada a las ciencias de la conducta”, Sidney Siegel y N. John Castellán, cuarta edición, editorial Trillas, México, 1995.

- “Estadística matemática con aplicaciones”, Dennis D. Wackerly, William Mendenhall III y Richard L. Scheaffer, sexta edición, editorial Thomson, 2002.

18

Anexo 1. Tabla T de Kendall.N T p-valor N T p-valor4 0.000 0.625 9 0.000 0.540

0.333 0.375 0.056 0.4600.667 0.167 0.111 0.3811.000 0.042 0.167 0.306

5 0.000 0.592 0.222 0.2380.200 0.408 0.278 0.1790.400 0.242 0.333 0.1300.600 0.117 0.389 0.0900.800 0.042 0.444 0.0601.000 0.008 0.500 0.038

6 0.067 0.500 0.556 0.0220.200 0.360 0.611 0.0120.333 0.235 0.667 0.0060.467 0.136 0.722 0.0030.600 0.068 0.778 0.0010.733 0.028 0.833 0.0000.867 0.008 0.944 0.0001.000 0.001 1.000 0.000

7 0.048 0.500 10 0.022 0.5000.143 0.386 0.067 0.4310.238 0.281 0.111 0.3640.333 0.191 0.156 0.3000.429 0.119 0.200 0.2420.524 0.068 0.244 0.1900.619 0.035 0.289 0.1460.714 0.015 0.333 0.1080.81 0.005 0.378 0.0780.905 0.001 0.422 0.0541.000 0.000 0.467 0.036

8 0.000 0.548 0.511 0.0230.071 0.452 0.556 0.0140.143 0.360 0.600 0.0080.214 0.274 0.644 0.0050.286 0.199 0.689 0.0020.357 0.138 0.733 0.0010.429 0.089 0.778 0.0000.500 0.054 0.822 0.0000.571 0.031 0.867 0.0000.643 0.016 0.911 0.0000.714 0.007 0.956 0.0000.786 0.003 1.000 0.0000.857 0.0010.929 0.0001.000 0.000

19

Anexo 2. Tabla T de Kendall por correlaciones parciales.α

N 0.25 0.20 0.10 0.05 0.025 0.01 0.005 0.0013 0.500 1.000 0.000 0.000 0.000 0.000 0.000 0.0004 0.447 0.500 0.707 0.707 1.000 0.000 0.000 0.0005 0.333 0.408 0.534 0.667 0.802 0.816 1.000 0.0006 0.277 0.327 0.472 0.600 0.667 0.764 0.866 1.0007 0.233 0.282 0.421 0.527 0.617 0.712 0.761 0.9018 0.206 0.254 0.382 0.484 0.565 0.648 0.713 0.8079 0.187 0.230 0.347 0.443 0.515 0.602 0.660 0.757

10 0.170 0.215 0.325 0.413 0.480 0.562 0.614 0.71811 0.162 0.202 0.305 0.387 0.453 0.530 0.581 0.67712 0.153 0.190 0.288 0.465 0.430 0.505 0.548 0.64313 0.145 0.180 0.273 0.347 0.410 0.481 0.527 0.61614 0.137 0.172 0.260 0.331 0.391 0.458 0.503 0.59015 0.133 0.166 0.251 0.319 0.377 0.442 0.485 0.57016 0.125 0.157 0.240 0.305 0.316 0.423 0.466 0.54917 0.121 0.151 0.231 0.294 0.348 0.410 0.450 0.53218 0.117 0.147 0.222 0.284 0.336 0.395 0.434 0.51419 0.114 0.141 0.215 0.275 0.326 0.382 0.421 0.49820 0.111 0.139 0.210 0.268 0.318 0.374 0.412 0.488

20