26
CAPÍTULO 3: PROBABILIDAD Y CURVA NORMAL La curva normal es uno de los temas fundamentales de la estadística que utiliza la información provista por la estadística descriptiva y permite el paso a la estadística inferencial en el sentido de proveer una herramienta para obtener conclusiones respecto de la población. La comprensión de este tema exige un conocimiento mínimo de la teoría de la probabilidad. 3.1 EL CONCEPTO DE PROBABILIDAD Se entiende por probabilidad el grado de posibilidad de ocurrencia de un determinado acontecimiento. Dicha probabilidad puede calcularse en forma teórica o empírica, a partir de las llamadas probabilidad clásica y frecuencial, respectivamente. El concepto de probabilidad ha demostrado ser de importante utilidad en ciertos enfoques sistémicos, especialmente en los ámbitos de la termodinámica y la teoría de la información. 1. Concepto de probabilidad.- Entendida como medida de la posibilidad de la ocurrencia de un determinado acontecimiento, la probabilidad abarca un espectro que se extiende desde la certeza (el acontecimiento ocurrirá con total seguridad), hasta la imposibilidad (es imposible que el acontecimiento ocurra), pasando por todos los grados intermedios (es muy probable que ocurra, es medianamente probable, es poco probable, etc). Por ejemplo, el suceso 'obtener un número entre 1 y 6 tirando un dado' equivale a la certeza; el suceso 'obtener un 7 arrojando un dado' equivale a la imposibilidad; y el suceso 'obtener un 2 arrojando un dado' equivale a uno de los grados intermedios de probabilidad. Es habitual representar el grado de probabilidad mediante un número que puede variar entre 1 (certeza) y 0 (imposibilidad). La probabilidad puede entonces valer 1, 0, 0.50, 0.80, etc. Por ejemplo, una probabilidad de 0.1 es muy baja, y una probabilidad de 0.98 muy alta. Una probabilidad intermedia es 0.50 o también, si la expresamos en términos de porcentajes corriendo la coma dos lugares hacia la derecha, obtenemos una probabilidad del 50 por ciento. Tal el caso de obtener una cara arrojando una moneda. Los aspectos más importantes del concepto de probabilidad han sido sintetizados en los llamados axiomas de probabilidad: 1

CURVA NORMAL

Embed Size (px)

Citation preview

Page 1: CURVA NORMAL

CAPÍTULO 3: PROBABILIDAD Y CURVA NORMAL

 La curva normal es uno de los temas fundamentales de la estadística que utiliza la información provista por la estadística descriptiva y permite el paso a la estadística inferencial en el sentido de proveer una herramienta para obtener conclusiones respecto de la población. La comprensión de este tema exige un conocimiento mínimo de la teoría de la probabilidad.

 3.1 EL CONCEPTO DE PROBABILIDAD

 Se entiende por probabilidad el grado de posibilidad de ocurrencia de un determinado acontecimiento. Dicha probabilidad puede calcularse en forma teórica o empírica, a partir de las llamadas probabilidad clásica y frecuencial, respectivamente. El concepto de probabilidad ha demostrado ser de importante utilidad en ciertos enfoques sistémicos, especialmente en los ámbitos de la termodinámica y la teoría de la información.

 1. Concepto de probabilidad.- Entendida como medida de la posibilidad de la ocurrencia de un determinado acontecimiento, la probabilidad abarca un espectro que se extiende desde la certeza (el acontecimiento ocurrirá con total seguridad), hasta la imposibilidad (es imposible que el acontecimiento ocurra), pasando por todos los grados intermedios (es muy probable que ocurra, es medianamente probable, es poco probable, etc).

Por ejemplo, el suceso 'obtener un número entre 1 y 6 tirando un dado' equivale a la certeza; el suceso 'obtener un 7 arrojando un dado' equivale a la imposibilidad; y el suceso 'obtener un 2 arrojando un dado' equivale a uno de los grados intermedios de probabilidad.

Es habitual representar el grado de probabilidad mediante un número que puede variar entre 1 (certeza) y 0 (imposibilidad). La probabilidad puede entonces valer 1, 0, 0.50, 0.80, etc. Por ejemplo, una probabilidad de 0.1 es muy baja, y una probabilidad de 0.98 muy alta. Una probabilidad intermedia es 0.50 o también, si la expresamos en términos de porcentajes corriendo la coma dos lugares hacia la derecha, obtenemos una probabilidad del 50 por ciento. Tal el caso de obtener una cara arrojando una moneda.

Los aspectos más importantes del concepto de probabilidad han sido sintetizados en los llamados axiomas de probabilidad:

Axioma 1: Evento seguro.- La probabilidad del conjunto universal o espacio muestral es igual a 1. Por ejemplo, el espacio muestral para un dado es 1, 2, 3, 4, 5, 6.

Axioma 2: Evento imposible.- La probabilidad del conjunto vacío es igual a 0. Por ejemplo, que salga un 7 tirando un dado.

Axioma 3: Evento aleatorio.- La probabilidad de un evento es un número real mayor o igual que 0 y menor o igual que 1.

1

Page 2: CURVA NORMAL

Axioma 4: Eventos aleatorios compuestos excluyentes.- La probabilidad de un evento más la probabilidad del evento contrario es igual a 1. Por ejemplo, la probabilidad que un dado salga 1 o 2 más la probabilidad que un dado salga 3, 4, 5 o 6 es igual a 1. En símbolos: p + q = 1.

 2. Probabilidad clásica y probabilidad frecuencial.- Si bien existen diferentes teorías y enfoques acerca de la probabilidad, explicaremos a continuación los dos planteos más habituales, siguiendo un ordenamiento histórico e incluso sistemático: el clásico y el frecuencial. En última instancia, se trata de dos modos diferentes de calcular la probabilidad de la ocurrencia de un fenómeno.

a) Probabilidad clásica (Laplace).- Suele también denominarse probabilidad teórica o a priori, y se define como el cociente entre el número de casos favorables y el número de casos equiprobables posibles. Aclaremos esta aparentemente engorrosa definición.

b) Sabemos que un dado tiene seis caras, numeradas del uno al seis. La probabilidad de obtener la cara tres, por ejemplo, es de un sexto, es decir de un caso favorable (porque hay una sola cara con el tres) sobre seis casos equiprobables y posibles (caras 1-2-3-4-5-6). Aplicando la definición de probabilidad, es:

             Casos favorables                      1

p=        ----------------------------------------------------- = 0.1666

            Casos equiprobables posibles  6

 Para poder calcular esta probabilidad necesitamos, obviamente, conocer todos los casos posibles (requisito de exhaustividad), pero además debemos saber que todos esos casos posibles tienen la misma probabilidad de salir (requisito de equiprobabilidad), vale decir, debemos tener la suficiente seguridad de que ninguna cara tendrá mayor o menor probabilidad de salir que otra cara cualquiera, como puede ocurrir, por ejemplo, con los dados 'cargados'.

Una aclaración respecto de la expresión 'casos favorables'. Debemos evitar aquí la connotación subjetiva del término. Un caso favorable es simplemente un caso del cual queremos conocer la probabilidad de su ocurrencia. Puede incluso tratarse de un terremoto o una enfermedad, aunque estos eventos no sean 'favorables' desde otro punto de vista más subjetivo.

Respecto de la expresión 'casos equiprobables posibles', esta alude al hecho antes indicado de que para calcular una probabilidad en sentido clásico, deben cumplirse los dos requisitos de exhaustividad y equiprobabilidad.

Puede suceder, en efecto, que alguno de estos requisitos no se cumpla. 1) Exhaustividad: Este requisito puede no cumplirse en dos casos. Primero, puede ocurrir que al arrojar un dado, este quede parado en equilibrio sobre

2

Page 3: CURVA NORMAL

alguno de sus vértices o aristas. Como posibilidad existe, pero es remotísima. Debido a que esta posibilidad es muy baja, a los efectos prácticos la consideramos nula y seguimos aplicando la definición clásica de probabilidad, como si todos los casos posibles fueran, como en el caso del dado, solamente seis. Segundo, puede ocurrir que no sepamos cuántas caras tiene el dado (en la situación anterior sí sabíamos esta cantidad, descartando las alternativas remotas), aún cuando sepamos que todas tienen la misma probabilidad de salir. En este caso, al desconocer el número de casos posibles, la definición clásica de probabilidad resulta inaplicable, quedándonos la opción de aplicar la probabilidad frecuencial. 2) Equiprobabilidad: Este requisito puede no cumplirse cuando el dado está 'cargado' lo que hace que, por ejemplo, el tres tenga mayores probabilidades de salir que el cuatro. En este caso, podemos calcular la probabilidad mediante la probabilidad frecuencial.

En síntesis hasta aquí: cuando ninguno de estos requisitos, o ambos, no pueden cumplirse, nos queda aún la opción de calcular la probabilidad en forma empírica, lo que nos lleva al tema de la llamada probabilidad frecuencial.

b) Probabilidad frecuencial.- Suele también denominarse probabilidad empírica o a posteriori, y es definible como el cociente entre el números de casos favorables y el número de casos observados. En un ejemplo, supongamos que no conocemos cuántas caras tiene un dado (es decir desconocemos la cantidad de casos posibles), y queremos averiguar qué probabilidad tiene de salir el uno. Obviamente no podemos decir 'un sexto' o 'uno sobre seis' porque no sabemos cuántas caras tiene el dado. Para hacer este cálculo decidimos hacer un experimento, y arrojamos un dado común de seis caras (aunque nosotros ignoramos este detalle) por ejemplo diez veces, constatando que el uno salió cinco veces, cosa perfectamente posible. Concluímos entonces que la probabilidad de obtener un uno es de cinco sobre diez, es decir, de 0.5. Si tomamos al pie de la letra este valor, podríamos concluír que el dado tiene... ¡2 caras!, cada una con la misma probabilidad de 0.5. Aplicando la definición de probabilidad frecuencial, resulta:

 Casos favorables      5

p=        -------------------------------- = 0.5

            Casos observados  10

 Otro ejemplo: supongamos que conocemos perfectamente que el dado tiene seis caras, pero no sabemos si las probabilidades de salir son iguales o no para todas ellas, ya que sospechamos que el dado puede estar 'cargado'. Para determinar la probabilidad de salir del número uno hacemos el mismo experimento, dándonos un valor de 0.7. Este valor, si lo tomamos al pie de la letra, nos haría pensar que el dado está preparado para que tenga tendencia a salir el número uno, ya que su probabilidad de ocurrencia es bastante alta.

La probabilidad frecuencial se llama también 'a posteriori' debido a que 'sólo después' de hacer nuestra observación o nuestro experimento podemos saber el valor de la probabilidad, y no 'antes', como en el caso de la

3

Page 4: CURVA NORMAL

probabilidad clásica, donde 'antes' de arrojar el dado ya sabemos que la probabilidad de cada cara es de 0.1666.

La denominación 'frecuencial' alude al hecho de el cálculo de probabilidades se realiza en base a la frecuencia con que sale una determinada cara o posibilidad, frecuencia que es relativa porque la comparamos con la cantidad de casos observados. Por ejemplo, en nuestro último ejemplo la frecuencia absoluta es 7, porque de 10 veces que arrojamos el dado, 7 veces salió el número deseado. En cambio la frecuencia relativa es 0.7, y resulta de dividir la frecuencia absoluta por el número de casos observados.

Las probabilidades clásica y frecuencial se llaman también probabilidades lógica e inductiva, respectivamente. a) Probabilidad lógica: si yo tengo un dado perfectamente balanceado (o sea que las seis caras tienen la misma probabilidad de salir), no necesitaré arrojarlo para saber qué probabilidad tiene de salir el número 3. Como ya sé que tiene seis caras equiprobables, su probabilidad será de uno sobre seis (p=1/6). b) Probabilidad inductiva: puede ocurrir, sin embargo, que el dado no esté balanceado, o que yo no sepa si el número 3 figura en dos caras y el 5 en ninguna, etc., y sólo sé que tiene 6 caras. A priori, o sea antes de arrojar los dados, en estos casos no puedo saber qué probabilidad tiene el 3 de salir, debido a mi desconocimiento del dado. No obstante tengo un medio de saberlo: arrojo el dado una gran cantidad de veces (cuantas más veces mejor) y voy anotando los números que aparecieron. Si constato que el 3 salió en un 50% de los casos, entonces puedo concluir que la probabilidad será de tres sobre seis (p=3/6=1/2). Este dato no me aclara definitivamente si el dado estaba desbalanceado o si en realidad en tres de sus caras estaba el número 3; sólo me sugiere la probabilidad de aparición del número en cuestión.

En suma: en la probabilidad lógica y debido a que conozco el dado, puedo calcular qué probabilidad tiene de salir determinado número sin necesidad de hacer ninguna prueba. Es una probabilidad deductiva, puesto que deduzco de los datos conocidos la probabilidad de cada alternativa. En cambio en la probabilidad inductiva no conozco la naturaleza del dado, y entonces sólo puedo concluir la probabilidad de aparición de un cierto número siguiendo un razonamiento inductivo, vale decir, a partir de los casos observados que fui anotando.Las mismas consideraciones que hicimos con las caras de un dado también podemos hacerlas con los naipes de un mazo y con los individuos de una población. En estadística, puesto que generalmente desconocemos la naturaleza de la población, el tipo de probabilidad empleado es el inductivo.

 

c) La ley de los grandes números.- También llamada principio de la estabilidad de la frecuencia relativa, nos permite unificar conceptualmente los dos tipos de probabilidad recién examinados, y puede expresarse de la siguiente manera: a medida que aumenta la cantidad de ensayos, el valor de la probabilidad empírica obtenido se va aproximando cada vez más al valor de la probabilidad teórica.

 

4

Page 5: CURVA NORMAL

Ley de los Grandes Números

 

Cantidad de ensayos arrojando una moneda

Probabilidad teórica de salir cara

Probabilidad empírica obtenida para cara

Una vez 0.5 02 veces 0.5 0.53 veces 0.5 0.33334 veces 0.5 0.2510 veces 0.5 0.3100 veces 0.5 0.41000 veces 0.5 0.451000000 veces 0.5 0.4999999999999

 Siguiendo el esquema adjunto, si arrojamos una moneda por primera vez (primer ensayo), la probabilidad teórica de salir cara es de 0.5, cosa que sabemos más allá de hacer o no esa experiencia. Sin embargo, puede ocurrir que salga ceca, y entonces concluímos que la probabilidad empírica es 0, pues no salió ninguna cara.

Al arrojar la moneda por segunda vez, la probabilidad teórica sigue siendo 0.5, ya que el dado no tiene 'memoria': por más que haya salido cien veces cara, la 101° vez sigue teniendo la misma probabilidad de salir cara. La probabilidad empírica, en cambio, nos da por ejemplo también 0.5, porque la primera vez no salió cara pero la segunda sí, con lo cual habrá salido cara la mitad de las veces, o sea hay una probabilidad de 0.5. Al tercer tiro vuelve a aparecer ceca, con lo cual sobre tres tiros habrá salido sólo una cara (la segunda vez), y entonces la probabilidad empírica es de un tercio (0.333).

Lo que dice la ley de los grandes números es que, si seguimos aumentando la cantidad de tiros, el valor de la probabilidad empírica se irá aproximando cada vez más a la probabilidad teórica de 0.5, es decir, se verifica una tendencia de la frecuencia relativa a estabilizarse en dicho resultado, y por ello esta ley se llama también principio de la estabilidad de la frecuencia relativa.

 La probabilidad (p) varía entre 0 y 1 

Imposible Grados intermedios de probabilidad Seguro0 0.25 0.50 0.75 10 1/4 1/2 3/4 1

Probabilidad de extraer un as de espadas de un mazo de

Probabilidad de extraer un naipe de copas de un mazo de

Probabilidad de obtener cara arrojando una moneda

Probabilidad de extraer una bolilla roja de una caja donde

Probabilidad de extraer una bolilla roja de un bolillero de

5

Page 6: CURVA NORMAL

cartas francesas

cartas españolas

hay 3 rojas y una blanca

bolillas rojas

 3. Algunas aplicaciones del concepto de probabilidad.- La teoría de las probabilidades, importante rama de la matemática, ha permitido encarar la investigación de sistemas, tanto cerrados como abiertos, bajo este relativamente nuevo enfoque. Ejemplos particularmente representativos aparecen en la termodinámica y en la teoría de la información.

a) Probabilidad en termodinámica.- La evolución de los sistemas cerrados o abiertos puede medirse según varios parámetros, como por ejemplo el grado de entropía o desorden, pero también según el grado de probabilidad que pueden alcanzar cuando evolucionan hacia estados de equilibrio (como en el sistema cerrado) o hacia estados uniformes (como en el sistema abierto). Así, se dice que la tendencia general de los procesos físicos entendidos como sistemas cerrados apunta a la entropía creciente o estados de creciente probabilidad, mientras que los sistemas abiertos, como por ejemplo los sistemas vivos, consiguen mantenerse en un estado de mínima entropía, es decir, en un estado de alta improbabilidad estadística.

b) Probabilidad en Teoría de la Información.- En la Teoría de la Información se emplea tanto la probabilidad clásica como la probabilidad frecuencial. Es posible ilustrar esta cuestión con el siguiente ejemplo (Lichtenthal, 1970): Un forastero llega a un pueblo y pregunta: "¿Lloverá esta tarde?", a lo cual un vecino contesta "sí". Esta respuesta ¿provee mucha información o poca información? Todo depende de quien la reciba.

a) Si la respuesta la recibe el mismo forastero, el "Sí" implica bastante información, porque desconoce el clima del pueblo. El "Sí" encierra para él tanta información como el "No", porque, al no conocer el clima habitual de la zona, para él ambas respuestas son igualmente probables (equiprobabilidad), y por consiguiente evalúa la probabilidad de que llueva o no en base a una probabilidad teórica o a priori.

b) Si la respuesta la escucha otro vecino, el "Sí" tiene un valor informativo prácticamente nulo porque todos en el pueblo saben que casi siempre llueve por las tardes. No es ninguna novedad el "Sí", es decir encierra poquísima información. En cambio si nuestro vecino hubiese escuchado "No" se sorprendería mucho, y la cantidad de información es mucha. El "Sí" y el "No" no son igualmente probables, cosa que el vecino descubrió por experiencia, por haber vivido un tiempo en el pueblo (la probabilidad es, en este caso, frecuencial, y las posibles alternativas no son equiprobables).

Los ejemplos vienen a destacar una idea muy importante que vincula información con probabilidad, y que es la siguiente: el contenido informativo de un mensaje está íntimamente ligado a su improbabilidad o 'valor sorpresa'. Por ejemplo, cuando más nos 'sorprende' la respuesta, o cuando más 'improbable' o 'inesperada' la juzgamos, más información encierra. De aquí una importante definición de información, como aquello que hace disminuir la incertidumbre del receptor. Si al vecino le dicen que "sí lloverá en este pueblo esta tarde" esto no es sorpresa para él, no reduce su incertidumbre y, por consiguiente, apenas si contiene información. 

6

Page 7: CURVA NORMAL

4. Vocabulario.- La teoría de la probabilidad utiliza cierta terminología técnica. Algunos de los principales términos son los siguientes:

Espacio muestral: es el conjunto S de todos los resultados posibles de un experimento dado. Por ejemplo, los resultados posibles del experimento de arrojar un dado son 1, 2, 3, 4, 5 y 6.

Muestra: es un resultado particular, o sea, un elemento de S. Por ejemplo, arrojar un dado y obtener 4.

Espacio finito de probabilidad: se obtiene al asignar a cada muestra de un espacio muestral finito una determinada probabilidad de ocurrencia en forma de número real. La probabilidad de un evento es igual a la suma de las probabilidades de sus muestras. Si en un espacio finito de probabilidad cada muestra tiene la misma probabilidad de ocurrir, se llamará espacio equiprobable o uniforme. Existen también espacios muestrales infinitos.

Evento: Un evento A es un conjunto de resultados, o sea, un subconjunto de S. Por ejemplo, un evento puede ser arrojar dos veces un dado obteniéndose por ejemplo un 4 y un 3. Si el evento tiene una sola muestra, se llama evento elemental.

El conjunto S o espacio muestral es de por sí un evento (en este caso se lo llama cierto o seguro, pues es seguro que arrojando un dado se obtendrá 1, 2, 3, 4, 5 o 6), mientras que también se considera evento al conjunto vacío (se lo llama imposible: no es posible que no salga ningún número).

Se pueden combinar eventos entre sí para formar nuevos eventos, por ejemplo:

A unión B es el evento que sucede si y sólo si A o B o ambos suceden.

A intersección B es el evento que sucede si y sólo si A y B suceden simultáneamente.

A complemento de A’ es el evento que sucede si y sólo si A no sucede. Dos eventos son mutuamente excluyentes cuando no pueden suceder simultáneamente.

De una manera más sencilla pueden identificarse los siguientes tipos de eventos: 

Eventos Fórmulas (a)

Ejemplo

Simple o elemental

De un mazo de cartas sacar un 3. p (A) = casos favorables / casos posibles

4/52 = 0.077

CompuestosExcluyentes o alternativos

Contrarios: sacar una carta que sea un 3 o no sea un 3.

p (A o –A) =p (A) + p (-A)

4/52 + 48/52 = 1

7

Page 8: CURVA NORMAL

No contrarios: sacar una carta que sea un 3 o un as.

p (A o B) =p (A) + p (B)

4/52 + 4/52 = 2/13

No excluyentes o conjuntos

Sacando una sola carta: sacar una carta que sea un 3 y que sea de corazón (c).

p (A y B) = p (A) . p (B)

4/52 . 13/52 = 1/52

Sacando dos o más cartas

Eventos independientes (con reposición): de un mazo sacar dos corazones reponiendo la primera (b).

p (A y B) = p (A) . p (B)

13/52 . 13/52 = 1/16

Eventos dependientes (sin reposición): de un mazo sacar 2 corazones sin reponer (a).

p (A y BsiA) =p (A) . p (BsiA)

13/52 . 12/51 = 0.059

(a) Las fórmulas para eventos excluyentes son el teorema de las probabilidades totales. La fórmula p (A y B) = p (A) . p (B) es el teorema de las probabilidades compuestas para eventos independientes. La fórmula p (A y BsiA) = p (A) . p (BsiA) es el teorema de las probabilidades compuestas para eventos dependientes (probabilidad condicional).

(b) Eventos independientes: Se dice que un evento B es independiente de un evento A si la probabilidad de que B suceda no está influenciada porque A haya o no sucedido.

(c) Combinando los teoremas de las probabilidades totales de las probabilidades compuestas para eventos independientes, se pueden hacer otros cálculos, como por ejemplo calcular la probabilidad de sacar un 3 o un corazón, pero no ambos (o sea, no un 3 de corazón), mediante la fórmula p (A o B no ambos) = p (A) + p (B) – p (A y B) = 4/52 + 13/52 – (4/52 . 13/52) = 4/13.

 3.2 ANÁLISIS COMBINATORIO

 Una de las aplicaciones de la teoría de la probabilidad es el análisis combinatorio, que estudia cuántos grupos distintos de elementos se pueden formar con un número finito de elementos. Por ejemplo: a) cuantos números de tres cifras (grupos) se pueden formar con los elementos 6, 7, 8 y 9 (un ejemplo de número podría ser 768).

Por convención, se designa con la letra m al número total de elementos (en el ejemplo son 4), y se designa con la letra n la cantidad de elementos por grupo (en el ejemplo son 3).

Los tipos de grupos más importantes que se consideran en el análisis combinatorio son las variaciones (V), las permutaciones (P) y las

8

Page 9: CURVA NORMAL

combinaciones (C), y en ningún caso se considera que los elementos se repiten dentro del grupo (como por ejemplo en 667, donde se repite el 6).

En el siguiente cuadro se presentan las definiciones de las variaciones, las permutaciones y las combinaciones, y las respectivas fórmulas para calcular la cantidad de variaciones, permutaciones y combinaciones. Para comprender las mismas, téngase presente el sencillo concepto de factorial. El número factorial de x es aquel que resulta de multiplicar x por cada uno de sus decrecientes hasta llegar al 1. Por ejemplo, el factorial de 4 (que se simboliza 4!) es igual a 24, porque 4! = 4.3.2.1. 

Variaciones Permutaciones CombinacionesDefinición: Para que los grupos sean variaciones deben diferir en al menos un elemento (por ejemplo 678-679) o en su orden de sucesión (por ejemplo 678-786).

Definición:Para que los grupos sean permutaciones deben diferir sólo en su orden de sucesión (por ejemplo 678-786).

Definición:Para que los grupos sean combinaciones deben diferir sólo en por lo menos un elemento (por ejemplo 678-679).

Fórmula:

Vm,n = m! / (m-n)!

 

 

La expresión Vm,n se lee “cantidad de variaciones de m elementos, de n elementos cada variación”.

Fórmula:

Pm = m!

 

 

La expresión Pm se lee “cantidad de permutaciones de m elementos de m elementos cada permutación”.

La permutación es el único caso donde se considera m = n, pues la permutación es un caso especial de variación.

Fórmula:

Cm,n = Vm,n / Pn

Cm,n = m! / n! (m-n)!

 

La expresión Cm,n se llama número combinatorio y se lee “cantidad de combinaciones de m elementos, de n elementos cada combinación”.

El número combinatorio es igual a 1 en dos casos: cuando m = n y cuando n = 0.

Ejemplo:

¿Cuántos grupos de 3 personas se pueden formar con 5 candidatos?

m = 3

n = 5

V5,3 = 60 grupos o

Ejemplo:

¿Cuántos números de 3 cifras pueden formarse con los dígitos 4, 5 y 6, sin repetir ninguno de ellos?

m = n = 3

P3 = 6 números o permutaciones.

Ejemplo:

¿Cuántos grupos distintos pueden formarse con los colores A, V y R tomándolos de a dos?

m = 3

n = 2

9

Page 10: CURVA NORMAL

variaciones. C3,2 = 3 grupos o combinaciones.

 La relación entre la teoría de la probabilidad y el análisis combinatorio reside en que, tomando como punto de partida las fórmulas de la cantidad de variaciones, permutaciones o combinaciones, se puede luego calcular la probabilidad de ocurrencia de uno de los grupos de elementos. Las fórmulas de variaciones, permutaciones o combinaciones indican el número de casos posibles.

Experimento binomial.- El número combinatorio puede ser utilizado en los llamados experimentos binomiales, es decir, en experimentos donde se cumplen las siguientes condiciones:

Condiciones EjemploEs una secuencia de repeticiones del mismo ensayo o experimento.

Sacar 3 bolillas de una urna.

Cada ensayo tiene solamente dos resultados posibles (éxito-fracaso).

La bolilla solamente puede salir blanca o negra.

Los ensayos son independientes es decir, no se influyen entre sí.

Antes de sacar la siguiente bolilla se introduce la anterior en la urna (con reposición).

La probabilidad de un resultado (por ejemplo éxito) es igual para todos los ensayos (equiprobabilidad).

Todas las bolillas tienen la misma probabilidad de salir blancas (por ejemplo si se considera blanca como éxito).

La variable es discreta. No hay grados intermedios entre blanco y negro.

 La fórmula para calcular la probabilidad de obtener n éxitos con m ensayos es la siguiente: 

pn = Cm,n . pn . (1 – p)m-n

 

donde:

m = número de ensayos (o n, según otra

10

Page 11: CURVA NORMAL

nomenclatura).

n = número de éxitos (o k, según otra nomenclatura).

Cm,n = número combinatorio.

pn = probabilidad de éxitos.

 

Ejemplo: ¿cuál es la probabilidad de obtener 6 caras al arrojar una moneda 10 veces?

Como m = 10 y n = 6, resulta pn = 0,2050.

 En lugar de realizar los cálculos utilizando la fórmula anterior, se puede utilizar una llamada tabla de probabilidades binomiales. 

3.3 DEFINICIÓN Y CARACTERÍSTICAS DE LA CURVA NORMAL 

Si se tomaran nueve personas al azar para medir la variable frecuencia cardíaca, podrían obtenerse, por ejemplo, los siguientes resultados: tres personas con 62, cinco personas con 70 y una persona con 84 pulsaciones por minuto. Representando visualmente esta situación mediante un polígono de frecuencias, se obtiene el gráfico 1.

Si se registrara la frecuencia cardíaca de 80 personas más, probablemente se obtendría resultados similares al polígono de frecuencias del gráfico 2. Finalmente, si se consideraran infinito número de personas, la representación visual se asemejaría al gráfico 3, denominado curva normal, curva de Gauss o campana de Gauss (por su forma acampanada).

Como puede apreciarse, ciertas variables continuas como la frecuencia cardíaca, la glucemia, la estatura, el peso, la agudeza visual, el cociente intelectual, y otras, tiende a adoptar la forma de una curva normal a medida que aumenta la cantidad de casos observados (3). Aunque esta curva es una idealización, porque no pueden medirse infinitos casos, tiene, como se verá, su utilidad, aún cuando las variables que se estudian desde este modelo no siguen estrictamente la distribución de la curva normal. Pruebas como por ejemplo el chi cuadrado permiten determinar si una distribución es lo suficientemente parecida a una distribución normal como para poder aceptar el modelo de la curva normal para estudiarla. De hecho, muchas variables tienen distribuciones lo suficientemente similares a una distribución normal como para tratarlas como tales sin cometer grandes errores.

En relación con estas cuestiones, conviene recordar aquí el teorema del límite central, que dice que cualquiera sea la población de donde se tome una muestra, la distribución de los valores de la muestra se aproximan o asemejan cada vez más a una distribución normal a medida que el tamaño

11

Page 12: CURVA NORMAL

n de la muestra aumenta. En la práctica se consideran normales a las muestras cuyo tamaño es igual o superior a 30.

 

f

x

70

5

 

3

 

1

62 70 84

La curva normal tiene entonces algunas características que son las siguientes:

a) Es la idealización de un polígono de frecuencias con tendencia central para una gran cantidad de casos. Por esta razón tiene la apariencia de una curva y no de una línea quebrada, ya que el polígono de frecuencias tiene infinito número de lados.

b) Tiene forma de campana: no tiene otras formas similares como puede ser la forma de herradura o la forma de una campana invertida.

c) Es simétrica respecto de un eje vertical, lo que las diferencia de otras curvas como por ejemplo la hipérbole equilátera. La simetría de la curva normal implica que la media aritmética, la mediana y el modo coinciden en el punto central. Consecuentemente, la curva normal es unimodal (en cambio, una campana invertida podría ser bimodal). También implica que la distancia del cuartil 1 al cuartil 2 es igual a la distancia entre el cuartil 2 y el cuartil 3.

d) Es asintótica respecto del eje x. Esto significa que la curva y el eje de las absisas se cortan en el infinito, lo cual implica que cualquier valor de x tiene potencialmente alguna frecuencia, y ninguna frecuencia igual a 0.

e) La curva normal puede adoptar diferentes formas: mesocúrtica, platicúrtica o leptocúrtica.

f) Los puntos de inflexión (donde la curva cambia de cóncava a convexa y viceversa) se encuentran en los puntos correspondientes a la media aritmética más/menos un desvío estándar.

12

Page 13: CURVA NORMAL

g) Hay muchas posibilidades de curvas normales, dependiendo de cuáles sean los valores de las medias aritméticas y los desvíos estándar. La más importante es aquella que tiene como media aritmética 0 (cero) y como desvío estándar 1 (la unidad). En este caso, la curva normal se designa como distribución o curva normal estándar o estandarizada.

h) Está comprobado que en una curva normal, y siempre idealmente, alrededor de un 68% de los casos posibles están comprendidos entre menos un desvío estándar y más un desvío estándar alrededor de un 95% están comprendidos entre menos 2 y más dos desvíos estándar y alrededor de un 99% están comprendidos entre menos tres y más tres desvíos estándar según lo ilustra el siguiente esquema:

 Esto significa por ejemplo que una persona tiene una probabilidad del 68% de tener una frecuencia cardíaca comprendida entre menos un desvío estándar y más un desvío estándar. Si la media aritmética de esta distribución fuera 80 pulsaciones por minuto y el desvío estándar fuera de 10 pulsaciones por minuto, entonces la frecuencia cardíaca de una persona cualquiera tendría un 68% de probabilidades de valer entre 70 y 90 pulsaciones por minuto.

Siguiendo el mismo criterio, también puede calcularse la probabilidad de aparición de un valor comprendido entre menos tres desvíos estándar y la media aritmética (99% dividido 2), la probabilidad de aparición de un valor comprendido entre menos dos desvíos estándar y la media aritmética (95% dividido 2), la probabilidad de aparición de un valor comprendido entre menos un desvío estándar y más dos desvíos estándar (68% dividido 2, más 95% dividido 2), y la probabilidad de obtener cualquier otro valor intermedio (como el comprendido entre -1.27 desvíos y +2.56 desvíos), para lo cual se habrá de consultar una tabla especialmente confeccionada para tal efecto.

 3.4 PUNTAJES BRUTOS Y PUNTAJES ESTANDARIZADOS

 Antes de hacer referencia a las utilidades prácticas de la curva normal, convendrá aclarar algunos conceptos tales como los de puntaje bruto y puntaje estandarizado.

 Para designar los diferentes valores que asume una variable para una determinada unidad de análisis, en estadística descriptiva suele emplearse la expresión ‘dato’. Por ejemplo, un dato puede ser “Juan mide 1.70 metros”. Muchos datos, sin embargo, se distribuyen de acuerdo a una curva normal, y esta clase de datos suelen ser típicamente puntuaciones o puntajes de tests o pruebas de evaluación. Por ejemplo, “Juan obtuvo 90 puntos en el test de inteligencia de Weschler”, o “Pedro obtuvo 7 puntos en el examen de geografía”. Esta es la razón por la cual, en lo que sigue se utilizará la expresión puntaje en lugar de ‘dato’, pero debe tenerse presente que todo puntaje es, siempre, un dato.

 Se llama puntaje bruto, directo u original al puntaje obtenido por un sujeto en una prueba. Por ejemplo, podría resultar de la suma de respuestas correctas, valiendo cada una de ellas un punto (Kohan, 1994:138).

13

Page 14: CURVA NORMAL

Los puntajes brutos presentan sin embargo algunos inconvenientes. Por ejemplo: a) Si una persona obtuvo 4 puntos en una prueba académica, podemos suponer que obtuvo un bajo puntaje porque lo comparamos con el puntaje máximo, que es 10. Sin embargo, no nos sirve para comparar a esa persona con el resto de la población, ya que si los demás alumnos obtuvieron en promedio 2 puntos, la calificación 4 será, entonces, alta. b) Si una persona obtuvo 8 puntos en geografía y 5 puntos en matemáticas, podemos suponer que obtuvo más puntaje en geografía. Sin embargo, esta suposición es errónea si resulta ser que el puntaje máximo en geografía es 20 y el puntaje máximo en matemáticas es 6, en cuyo caso habrá obtenido mayor puntaje en matemáticas.

Estas y otras dificultades pueden resolverse transformando los puntajes brutos en otros llamados puntajes estandarizados (o también puntajes transformados, porque resultan de haber transformado los puntajes brutos). Estos puntajes estandarizados permitirán, por ejemplo, comparar el puntaje de un sujeto con toda la población, o bien comparar dos puntajes de pruebas con diferentes sistemas de evaluación (1).

Los puntajes estandarizados pueden ser lineales o no lineales, según que resulten de transformaciones lineales o no lineales (Kohan, 1994:138). En el primer caso existe una proporcionalidad entre los puntajes brutos y sus correspondientes puntajes estandarizados, ya que la transformación opera según una ecuación lineal o ecuación de primer grado y, por tanto, no ‘deforma’ la distribución de los puntajes brutos.

En lo que sigue se describen sucintamente tres ejemplos de puntajes estandarizados de uso frecuente: los puntajes estandarizados z (puntaje reducido), Z (puntaje derivado) y P (puntaje percentil).

El puntaje reducido z es “un dato transformado que designa a cuántas unidades de desvíos estándar por arriba o por debajo de la media se encuentra un dato en bruto” (Pagano, 1998:84). Para transformar un dato en bruto x en un puntaje z se utiliza la fórmula: z = (x - X) / s.

Pueden destacarse tres características de los puntajes z (Pagano, 1998:86-87): a) tienen la misma forma que el conjunto de datos en bruto; b) la media de los puntajes z es siempre igual a cero; y c) el desvío estándar de los puntajes z es siempre igual a 1.

El puntaje derivado Z (también llamado a veces puntaje derivado T) tiene la ventaja sobre el puntaje reducido z que no tiene valores negativos y que pueden despreciarse los decimales por ser una cantidad pequeña (Kohan, 1994:141). Para transformar un puntaje reducido z en un puntaje derivado Z se utiliza la fórmula: Z = (z.10) + 50, ya que este puntaje derivado considera la media aritmética como 50 y el desvío estándar como 10.

Existen otras modalidades de puntajes derivados (Botella: 1993:161). Uno muy conocido en psicología es el llamado cociente intelectual o CI, que considera como media aritmética a 100 y como desvío estándar a 15.

El puntaje percentil P es un puntaje no lineal y es también de uso frecuente por su facilidad de comprensión, aunque tenga el inconveniente

14

Page 15: CURVA NORMAL

de que su distribución toma una forma que no responde a la realidad de las funciones psicológicas. Para transformar un puntaje z en un puntaje percentil hay que recurrir a una tabla especial, que se describe más adelante.

Como se puede apreciar en el esquema siguiente, el puntaje percentil P no es proporcional al resto de los puntajes, pero si lo es respecto de las áreas cubiertas bajo la curva normal, áreas que a su vez indican la probabilidad de ocurrencia de un puntaje cualquiera. En efecto, puede verse que los puntajes percentiles P están concentrados en aquellos lugares donde el área bajo la curva es mayor y, además, cuanto mayor es esta área mayor será el percentil correspondiente.

 Las correspondencias entre los diferentes puntajes pueden visualizarse mediante el siguiente esquema (2):

 Equivalencias de puntajes brutos y estandarizados

 50% del área

probabilidad = 0.5

P0 P2 P16 P50 P84 P98 P100

0 10 20 30 40 50 60 70 80 90 100

-3s -2s -1s X +1s +2s +3s

-5 -4 -3 -2 -1 0 +1 +2 +3 +4 +5

f (frecuencia)

X = media aritmética

s = desvío estándar

x = puntaje bruto

z = puntaje reducido

Z = puntaje derivado

P = percentil

x

z

Z

15

Page 16: CURVA NORMAL

P

50% del área

probabilidad = 0.5

Así por ejemplo, puede apreciarse que un puntaje bruto correspondiente a más un desvío estándar corresponde a un puntaje reducido z de +1, a un puntaje derivado Z de 60, y a un percentil de 84.

Especialmente cuando se trata de averiguar valores intermedios (por ejemplo el puntaje bruto correspondiente a más 1.62 desvíos estándar) debe recurrirse al empleo de fórmulas y tablas. El siguiente esquema indica la forma de hacerlo: 

Reglas de transformación de puntajes (de utilidad para resolver aplicaciones prácticas de la curva normal)

 PUNTAJE BRUTO (x)

PUNTAJE REDUCIDO (z)

AREA EXPRESADA COMO PROBABILIDAD (p)

AREA EXPRESADA COMO PORCENTAJE (%)

PUNTAJE DERIVADO (Z)

PERCENTIL (P)

m = un número cualquiera entre 0 y 100

z = (x - X) / s

Z = (z.10) + 50

Tabla: entrar por z

Tabla: entrar por p

Multiplicar por 100

Dividir por 100

z = (Z-50) / 10

x = (z.s) + X

m% Þ Pm

Pm Þ m%

16

Page 17: CURVA NORMAL

En este esquema, las flechas más gruesas indican los procedimientos habituales en las aplicaciones prácticas de la curva normal, mientras que aquellas y las flechas más finas indican mas bien los procedimientos que se piden en ejercitaciones en cursos de estadística.

 3.5 APLICACIONES DE LA CURVA NORMAL

 El modelo matemático de la curva normal tiene varias aplicaciones prácticas, como por ejemplo en psicología y ciencias de la educación. Pagano (1998:81) invoca tres razones principales que explican su importancia en estas disciplinas: 1) Muchas variables psicológicas tienen distribuciones muy semejantes a la curva normal, tales como altura, peso e inteligencia. 2) Muchas pruebas de inferencia empleadas para analizar experimentos tienen distribuciones muestrales que poseen una distribución muestral al aumentar el tamaño de la muestra. 3) Muchas pruebas de inferencia requieren distribuciones muestrales que se asemejen a la curva normal, como la prueba z, la prueba ‘t’ de Student o la prueba F. Consiguientemente, gran parte de la importancia de la curva normal aparece conjuntamente con la estadística inferencial.

 En lo que sigue se suministran algunos ejemplos de aplicaciones prácticas de la curva normal con puntajes estandarizados. En primer lugar se expone un problema típico y la forma de resolverlo teniendo en cuenta las reglas de transformación de puntajes (ver esquema anterior). En segundo lugar, se presentan algunas variantes posibles dentro del problema típico u otros.

 Problema típico.- La variable ‘peso’ en una población de mujeres adultas tiene una distribución aproximadamente normal, con una media aritmética (X) de 60 kg y un desvío estándar (s) de 6 kg. Calcular la probabilidad de que una mujer adulta de esa población tomada al azar tenga un peso mayor a 68 kg.

 Resolución del problema típico.- Cuando el enunciado del problema afirma que la variable tiene una distribución aproximadamente normal, ello significa que puede ser resuelto recurriendo al modelo de la curva normal. A partir de aquí, los pasos para resolverlo son los siguientes:

 a) Lo primero que debe especificarse son los datos y las incógnitas. Los datos son tres: la media aritmética (60 kg), el desvío estándar (6 kg), y finalmente un valor de la variable a partir del cual debe estimarse su probabilidad (68 kg). En símbolos:

X = 60 kg        s = 6 kg        x = 68 kg

En este caso el problema solicita resolver una sola incógnita: la probabilidad de que una persona tomada al azar tenga más de 68 kg (también podría haber solicitado averiguar la probabilidad de que tenga menos de 50 kg, o la probabilidad de que tenga entre 40 y 60 kg). En símbolos:

p Þ 68 kg > x

 

17

Page 18: CURVA NORMAL

b) Antes de seguir adelante, siempre convendrá trazar la curva normal y especificar la información revelante para resolver el problema. En este caso es: Según el esquema de reglas de transformación de puntajes, si a partir de un valor dado de x (68 kg) se quiere calcular su probabilidad p, antes deberá transformarse el valor x a un puntaje reducido z, el cual constituye una incógnita (?) que deberá resolverse.

Asimismo se raya el área bajo la curva que se extiende desde 68 hacia la derecha, porque es esa probabilidad (proporcional al área rayada) la que debe averiguarse (es decir, 68 o más).

 c) Se aplica la fórmula de transformación del puntaje x en puntaje z:

 z = (x - X) / s

z = (68 – 60) / 6 = 1.33

 d) Se recurre a la Tabla de áreas bajo la curva normal estandarizada para hallar la probabilidad p a partir de z = 1.33. Para ello, puede utilizarse indistintamente la Tabla 1 o la Tabla 2 (ver Anexo).

Se utilizará la Tabla 1, donde puede verse que a un valor z = 1.33 corresponde una probabilidad p = 0.9082. 

e) Sin embargo, esta tabla indica la probabilidad de z o menos, es decir, la zona rayada hacia la izquierda de z.

Por lo tanto, como lo que interesa es la probabilidad de un valor de z o mayor, se restará al valor p = 1 (el total del área bajo la curva) el valor p = 0.9082. En símbolos:

Area total                                           1.0000

Menos área hacia la izquierda            0.9082

Area hacia la derecha                         0.0918

Por lo tanto, la probabilidad de que una mujer adulta pese más de 68 kg es de p = 0.0918. Traduciendo la probabilidad a porcentajes, puede decirse que existe un 9.18% de probabilidades de que la mujer pese 68 kg o más. De idéntica manera, puede decirse que el percentil P que ocupa una mujer adulta de 68 kg es, siguiendo las pautas del esquema de reglas de transformación de puntajes: P91 (calculado y redondeado a partir de p = 0.9082), lo cual significa que una mujer que pese 68 kg tiene ‘por debajo’ aproximadamente un 91% de personas que pesan menos que ella.

 Algunas variantes posibles.- Los siguientes ocho casos ilustran algunos ejemplos de problemas que pueden resolverse mediante la curva normal y los puntajes estandarizados. El problema típico examinado precedentemente encuadra en el caso 4.

En todos estos casos se trata de calcular la probabilidad de ocurrencia de un valor comprendido bajo el área rayada de la curva ya que la probabilidad de

18

Page 19: CURVA NORMAL

ocurrencia del valor es proporcional al área respectiva. Como se verá, en algunos casos conviene más utilizar la Tabla 1 y en otros las Tabla 2 (ver Anexo).

Caso 1.- Aquí se trata de averiguar la probabilidad p de que un valor cualquiera de la población corresponda a z = +1.5. Para este caso convendrá utilizar la tabla 1, donde primero se busca el valor +1.5 en la primera columna, y luego se busca su valor de probabilidad, que es p = 0.9332. Nota: si el valor de z hubiese sido +1.56, se busca primero z = 1.5 y luego se busca, en la primera hilera, el valor 0.06 (ya que 1.5 + 0.06 = 1.56). En el entrecruzamiento de 1.5 y 0.06 encontraremos, finalmente, el valor de la probabilidad p = 0.9406.

 Caso 2.- En este caso se procede de manera similar que en el caso anterior. 

Caso 3.- Aquí se trata de averiguar la probabilidad de que un valor z valga -2 o más. Esta situación exige dos pasos. El primer paso es idéntico al caso 1. Sin embargo, este primer paso calcula la probabilidad de z hacia la izquierda, y lo que se necesita saber es la probabilidad de z hacia la derecha (zona rayada). Como se sabe que la totalidad del área bajo la curva vale 1, para averiguar la zona hacia la derecha bastará con restar 1 de la probabilidad de la zona hacia la izquierda. En esto consiste el segundo y último paso.

 Caso 4.- Aquí debe averiguarse la probabilidad de que un valor z valga 1.5 o más. La opción más sencilla es aquí emplear la Tabla1, con la cual se calcula la probabilidad correspondiente a z = +1.5, que es p = 0.9332. Esta probabilidad corresponde a la zona rayada desde z hacia la izquierda, pero como debe averiguarse la probabilidad de z hacia la derecha, deberá restarse 1 menos 0.9332.

 Caso 5.- Aquí debe averiguarse la probabilidad de que un valor z esté comprendido entre -2.5 y +1.5. Una forma sencilla de resolver este problema es dividiendo el área rayada en dos: una desde la mitad hacia la izquierda (0 a -2.5) y otra desde la mitad hacia la derecha (0 a +1.5). Se calcula luego la probabilidad de cada área recurriendo a la Tabla 2, y finalmente se suman ambas probabilidades. Nota: para el cálculo de la zona rayada de la mitad hacia la izquierda se buscará en la Tabla 2 el valor z = +2.5, porque es igual al valor z = -2.5 (por ser la curva normal simétrica).

 Caso 6.- Este caso es tan sencillo que no requiere el uso de tablas. La probabilidad de la zona rayada es p = 0.5 porque corresponde exactamente a la mitad de toda el área bajo la curva, cuya p es igual a 1 (p = 1 equivale a la certeza).

 Caso 7.- Aquí debe calcularse la probabilidad de que un valor z esté comprendido entre -2 y -1. En este caso, en lugar de sumar áreas como en el caso 5, deberán restarse áreas. Recurriendo a la Tabla 1, se calcula primero la probabilidad correspondiente a z = -1 (que es p = 0.1587) y luego la probabilidad de z = -2 (que es p = 0.0228). La probabilidad resultante será p = 0.1587 – 0.0228 = 0.1359.

19

Page 20: CURVA NORMAL

 Caso 8.- Aquí debe calcularse la probabilidad de que un valor z esté comprendido entre +1 y +2. Se puede proceder de la misma forma que en el caso 7, es decir, restando las probabilidades correspondientes a z = +2 y z = +1.

 NOTAS

 (1) Botella (1993:153) refiere que los puntajes estandarizados son útiles en los siguientes casos: a) al hacer comparaciones entre unidades de distintos grupos: se pueden comparar, mediante puntuaciones estandarizadas, distintas observaciones de un mismo sujeto o de sujetos diferentes; b) al hacer comparaciones entre variables medidas de distinta forma, debido a que los puntajes estandarizados son adimensionales. Por ejemplo, comparar una altura expresada en centímetros con otra expresada en metros; y c) al comparar observaciones de distintas variables: por ejemplo, comparar la altura y el peso de un sujeto.

(2) En el esquema puede apreciarse que z contempla valores que se extienden a -5 o +5.desvíos estándar. En la práctica, sin embargo, se consideran solamente valores entre -3 y +3 por razones prácticas. En efecto, los valores superiores a +3 o menores a -3 cubren áreas muy pequeñas bajo la curva, es decir, la probabilidad de ocurrencia de puntajes mayores que +3 o menores que -3 son muy improbables, estando muy alejados de la media aritmética.

(3) Hay muchas formas en que los datos pueden distribuirse, y en todos esos casos existe cierta regularidad en los mismos. Por ejemplo, hay una tendencia a que la mitad de las veces salga cara arrojando una moneda, y también hay una tendencia a que la mitad de las veces se opte por un producto A y no uno B (suponiendo que lo hay ninguna razón para elegir uno u otro). Estos hechos sugieren que los datos de una manera regular, y los estadísticos propusieron diversos modelos de distribución, uno para cada forma regular de distribución de datos, como por ejemplo el modelo Bernouilli o el modelo binomial.

La noción de permanencia estadística (Vessereau A, 1962:15) hace referencia a ciertas uniformidades en los datos de la realidad. Por ejemplo: a) la cantidad de varones y la de mujeres tiende a ser aproximadamente igual; b) el tamaño de las galletitas que fabrica una máquina tiende a ser aproximadamente igual; c) la proporción entre granos esféricos de arvejas y granos arrugados de arvejas tiende a ser del 75% y del 25% aproximadamente, o sea, siempre tiende a encontrarse aproximadamente 75 granos esféricos cada 100, y 25 granos arrugados cada 100; d) la estatura de las personas tienden siempre a estar alrededor de un valor medio, siendo frecuente encontrar estaturas de 1.70 metros pero raro encontrar estaturas de 2 metros.

Estas uniformidades sugieren la presencia de leyes que rigen la forma en que se distribuyen los datos. Como hay muchas formas en que los datos pueden distribuirse, también habrá muchas leyes que describen dichas distribuciones. Entre las más conocidas (Vessereau A, 1962:16-24) se cuentan la ley binomial, la ley de Laplace-Gauss y la ley de Poisson. Por ejemplo, la ley de Laplace-Gauss describe las distribuciones que siguen una curva normal: “cuando una magnitud recibe la influencia de una gran

20

Page 21: CURVA NORMAL

cantidad de causas de variación, y estas son todas muy pequeñas e independientes unas de otras, se demuestra que los valores individuales de las mediciones se distribuyen respondiendo a la ley de Laplace-Gauss” (Vessereau A, 1962:20).

Otros autores consideran fundamentales a las distribuciones normal, binomial y de Student, y hacen referencia a otras, como la distribución ‘chi cuadrado’ (x2) que, a diferencia de la primeras, no es paramétrica, es decir, no requiere supuestos tan rigurosos acerca de la población, como por ejemplo de que esta se distribuya normalmente (Kohan N, 1994:191).

Hay otras leyes que tienen alcance más general, como por ejemplo la ley de distribución de las medias (Vessereau A, 1962:24) que establece que, cualquiera que sea la distribución (binomial, gaussiana, etc), el desvío estándar de las medias aritméticas de todas las muestras posibles de n elementos disminuye inversamente a la raíz cuadrada de n. Esto significa que cuanto más grandes sean las muestras, menos desviación o dispersión habrá entre sus medias aritméticas.

21