41
Estadística Es una ciencia matemática que se ocupa de la recolección, análisis, interpretación o explicación, y presentación de datos. También incluye la predicción y pronostico basado en datos. Es aplicable a una gran variedad de disciplinas como las ciencias naturales, ciencias sociales, humanidades, gobierno, y los negocios. Los métodos estadísticos se pueden usar para resumir o describir una colección de datos; esto es llamado Estadística Descriptiva. Además, patrones en los datos se pueden modelar de manera que tomen en cuenta la aleatoriedad e incertidumbre en las observaciones, y son utilizados para obtener inferencias sobre los procesos o poblaciones en estudio; esto es llamado Estadística Inferencial. La estadística descriptiva, predictiva, e inferencial conforman la Estadística Aplicada. Ejemplos de estadística descriptiva lo son la media y la desviación estándar como descriptores numéricos. Los histogramas son resúmenes gráficos. Ejemplos de estadística inferencial lo son pruebas de hipótesis para contestar preguntas si/no, estimación para estimados de características numéricas, correlación para descripciones de asociación, regresión para modelación de relaciones. Otras técnicas incluyen análisis de varianza, series de tiempo, y minería de datos. La Estadística Matemática se ocupa de las bases teóricas del tema. Esto lo hace desde una posición puramente matemática, utilizando teoría de probabilidad así como otras ramas de matemática como el álgebra lineal y análisis. La Estadística Exacta fue desarrollada para proveer resultados más precisos en las pruebas estadísticas y estimación de intervalos mediante la eliminación de procedimientos basados en métodos estadísticos aproximados y asintóticos. La característica principal de los métodos exactos es que las pruebas estadísticas y los intervalos de confianza están basados en enunciados de probabilidad exactos que son validos para cualquier tamaño muestral.

fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

  • Upload
    others

  • View
    2

  • Download
    0

Embed Size (px)

Citation preview

Page 1: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

Estadística

Es una ciencia matemática que se ocupa de la recolección, análisis, interpretación o explicación, y presentación de datos. También incluye la predicción y pronostico basado en datos. Es aplicable a una gran variedad de disciplinas como las ciencias naturales, ciencias sociales, humanidades, gobierno, y los negocios.

Los métodos estadísticos se pueden usar para resumir o describir una colección de datos; esto es llamado Estadística Descriptiva. Además, patrones en los datos se pueden modelar de manera que tomen en cuenta la aleatoriedad e incertidumbre en las observaciones, y son utilizados para obtener inferencias sobre los procesos o poblaciones en estudio; esto es llamado Estadística Inferencial. La estadística descriptiva, predictiva, e inferencial conforman la Estadística Aplicada.

Ejemplos de estadística descriptiva lo son la media y la desviación estándar como descriptores numéricos. Los histogramas son resúmenes gráficos. Ejemplos de estadística inferencial lo son pruebas de hipótesis para contestar preguntas si/no, estimación para estimados de características numéricas, correlación para descripciones de asociación, regresión para modelación de relaciones. Otras técnicas incluyen análisis de varianza, series de tiempo, y minería de datos.

La Estadística Matemática se ocupa de las bases teóricas del tema. Esto lo hace desde una posición puramente matemática, utilizando teoría de probabilidad así como otras ramas de matemática como el álgebra lineal y análisis.

La Estadística Exacta fue desarrollada para proveer resultados más precisos en las pruebas estadísticas y estimación de intervalos mediante la eliminación de procedimientos basados en métodos estadísticos aproximados y asintóticos. La característica principal de los métodos exactos es que las pruebas estadísticas y los intervalos de confianza están basados en enunciados de probabilidad exactos que son validos para cualquier tamaño muestral.

Cuando p-valores exactos e intervalos de confianza son calculados bajo ciertas distribuciones, entonces los métodos usados son referidos como Métodos Paramétricos. Los métodos exactos que no hacen supuesto alguno sobre la distribución son referidos como Métodos No Paramétricos. Los métodos no paramétricos tienen la ventaja de no asumir muchas cosas, mientras que los métodos paramétricos tienden a dar pruebas más poderosas cuando los supuestos de distribución son razonables. Para métodos avanzados como ANOVA de n-vías (n > 1), regresión, y modelos mixtos, solo hay métodos paramétricos.

Los campos de economía, finanzas, mercadeo, y negocios hacen uso de la estadística para estudiar, analizar, y comprender el entorno dado la ausencia de certidumbre y conocimiento perfecto. También hacen uso de métodos cuantitativos como la investigación de operaciones y programación (tanto matemática como computacional). Los campos de la física e ingeniería han brindado grandes aportes a estas áreas de estudio dado la naturaleza rigurosa de las técnicas utilizadas.

La estadística se presta a ser utilizada de mala manera dado el grado de objetividad-subjetividad en la interpretación de los datos y la información obtenida.

Page 2: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

Teoría de la Probabilidad

Es una rama de las matemáticas que se ocupa del análisis de fenómenos aleatorios. Los objetos centrales de la teoría de la probabilidad son variables aleatorias, procesos estocásticos, y eventos. Por ejemplo, aunque un simple lanzamiento de una moneda o la tirada de un dado es un evento aleatorio, si se repite muchas veces dicha secuencia de eventos aleatorios exhibirá cierto patrones estadísticos, que pueden ser estudiados y predichos.

Dos resultados matemáticos representativos que describen dichos patrones son los Teoremas Fundamentales de la Probabilidad: La ley de los números grandes y el teorema del límite central. Esto surge como respuesta al problema general de ¿Cuál es la conducta limitante de Sn a medida que n → ∞? Estos dos teoremas son soluciones parciales.

Como fundamento matemático de la estadística, la teoría de la probabilidad es esencial para las actividades que usan análisis cuantitativo de grandes conjuntos (sets) de datos. Métodos de teoría de la probabilidad también se usan para la descripción de sistemas complejos bajo conocimento parcial de sus estados.

Evento

Abstracción matemática de eventos no determinísticos o cantidades medidas que pueden ser ocurrencias singulares (simples, únicas) o evolucionar en el tiempo de manera aparentemente aleatoria. Es un conjunto de resultados (un subconjunto del espacio muestral) al que una probabilidad es asignada.

Cuando el espacio muestral es finito, cualquier subconjunto del espacio muestral es un evento. Sin embargo, cuando el espacio muestral es infinito es posible y necesario excluir ciertos subconjuntos del espacio muestral para que no sean eventos.

Notación

Si X es una variable aleatoria con valor Real definida en el espacio muestral Ω, el evento

puede ser escrito de manera más conveniente como

Esto es especialmente común en formulas para una probabilidad, como

Evento Complementario

El complemento de un evento A es el evento [no A]; es decir, el evento de que A no ocurra. El evento A y su complemento [no A] son mutuamente excluyentes y exhaustivos. Generalmente, solo hay un evento B tal que A y B son ambos mutuamente excluyentes y exhaustivos; ese evento es el complemento de A. El complemento de un evento A a veces se denota A’.

Page 3: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

Evento Independiente

Un evento independiente es aquel cuya probabilidad de ocurrencia no depende de la ocurrencia de otro evento. Intuitivamente, dos eventos son independientes si la ocurrencia de un evento no hace que sea más o menos probable la ocurrencia del otro. Similarmente, dos variables aleatorias son independientes si la distribución de probabilidad condicional de cualquiera, dado el valor observado del otro, es la misma que si el valor del otro no hubiese sido observado.

Formalmente, dos eventos A y B son independientes si y solo si P(A∩B)=P(A)P(B)

A nivel general, cualquier colección de eventos – posiblemente más de dos – son mutuamente independientes si y solo si para cualquier subconjunto finito A1, …, An de la colección tenemos

Esto es llamado la regla multiplicativa de eventos independientes.

Lo siguiente no es tomado como la definición de independencia: Si dos eventos A y B son independientes, entonces la probabilidad condicional de A dado B es la misma que la probabilidad marginal (incondicional) de A, es decir, P(A|B)=P(A). Esto se debe a que el enunciado tiene problemas cuando se trata de eventos de probabilidad 0, porque por definición

Independencia no tiene el mismo significado que en el lenguaje común. Un evento puede ser independiente de si mismo si y solo si P(A)=P(A∩A)=P(A)P(A). Eso es, si su probabilidad es 1 ó 0. Si un evento o su complemento casi seguro ocurre, es independiente de si mismo. Por ejemplo, si el evento A es elegir cualquier numero pero el 0,5 de una distribución uniforme en el intervalo unitario; A es independiente de si mismo, a pesar que tautológicamente A totalmente determina a A.

Tautología

En lógica proposicional, tautología es una formula proposicional que es verdadera bajo cualquier evaluación posible (interpretación) de sus variables proposicionales. De otra manera, tautología es aquella proposición cuya tabla de verdad da siempre el valor de verdad V en todos los casos posibles de los valores de verdad (V, F) de cada una de las proposiciones que la integran. En todos los casos la forma del argumento ofrece un resultado verdadero, por lo que el argumento es válido.

De un modo más sencillo: la supuesta explicación de algo mediante una redundancia, la "explicación" o definición de algo mediante una ligera variación de palabras que tienen en conjunto el mismo significado ya conocido de lo supuestamente explicado. Ejemplo: una novedosa innovación.

La negación de una tautología es una contradicción.Deterministico

Page 4: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

Cuya propiedad es tener una conducta determinada solo por el estado inicial y la entrada (input). No tiene la posibilidad de resultar en otra conducta.

Evento No Deterministico

Evento que depende de otros factores más allá del estado inicial y la entrada (input).

Estado

Configuración única de información en un programa o máquina. De esta definición se deriva que un estado es un conjunto (set) de resultados organizados de una manera particular en respuesta a eventos de entrada (input). Representa una situación en un punto en el tiempo en un modelo de un sistema.

Sistema

Es un conjunto de entidades interactuando o interdependientes, reales o abstractas, que forman un todo integrado.

Modelo

Es un patron, plan, representación, o descripción diseñada para mostrar el funcionamiento de un objeto, sistema, o concepto. Es una abstracción o conceptualización de objetos de interés en el sistema descrito, utilizada en la creación de una formula predictiva. La modelación es parte fundamental, esencial e inseparable de toda actividad científica; utilizando en muchos casos el lenguaje matemático para describir un sistema.

Se basa en el uso y manejo de variables clasificadas en seis grupos básicos: variables de decisión, variables de entrada, variables de estado, variables exógenas, variables aleatorias, y variables de salida.

Se pueden clasificar en:

Lineales vs No Lineales: Si todos los operadores en un modelo presentan linealidad, entonces el modelo se define como lineal, en caso contrario se considera no lineal.

Deterministicos vs Probabilísticos (Estocásticos): Un modelo deterministico es uno en que cada conjunto de estados de las variables es únicamente determinado por parámetros en el modelo y por un conjunto de estados previos de estas variables. Por consiguiente, un modelo deterministico siempre tienen un mismo desempeño para un conjunto de condiciones iniciales dado. Un modelo estocástico es aquel donde la aleatoriedad esta presente, y los estados de las variables no son descritos por valores únicos, sino por distribuciones de probabilidad.

Page 5: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

Estáticos vs Dinámicos: Un modelo estático no toma en cuenta el elemento tiempo, mientras que un modelo dinámico si. Los modelos dinámicos por lo general se representan con ecuaciones en diferencia (relaciones recursivas) o ecuaciones diferenciales.

Agrupados vs Parámetros Distribuidos: Si el modelo es homogéneo (un estado consistente en todo el sistema), los parámetros están agrupados. Si el modelo es heterogéneo (estados variantes dentro del sistema), entonces los parámetros están distribuidos. Parámetros distribuidos por lo general se representan con ecuaciones diferenciales parciales.

Empíricos vs Heurísticos: Los modelos empíricos son los que utilizan las observaciones directas o los resultados de experimentos del fenómeno estudiado. Los modelos heurísticos se basan en las explicaciones sobre las causas o mecanismos naturales que dan lugar al fenómeno estudiado.

La representación puede ser conceptual o matemática. Por su uso se pueden usar para la simulación, optimización, o control. La modelación puede ser computarizada. En ese caso, un programa de computadora intenta simular un modelo abstracto de un sistema particular. En todo caso el modelo se construye para expresar la lógica del sistema. Si el modelo se construye basado en un conjunto de datos, se debe determinar de que sistema o situación los datos son un conjunto típico.

Ley de los Números Grandes

Es el primer teorema fundamental de la probabilidad. Describe la estabilidad a largo plazo de la media de una variable aleatoria.

Formas

donde X1, X2, … es una secuencia infinita de variables aleatorias independientes e idénticamente distribuidas (i.i.d.), con valor esperado μ < ∞. El supuesto σ2 < ∞ no es necesario. σ2 → ∞ hace la convergencia lenta, pero la LNG se mantiene.

Ley Débil

Promedio muestral converge en probabilidad hacia el valor esperado. (Convergencia debil de variables aleatorias)

Ley Fuerte

Page 6: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

Promedio muestral converge casi seguramente hacia el valor esperado. (Convergencia fuerte de variables aleatorias)

Consecuencias

Ley débil, propiedad de equipartición asintótica (propiedad general de las muestras resultantes de una fuente estocástica). Ley fuerte, la ley fuerte implica la ley débil (pero no lo contrario).

Caso especial

La ley fuerte se puede ver como un caso especial del teorema ergódico (teoría ergódica – estudia sistemas dinámicos).

Teorema del Límite Central

Es el segundo teorema fundamental de la probabilidad. Indica que la suma de un numero suficientemente grande de variables aleatorias i.i.d., cada una con media y varianza finita, estará aproximadamente distribuida normalmente.

Sea X1, X2, X3, …, Xn una secuencia de variables aleatorias i.i.d. con μ < ∞ y σ2 > 0

Significa que si Φ(z) es la f.d.c. de N(0,1), entonces para todo Z real

Sea cual sea la distribución de la variable aleatoria, cuando el número de variables es grande, la distribución de la suma de variables aleatorias tiende a una distribución normal. Las ventajas de

Page 7: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

este teorema radican en que el análisis de los resultados se simplifica ya que se puede asumir un tipo de distribución permitiendo así modelar el comportamiento de la variable.

Casi Seguramente

Una sucesión de variables aleatorias Xn converge de forma casi segura a una variable aleatoria límite X cuando el conjunto de sucesos ω, tales que X(ω) es el límite de la sucesión X n(ω), tiene probabilidad 1

Estadístico

Es una medida cuantitativa, derivado de un conjunto de datos de una muestra con el objetivo de estimar o contrastar características de una población o modelo estadístico. Es una función medible que dado una muestra estadística de valores, les asigna un número que sirve para estimar los parámetros de la distribución de la que procede la muestra. Ej: media, varianza, curtosis, estadístico t, etc. Propiedades potenciales importantes de estadísticos incluyen completitud, consistencia, suficiencia, no sesgo (objetividad), error cuadrado medio mínimo, baja varianza, robustez, y conveniencia computacional (facilidad, eficiencia y efectividad de cálculo).

Probabilidad

Frecuencia con la que ocurre un resultado en un experimento bajo condiciones estables. Es el chance (oportunidad) de que algo sea el caso u ocurrirá. La probabilidad mide la frecuencia con la que ocurre un resultado en un experimento bajo condiciones suficientemente estables. La teoría de la probabilidad se usa extensamente en áreas como la estadística, la matemática, la ciencia y la filosofía para sacar conclusiones sobre la probabilidad de sucesos potenciales y la mecánica subyacente de sistemas complejos.

La probabilidad constituye un importante parámetro en la determinación de las diversas causalidades obtenidas tras una serie de eventos esperados dentro de un rango estadístico.

Dos aplicaciones principales de la teoría de la probabilidad en el día a día son en el análisis de riesgo y en el comercio de los mercados de materias primas. En campos como la política, las probabilidades no se calculan independientemente y tampoco son necesariamente muy racionales.

Los frecuentistas (de frecuencia) hablan de probabilidades solo cuando tratan con experimentos aleatorios bien definidos. La probabilidad de un evento denota la frecuencia relativa de ocurrencia del resultado de un experimento, cuando se repite el experimento. Frecuentistas consideran como probabilidad la frecuencia relativa “a la larga” de los resultados.

Los bayesianos asignan probabilidades a cualquier enunciado, aun cuando no haya procesos aleatorios. Probabilidad para un bayesiano es una manera de representar los “grados de creencia” en un enunciado, dado la evidencia.

Page 8: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

Matemáticamente se representa con un número real en el rango de 0 a 1 y escrito como P(A), p(A), o Pr(A). Un evento imposible tiene probabilidad 0, mientras que un evento seguro tiene probabilidad 1. Sin embargo, lo otro no siempre es verdad: eventos de probabilidad 0 no siempre son imposibles, ni eventos de probabilidad 1 seguros. La diferencia entre “seguro” y “probabilidad 1” viene dada por lo que se llama casi seguro.

En un universo deterministico, basado en conceptos newtonianos, no hay probabilidades si todas las condiciones son conocidas.

Nota curiosa

A pesar de que en un sentido realista los conceptos de negativos no se ajustan a la vida real; el concepto de probabilidad negativa, introducido en física y particularmente en mecánica cuántica, se ha ido probando e intentando aplicar en la matemática financiera. En finanzas cuantitativas la mayoría de las probabilidades no son reales sino pseudo-probabilidades (probabilidades riesgo neutrales). No son probabilidades reales, sino “probabilidades” teóricas bajo una serie de supuestos que ayudan a simplificar los cálculos, dando mayor flexibilidad a ciertos modelos financieros sin que sean inconsistentes con probabilidades reales observadas.

Momento

El concepto de momento en matemáticas evolucionó del concepto de momento en física. El momento n de una función real de una variable real alrededor de un valor C es

Los momentos alrededor de cero usualmente se les llaman simplemente los momentos de una función. Usualmente, con excepción del contexto especial del problema de momentos, la función será una función de densidad de probabilidad. El momento n alrededor de cero de una f.d.p. f(x) es el valor esperado Xn. Los momentos alrededor de la media μ son llamados momentos centrales; los cuales describen la forma de la función, independientemente de traslación.

Significado de los momentos

El primer momento alrededor de 0, si existe, es la expectativa de X; es decir, la media de la distribución de probabilidad de X, designada μ. El momento central n de la distribución de probabilidad de una variable X es

Por consiguiente, el primer momento central es 0. El segundo momento central es la varianza σ2, de la cual la raíz cuadrada positiva es la desviación estándar σ. El momento n normalizado o momento estandarizado es el momento central n dividido entre σn, es decir (μn/σn). Estos momentos centrales normalizados son cantidades sin dimensión, que representan la distribución independientemente de cualquier cambio lineal de escala. Así, el primer momento estandarizado

Page 9: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

es 0, porque el primer momento alrededor de la media es cero. El segundo momento normalizado es 1, porque el segundo momento es igual a la varianza.

El tercer momento central es una medida del sesgo de una distribución, cualquier distribución simétrica tendrá un tercer momento central, si definido, de 0. El tercer momento central normalizado es llamado asimetría, usualmente γ. Una distribución que es asimétrica a la izquierda (la cola de la distribución es mas larga y flaca a la izquierda y gorda a la derecha) tendrá una asimetría negativa. Una distribución que es asimétrica a la derecha (la cola de la distribución es mas gorda a la izquierda y larga y flaca a la derecha) tendrá una asimetría positiva. Para distribuciones que son muy parecidas a la distribución gaussiana, la mediana estará algo cerca de μ - γσ/6, la moda alrededor de μ - γσ/2.

El cuarto momento central normalizado se llama curtosis, es una medida de si la distribución es alta y flaca, o baja y achatada; comparada a la distribución normal con la misma varianza. Como es la expectativa de una cuarta potencia, el cuarto momento, donde definido, siempre es positivo; y exceptuando la distribución punto (degenerada), es estrictamente siempre positiva. El cuarto momento central de una distribución normal es 3σ4.

Parámetro

Medida auxiliar. Es una cantidad que define ciertas características de sistemas o funciones. Un parámetro no es una variable. Los parámetros son medidas específicas, mientras que las variables… varían. Los parámetros no son constantes. Las constantes no cambian, mientras que los parámetros pueden cambiar. Ej: media, desviación estándar, máximo, moda, etc. Es de notar que un estadístico si puede ser un parámetro. La estimación de parámetros es uno de los focos de atención de la estadística y econometría.

Estimador

Es una función de los datos muestrales observables usada para estimar un parámetro poblacional desconocido (el estimando). Un estimado es el resultado de la aplicación de dicha función a una muestra particular de datos.

Promedio (“Average”)

Tendencia central de un conjunto de datos. Se refiere a una medida del “medio”, centro, o valor “esperado” de un set de datos. Un promedio es un valor que pretende tipificar y representar una lista de valores. Los estadísticos más comunes para expresar el promedio son la media, la mediana, y la moda.

Media

Describe la ubicación central de los datos. Se estila a utilizar este término para referirse a la media aritmética (y se distingue de media geométrica, media armónica, etc.), o al valor esperado

Page 10: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

de una variable aleatoria, que también se llama media poblacional. Es por ello que en estos sentidos la media no es un promedio, dado que existen varios tipos de promedio.

Para una variable aleatoria real X, la media es la expectativa de X. No toda distribución de probabilidad tiene una media definida, Ej. la distribución de Cauchy.

Media Aritmética

Es la media “estándar” que se utiliza, simplemente llamada media. Se define como la sumatoria de los componentes de una lista dividido entre la cantidad de miembros de la lista. De otra forma, es la sumatoria de un conjunto de números dividido entre la cantidad de números. Si la lista es una población estadística se le llama Media Poblacional. Si la lista es una muestra estadística se le llama Media Muestral. Ambas se calculan de la misma manera.

Se utiliza μ para denotar la media aritmetica de toda la población. Para una variable aleatoria que tiene una media definida, μ es la media probabilística o valor esperado del numero aleatorio. En la practica μ no se observa porque solo se tiene una muestra en vez de toda la población. Por la ley de los números grandes, se utiliza la media muestral para estimar valores esperados desconocidos.

La media de n+1 es mayor que la media de n si y solo si el nuevo numero es mayor a la vieja media, menor si y solo si es menor, y se mantiene estable si y solo si es igual. Mientras más grande es n, menor será la magnitud del cambio en la media relativo a la distancia entre la vieja media y el nuevo numero (el numero se diluye). La media aritmetica no es un estadístico robusto, generalmente siendo influenciado por valores extremos. Esto es notable en distribuciones asimetricas, donde la mediana seria una mejor descripción de tendencia central; o en distribuciones inciertas donde la moda podría funcionar mejor.

Media Geométrica

Utilizada para conjuntos de números positivos que son interpretados de acuerdo a su producto en vez de su suma, o son exponenciales en naturaleza. Ej. Tasas de crecimiento poblacional, tasas de retorno en finanzas. Se define como la raíz n-esima del producto de n datos.

Se caracteriza por ser menor a la media aritmética del mismo conjunto de datos. Solo aplica para números positivos. Es preferida como medida central de valores expresados en porcentajes por tomar en cuenta el punto de partida de cada porcentaje sucesivo, para así calcular rendimientos anualizados.

Page 11: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

Mediana

Valor que ocupa el lugar central cuando los datos están ordenados en sentido creciente (si es impar). Si es par se tiende a mencionar los dos valores centrales o calcular el promedio de los mismos. Es el valor de la variable que deja el mismo número de datos antes y después que si misma. Un intervalo mediano es el intervalo que contiene dicho dato.

Moda

Es el dato que más se repite en un conjunto de datos u observaciones. Si existen dos datos que se repite un número igual de veces entonces el conjunto será bimodal.

Esperanza

La esperanza matemática (o simplemente esperanza) o valor esperado de una variable aleatoria es la suma del producto de la probabilidad de cada suceso por el valor de dicho suceso. Para una variable aleatoria discreta la esperanza se calcula como

Para una variable aleatoria continua la esperanza se calcula mediante la integral de todos los valores y la función de densidad f(x)

La esperanza también se suele simbolizar con μ. No todas las variables tienen un valor esperado, Ej. La distribución de Cauchy. El termino esperanza se utiliza cuando se habla de distribución de probabilidad; cuando se trata de una muestra se habla de media. El valor esperado de una constante es igual a la constante misma. Si X y Y son variables aleatorias tal que X ≤ Y, entonces E[X] ≤ E[Y].

Desviación

Es una medida de diferencia para intervalos y variables de tasas entre el valor observado y la media. El signo de la desviación, positivo o negativo, indica si el valor es mayor o menor que la media. La magnitud del valor (en la escala relevante) indica que tan diferente e la observación de la media. Una característica de la media es que la suma de las desviaciones a través del conjunto completo de observaciones siempre es cero.Varianza

Es una medida de la dispersión de una variable aleatoria X respecto a su esperanza E[X]. Se define como la esperanza de la transformación (X – E[X])2. Esto es V(X) = E[(X – E[X])2]. La varianza es la media de los cuadrados de las diferencias entre cada valor de la variable y la media aritmética de la distribución.

Page 12: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

Desviación Estándar (Aritmética)

La desviación típica es una medida que informa de la media de distancias que tienen los datos respecto de su media aritmética, expresada en las mismas unidades que la variable. Es la raíz cuadrada de la varianza. La desviación estándar es una medida del grado de dispersión de los datos del valor promedio. Dicho de otra manera, la desviación estándar es simplemente el "promedio" o variación esperada con respecto de la media aritmética. Una desviación estándar grande indica que los puntos están lejos de la media, y una desviación pequeña indica que los datos están agrupados cerca a la media. La desviación estándar puede ser interpretada como una medida de incertidumbre.

Desviación Estándar Geométrica

Describe la dispersión de los datos con respecto a la media geométrica. A diferencia de la desviación estándar aritmética, la geométrica no es una cantidad (aditiva), es un factor (multiplicativo).

Asimetría

Es el tercer momento estándar de la distribución de probabilidad de una variable aleatoria de número real. También se conoce como coeficiente de asimetría. Se define como γ1 = μ3/σ3 donde μ3 es el tercer momento en torno a la media y σ es la desviación estándar. El riesgo de asimetría denota que las observaciones no están esparcidas simétricamente alrededor del valor central. Como resultado, la media y la mediana son diferentes. Es importante en modelos que se basan en distribuciones simétricas. El riesgo de asimetría tiene implicaciones técnicas en el cálculo del valor en riesgo, si no se toma en cuenta el VAR tendrá fallos.

Curtosis

Es el cuarto momento estándar. Es una medida de lo "picudo" (concentrada en torno a la media) de la distribución de probabilidad de una variable aleatoria de número real. Una mayor curtosis implica que la mayor parte de la varianza es debida a desviaciones infrecuentes en los extremos, que se oponen a desviaciones comunes de medidas menos pronunciadas. Se define como γ2 = μ4/σ4, donde μ4 es el cuarto momento en torno a la media.

La definición “moderna” se conoce como exceso de curtosis. Esta es γ2 = (μ4/σ4) – 3. La sustracción del 3 al final de la fórmula es una corrección que se hace a la curtosis de una distribución normal estándar (curtosis = 3). Una distribución puede ser leptocurtica, mesocurtica, o platicurtica.

Page 13: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

El riesgo de curtosis denota que las observaciones están esparcidas de una manera mas ancha que la distribución normal. Es decir, menos observaciones están alrededor de la media y mas observaciones están en los extremos.

Coeficiente de Variación

Es útil para comparar dispersiones a escalas distintas pues es una medida invariante ante cambios de escala. Por otro lado presenta problemas ya que a diferencia de la desviación típica este coeficiente es variable ante cambios de origen. Por ello es importante que todos los valores sean positivos y su media de por tanto un valor positivo. Se calcula como Cv = σ/μ. Solo esta definido para media distinta de 0. Es útil para datos medidos a escala de razones, pero no muy útil a escala de intervalos.

Medida de intervalo

En este tipo de medida, los números asignados a los objetos tienen todas las características de las medidas ordinales, y además las diferencias entre medidas representan intervalos equivalentes. Esto es, las diferencias entre una par arbitrario de medidas puede compararse de manera significativa. Por lo tanto, operaciones tales como la adición, la sustracción tienen significado. El punto cero de la escala es arbitrario y se pueden usar valores negativos.

Medida racional

Los números asignados a los objetos tienen todas las características de las medidas de intervalo y además tienen razones significativas entre pares arbitrarios de números. Operaciones tales como la multiplicación y la división tienen significado. La posición del cero no es arbitraria para este tipo de medida. Las variables para este nivel de medida se llaman variables racionales.

Mínimo

Dato que representa el valor mínimo en un conjunto de datos.

Máximo

Dato que representa el valor máximo en un conjunto de datos.

Sesgo

La diferencia entre el valor esperado de un estimador y el verdadero valor del parámetro estimado.

Estimador Insesgado

Función que toma en cuenta el sesgo de una estimación. En algunas situaciones, si no se tiene cuidado, su utilización puede llevar a resultados absurdos. Ej. La varianza muestral no es representativa de la varianza poblacional. Esto se debe a que la media muestral, por definición,

Page 14: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

esta en el medio de la muestra; pero el “medio” de la población puede bien estar fuera del rango muestral. Es por ello que la varianza muestral necesita ser multiplicada por un factor de normalización para ser algo representativa de la población.

Error

Es la diferencia entre el valor medido o estimado y el verdadero valor observado.

Error Medio

Es el valor esperado de los errores (la media de los errores).

Error Estándar

Es una medida que estima la desviación estándar de los errores. El verdadero valor de la desviación de los errores es desconocida, por ello este valor es un estimado y esto se debe tomar en cuenta.

Error Estándar Medio

Es un estimado del error esperado en el estimado muestral de la media poblacional. Se define como la desviación estándar muestral dividida entre la raíz cuadrada de la cantidad muestral. SE = s/√n Independencia en las cantidades medidas es un requisito. Si se asume que los datos siguen una distribución normal, el error estándar y la media muestral se pueden utilizar para calcular intervalos de confianza para la media.

Frecuencia

La cantidad de veces que se repite un determinado valor de la variable. Formalmente, es el número n de veces que un evento i ocurre en un experimento o estudio. Usualmente se representan por medio de histogramas.

Frecuencia Absoluta

Es el número de veces que el valor aparece en el estudio. Formalmente, se habla de frecuencia absoluta cuando la cantidad n de repeticiones es dada.

Frecuencia Relativa

Es el cociente de la frecuencia absoluta y el tamaño de la muestra. Formalmente, se habla de frecuencia relativa cuando la cantidad n de repeticiones e normalizada por el número total de eventos.

Page 15: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

Percentil

Es el valor de una variable bajo el cual determinado porcentaje de las observaciones caen. Ej. El percentil 20% es el valor que por debajo del cual el 20% de las observaciones se encuentran.

Tablas de Contingencia

Se usan para registrar y analizar la relación entre dos o más variables, habitualmente de naturaleza cualitativa (nominales u ordinales), variables categóricas.

Clasificación de Datos Categóricos

Se hace por medio de la frecuencia, tablas de contingencia.

Parámetro de Ubicación

Parámetro que determina donde se encuentra el origen μ de una función (no confundir con el origen en el plano cartesiano). Puede ser parametrizado por un parámetro escalar o un parámetro vectorial que determina la ubicación de la distribución. Media, mediana, y moda son ejemplos.

Dispersión Estadística

Es la variabilidad o esparcimiento en una variable o una distribución de probabilidad. Por lo general se mide alrededor de la medida que determina el origen. Varianza, desviación estándar, rango, rango intercuartil son ejemplos. La dispersión se origina por imperfecciones en la manera de llevar a cabo una medición o calculo.

Medición de Datos Continuos

Se hace por medio de los parámetros de ubicación, dispersión estadística, y momentos.

Histograma

Es una representación gráfica de una variable en forma de barras, donde la superficie de cada barra es proporcional a la frecuencia de los valores representados. En el eje vertical se representan las frecuencias, y en el eje horizontal los valores de las variables, normalmente señalando las marcas de clase, es decir, la mitad del intervalo en el que están agrupados los datos.

Significancia Estadística

Un resultado se denomina estadísticamente significativo cuando no es probable que haya sido debido al azar. Una "diferencia estadísticamente significativa" solamente significa que hay

Page 16: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

evidencias estadísticas de que hay una diferencia; no significa que la diferencia sea grande, importante, o significativa en el sentido estricto de la palabra.

El nivel de significación de un test es un concepto estadístico asociado a la verificación de una hipótesis. En pocas palabras, se define como la probabilidad de tomar la decisión de rechazar la hipótesis nula cuando ésta es verdadera (decisión conocida como error de Tipo I, o "falso positivo").

En otros términos, el nivel de significatividad de un contraste de hipótesis es una probabilidad P tal que la probabilidad de tomar la decisión de rechazar la hipótesis nula cuando esta es verdadera no es mayor que P.

Rango

La longitud del intervalo más pequeño que contiene todos los datos. Se calcula restando el valor mínimo del valor máximo.

p-Valor

Es la probabilidad de obtener un valor como el observado o más extremo si la hipótesis nula H0

es cierta

Aleatoriedad

Falta de orden, propósito, causa, o “predictibilidad”. Se asocia a todo proceso cuyo resultado no es previsible más que en razón de la intervención del azar. El resultado de todo suceso aleatorio no puede determinarse en ningún caso antes de que este se produzca. Por consiguiente, los procesos aleatorios quedan englobados dentro del área del cálculo de probabilidad y, en un marco más amplio en el de la estadística.

La aleatoriedad es una propiedad objetiva, Sin embargo, lo que parece aleatorio a un observador puede que no lo sea para otro. Ej. Mensajes codificados.

Incertidumbre

Falta de certidumbre. Conocimiento limitado donde es imposible describir con exactitud diferentes estados o resultados futuros. Es diferente de aleatoriedad. Ej. Un dado tiene seis caras enumeradas del 1 al 6, el resultado de una tirada es aleatorio pero si se tienen certidumbre que estará entre 1 y 6. Esta definición forma parte de la aleatoriedad pero no es la aleatoriedad misma.

Variable Aleatoria

Es una función que asocia un número real a cada punto del espacio muestral. Una entidad matemática rigurosamente definida que describe el chance o probabilidad en forma matemática.

Page 17: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

La estructura de una variable aleatoria fue diseñada para analizar eventos estocásticos y los resultados de experimentos científicos, reteniendo solo las propiedades matemáticas necesarias para contestar preguntas de probabilidad. Se definen dos tipos de variables aleatorias, discretas y continuas.

Las variables aleatorias discretas toman un valor de un conjunto especifico de valores, cada uno con probabilidad mayor a cero. Las variables aleatorias continuas toman cualquier rango de valores, y estos rangos tienen probabilidad de ocurrir mayor a cero. Las variables aleatorias discretas tienen una distribución de probabilidad asociada, mientras que las continuas tienen una función de densidad de probabilidad.

Variable Continua

Se denomina variable continua a aquella que puede tomar cualquiera de los infinitos valores existentes dentro de un intervalo.

Variable Discreta

Se denomina distribución de variable discreta a aquella cuya función de probabilidad sólo toma valores positivos en un conjunto de valores de X finito o numerable. A dicha función se la llama función de masa de probabilidad.

Distribución de Probabilidad

Modelo teórico que describe la forma en que varían los resultados de un experimento aleatorio. Lista de los resultados de un experimento con las probabilidades que se esperarían ver asociadas con cada resultado. Es la función F(x) que asigna a cada evento definido sobre X una probabilidad.

Función de Probabilidad

Función que asigna probabilidades a cada uno de los valores de una variable aleatoria discreta.

Función de Densidad de Probabilidad

Función que mide concentración de probabilidad alrededor de los valores de una variable aleatoria continua. Forma en que se distribuyen las probabilidades de un evento en relación al resultado del evento. Se utiliza con el propósito de conocer cómo se distribuyen las probabilidades de un suceso o evento, en relación al resultado del suceso.

Función de Distribución

Función que acumula probabilidades asociadas a una variable aleatoria.

Page 18: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

Estocástico

Aleatorio.

Proceso Estocástico

Un proceso aleatorio. Es un concepto matemático que sirve para caracterizar y estudiar todo tipo fenómenos aleatorios (estocásticos) que evolucionan, generalmente, con el tiempo.

Formalmente, un proceso estocástico es una sucesión de variables aleatorias indexadas por una variable (continua o discreta), generalmente, el tiempo. Cada una de las variables aleatorias del proceso tiene su propia función de distribución de probabilidad y, entre ellas, pueden estar correlacionadas o no. Cada variable o conjunto de variables sometidas a influencias o impactos aleatorios constituye un proceso estocástico. Ej. El índice de la bolsa segundo a segundo.

Casos especiales

Proceso estacionario: Un proceso es estacionario en sentido estricto si la función de distribución conjunta de cualquier subconjunto de variables es constante respecto a un desplazamiento en el tiempo. Se dice que un proceso es estacionario en sentido amplio (o débilmente estacionario) cuando se verifica que: La media teórica es independiente del tiempo; y las autocovarianzas de orden s sólo vienen afectadas por el lapso de tiempo transcurrido entre los dos periodos y no dependen del tiempo.

Proceso de Márkov: Aquellos procesos discretos en que la evolución sólo depende del estado actual y no de los anteriores. (n+1 solo depende de n, no de n-1, n-2, etc.) Ej. Caminata aleatoria.

Proceso de Gauss: Proceso continuo en el que toda combinación lineal de variables es una variable de distribución normal.

Cadena de Márkov

Es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. "Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Márkov de las series de eventos independientes, como tirar una moneda al aire o un dado.

Este tipo de proceso presenta una forma de dependencia simple, pero muy útil en muchos modelos, entre las variables aleatorias que forman un proceso estocástico. En los negocios, las cadenas de Márkov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.

Formalmente, se define como un proceso estocástico discreto que cumple con la propiedad de Márkov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente

Page 19: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

resume toda la información relevante para describir en probabilidad su estado futuro. Los estados futuros se alcanzaran mediante procesos aleatorios en vez de procesos deterministicos.

Propiedad de Márkov

Dado el estado presente, estados futuros son independientes de estados pasados. La probabilidad de ir al estado n+1 condicionada a que antes estábamos en el estado n. La propiedad de las cadenas de Márkov es que las transiciones entre los estados, sólo puede producirse entre estados vecinos. Sólo se puede llegar al estado i desde el estado i-1 ó bien de i+1. Es condicionalmente independiente de estados pasados.

Población

Es el conjunto de elementos sobre el que se realizan las observaciones.

Muestra

Es un subconjunto de casos o individuos de la población.

Contraste de Hipótesis

También denominado prueba de hipótesis, es una técnica de inferencia estadística para juzgar si una propiedad que se supone cumple una población estadística es compatible con lo observado en una muestra de dicha población.

Función de Masa de Probabilidad

Abreviada f.m.p., es una función que da la probabilidad que una variable aleatoria discreta es exactamente igual a algún valor. Se distingue de la f.d.p. (definida para variables aleatorias continuas), en que los valores de la f.d.p. no son probabilidades como tal. La integral sobre un rango de posibles valores (a,b] da la probabilidad de que un valor caiga en ese rango.

Función de Distribución Cumulativa (Acumulada)

Describe completamente la distribución de probabilidad de una variable real aleatoria X. Se caracteriza por: lim X -∞, F(x)=0 ; lim X ∞, F(x)=1. Esta propiedad implica que todas las f.d.c. son funciones Càdlàg. (continua a la derecha y tiene un limite a la izquierda)

Discreto

Contable. Proviene de conjunto contable, un conjunto con la misma cardinalidad (número de elementos) que algún subconjunto de números naturales.

Continuidad

Page 20: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

Intuitivamente, sin división. En el caso de las funciones, si el conjunto de puntos que forman la curva que la representa forman un trazo continuo, se dice que la función es continua.

Variable

En estadística, una variable se refiere a un atributo medible, que puede variar en el tiempo o entre individuos. Pueden ser discreta (de un set contable) o continuas (que tienen una función de distribución continua), o ninguna. En modelos causales se hace la distinción entre variable independiente y variable dependiente. Esta última se espera varíe en respuesta a cambios en la variable independiente, la cual se presume afecta a la dependiente.

Variable Independiente

Dependiendo del contexto, también se conocen como variables predoctoras, regresores, variables controladas, variables manipuladas, variables explicatorias, variables input.

Son las variables que se manipulan deliberadamente para inducir cambios en las variables dependientes.

Variable Dependiente

También conocidas como variables respuesta, regresandos, variables medidas, variables respondientes, variables explicadas, variables de resultado, variables experimentales, variables output.

Son las variables que se observan cambian en respuesta a las variables independientes.

Variable de Supuesto

Son variables que representan cantidades inciertas. Analogas de las variables independientes.

Variable de Pronostico

Una variable que es pronosticada por otra(s) variable(s). Analogas de las variables dependientes.

Variable de Decisión

Una cantidad desconocida que representa una decisión que se necesita tomar. Es la cantidad que un modelo necesita determinar. Es una variable que el tomador de decisiones controla. Se utilizan en la búsqueda de resultados óptimos, por lo cual es una variable de entrada (input) controlable parecida a una variable independiente.

Numero Aleatorio

Page 21: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

Es un número que exhibe aleatoriedad estadística. También se puede referir a una secuencia aleatoria obtenida de un proceso estocástico.

Numero Pseudo-Aleatorio

Es un numero que proviene de un proceso pseudo-aleatorio (parece aleatorio pero no lo es). Exhiben aleatoriedad estadística pero son generados por un proceso causal determinístico.

Función Objetivo

En la función que representa matemáticamente lo que se quiere optimizar. Ej. Las ganancias resultantes de una venta.

Optimización

La optimización (también denominada programación matemática) intenta dar respuesta a un tipo general de problemas donde se busca minimizar o maximizar una función objetivo, sujeta a restricciones (conjunto de decisiones factibles). Un problema de optimización trata entonces de tomar una decisión óptima para maximizar (ganancias, velocidad, eficiencia, etc.) o minimizar (costos, tiempo, riesgo, error, etc.) un criterio determinado. Las restricciones significan que no cualquier decisión es posible.

Optimización clásica

Si la restricción no existe, o es una restricción de igualdad, con menor o igual número de variables que la función objetivo, entonces el cálculo diferencial da la respuesta, ya que solo se trata de buscar los valores extremos de una función.

Optimización con restricciones de desigualdad - optimización no clásica

Si la restricción contiene mayor cantidad de variables que la función objetivo, o la restricción contiene restricciones de desigualdad, existen métodos en los que en algunos casos se pueden encontrar los valores máximos o mínimos.

Si tanto restricciones como función objetivo son lineales (programación lineal), la existencia de máximo (mínimo), esta asegurada, y el problema se reduce a la aplicación de unos simples algoritmos de álgebra lineal elemental los llamados método simples.

Optimización estocástica

Cuando las variables del problema (función objetivo y/o restricciones) son variables aleatorias el tipo de optimización realizada es optimización estocástica.

En las finanzas y economía los problemas no son tan fáciles de solucionar con técnicas de cálculo. Por ello a veces se utilizan métodos de optimización a base de métodos de Monte Carlo.

Page 22: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

La mayoría de los métodos de optimización Monte Carlo se basan en caminatas aleatorias. Varios métodos de optimización son: Estrategias evolutivas, algoritmos geneticos, optimización estocástica, intercambio replica (parallel tempering), simulated annealing, stochastic tunneling (STUN).

Métodos de Monte Carlo

Son una clase de algoritmos computacionales que se basan en muestreo aleatorio repetido para calcular los resultados. Se usan en simulaciones de sistemas fisicos y matemáticos. Dada a la naturaleza de las repeticiones (muchas), son métodos mejor aplicados por computadoras. Se utilizan cuando es imposible o muy difícil calcular un resultado exacto con un algoritmo deterministico.

En finanzas se utilizan para calcular valores de compañías, evaluar proyectos de inversión, evaluar derivados financieros, problemas actuariales, analizar portafolios, etc. Los analistas financieros lo utilizan para contruir modelos financieros estocasticos en vez de los modelos estaticos y deterministicos tradicionales.

Una aplicación popular y versátil es en la simulación y optimización numerica. Estos problemas utilizan funciones que frecuentemente representan muchas variables y vectores de alta dimensión que se deben minimizar o maximizar.

Falacia del Jugador (Falacia de Monte Carlo)

Es una falacia lógica por la que se cree erróneamente que los sucesos pasados afectan a los futuros en lo relativo a actividades aleatorias. Ej:

Un suceso aleatorio tiene más probabilidad de ocurrir porque no ha ocurrido durante cierto periodo de tiempo.

Un suceso aleatorio tiene menos probabilidad de ocurrir porque no ha ocurrido durante cierto periodo de tiempo.

Un suceso aleatorio tiene más probabilidad de ocurrir si ocurrió recientemente. Un suceso aleatorio tiene menos probabilidad de ocurrir si ocurrió recientemente.

Formalmente, las desviaciones de conducta esperada en observaciones en intentos independientes repetidos de un proceso aleatorio, se promediaran por las probables desviaciones en el sentido contrario en el futuro. (una mala interpretación de la ley de los números grandes)

Simulación

Proceso de diseñar un modelo de un sistema real y conducir experimentos con dicho modelo para evaluar el comportamiento del sistema y/o evaluar diversas estrategias para la operación de él.

Distribución Uniforme

Page 23: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

Es una distribución de probabilidad cuyos valores tienen la misma probabilidad de ocurrencia.

Distribución Uniforme Continua

Es una distribución de probabilidad donde los valores tienen la misma probabilidad de ocurrencia y siguen una distribución de probabilidad continua. La distribución uniforme continua estándar es la que se encuentra distribuida entre 0 y 1. Con frecuencia se utiliza como base para generar números aleatorios que siguen otro tipo de distribución (Ej; Triangular).

Distribución Uniforme Discreta

Es una distribución de probabilidad donde los valores tienen la misma probabilidad de ocurrencia y siguen una distribución de probabilidad discreta.

Distribución de Poisson

Es una distribución de probabilidad discreta que expresa la probabilidad que un numero de eventos ocurran en un periodo de tiempo fijo, si estos eventos ocurren con una tasa promedio conocida e independientemente del tiempo desde el ultimo evento.

Distribución t-Student

Es una distribución de probabilidad que surge del problema de estimar la media de una población distribuida normalmente, cuando el tamaño muestral es pequeño.

Distribución Binomial

Es la distribución resultante de un experimento aleatorio que tiene solo 2 resultados posibles, que son mutuamente excluyentes y conjuntamente exhaustivos.

Distribución Normal

Es una distribución continua donde la mayoría de los datos se encuentran alrededor de la media.

Distribución Lognormal

Es una distribución continua que excluye los valores negativos y en la que la mayoría de los valores se encuentran alrededor de la media.

Distribución Triangular

Es una distribución de probabilidad continua que cuenta con un límite inferior, una moda y un límite superior. Se usa cuando los datos no son confiables y/o se dispone de poca información.

Distribución Exponencial

Page 24: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

Es una distribución continua para variables que toman valores positivos y su función de densidad no es simétrica alrededor de la media.

Riesgo Puro

Es aquel en que se puede perder o quedar igual (ej. Sacar el carro a la calle)

Riesgo Especulativo

Es aquel donde se puede perder, ganar o quedar igual (ej. Jugar póker)

Distribución Chi2

Es una distribución continua que mide la discrepancia entre la distribucion observada y la teórica, indicando en que medida la diferencia observada entre ambas se debe al azar. Muestra también el nivel de independencia de 2 muestras entre si.

Intervalo de Confianza

Intervalo de valores alrededor de un parámetro muestral en los que, con una probabilidad o nivel de confianza determinado, se situará el parámetro poblacional a estimar.

Nivel de Confianza

Es la probabilidad a priori de que el intervalo de confianza a calcular contenga al verdadero valor del parámetro.

Correlación

Indica la fuerza y la dirección de una relación lineal entre dos variables aleatorias.

Covarianza

Es una medida de que tanto cambian conjuntamente dos variables.

Regresión

Es un modelo matemático mediante el cual es posible inferir datos acerca de una población¿Para que sirve la regresión?

Page 25: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

Permite evaluar y determinar el comportamiento de las variables estadísticas, además son útiles porque puede haber una o más variables independientes.

Regresión Lineal

Es un modelo matemático mediante el cual es posible inferir datos acerca de una población Se conoce como regresión lineal ya que usa parámetros lineales (potencia 1).Sirve para poner en evidencia las relaciones que existen entre diversas variables.

Medidas de Calidad de la regresión (o bondad)

Coeficiente de determinación: R2, es un numero entre 0 y 1 que cuando es grande (se acerca a 1) el modelo explica bien las variaciones de los valores de las variables dependiente. Cuando R2 es igual a 1 la regresión es perfecta.

Valor critico de F (f grande): indica la probabilidad de que con números aleatorios tuviésemos una correlación como la observada.

El estadístico P: indica que tan probable es que pudiésemos conseguir un estimado de este coeficiente de regresión si en verdad el fuera 0.

El estadistico T: es la relacion entre lo estimado del parámetro y su desviación estandar (error tipico). Si el valor absoluto del estadistico es mayor que 2 el coeficiente no puede ser 0.

Crystal Ball

La herramienta Crystal Ball es una aplicación de Excel que permite pronosticar, optimizar y analizar opciones reales. Por medio de ella, se pueden diseñar modelos de sistemas por métodos de Monte Carlo y “correr” simulaciones para luego analizar el comportamiento de dichos sistemas y las posibles alternativas de funcionamiento.

CB tiene sus propias funciones, es decir agrega funciones a Excel como por ejemplo la función triangular CB, etc., muchas de ellas no nativas de Excel o de difícil implementación.

Permite correr un modelo miles de veces con gran facilidad. Permite hacer comparaciones entre posibles cambios que ocurran en las variables de una

situación específica. Optimizar resultados.

Para Octubre de 2008, Crystal Ball se encuentra en su versión 11.

Palisade

Compañía que produce software que es competencia de Oracle (el cual adquirió Hyperion  Decisioneering, los creadores de Crystal Ball).

Page 26: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

@Risk

Software de análisis de riesgo que utiliza simulación de Monte Carlo en Excel; y que es la competencia directa de Crystal Ball. Lider del mercado. Se diferencia de CB en que es a base de comandos/funciones, al estilo Excel; y no a base de programación de celdas como CB. La sintaxis es del tipo [email protected]ón(parámetros). CB tiene una sintaxis similar (cambiar @Risk por CB) pero el proceso es automatizado. Es por esto, la simplicidad de su uso, y el precio que CB le ha venido ganando terreno a @Risk. Aun así, la gama de funciones de @Risk sigue siendo más amplia.

PrecisionTree

Arboles de decisión para Excel.

NeuralTools

Redes neurales para Excel. La técnica empleada es una forma de inteligencia artificial.

StatTools

Herramientas estadísticas avanzadas para Excel.

Evolver

Contracción de Evolutionary Solver, es una herramienta de optimización a base de algoritmos genéticos (otra forma de inteligencia artificial).

Six Sigma

Estrategia de gerencia de negocios, desarrollada por Motorola, y ha sido implementada en softwares de simulación para la modelación de sistemas. La estrategia se basa en el concepto de que a seis desviaciones estándar de la media tanto a la izquierda como a la derecha, la gran mayoría de los procesos quedan representados.

Valor en Riesgo

Es la perdida máxima tolerable que pudiese ocurrir con una probabilidad dada en un periodo de tiempo dado. Es la perdida máxima con un nivel de confianza dado. El nivel de confianza que se utiliza comúnmente es 95% ó 99% (VaR 5% ó VaR 1%). El VaR condicionado es la esperanza del VaR para el nivel de probabilidad dado. La forma más versátil de calcular en VaR es por medio de métodos de Monte Carlo.Solver

Permite hallar la mejor solución a un problema, modificando valores e incluyendo condiciones o restricciones a los modelos que se deseen estudiar.

Page 27: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

Tabla de Mortalidad

Es un modelo teórico que describe la extinción de una cohorte hipotética o ficticia. Permite determinar las probabilidades de sobrevivir o de morir a una edad exacta "x" o entre edades "x" y "x+n".

Excel

Es una aplicación para manejar hojas de cálculos. Este programa fue y sigue siendo desarrollado y distribuido por Microsoft, y es utilizado normalmente en tareas financieras y contables. En Excel las celdas son variables, que dependiendo del contenido, pueden ser dependientes, independientes, etc.

Relación Recursiva

Es una ecuación que define recursivamente una secuencia. Cada término de la secuencia se define como una función de los términos anteriores. Una ecuación en diferencia es un tipo específico de relación recursiva. Este tipo de relación es muy utilizada en modelos económicos.

Programación

En informática la programación es un proceso por el cual se escribe (en un lenguaje de programación), se prueba, se depura y se mantiene el código fuente de un programa informático. Es un componente importante de la ingeniería financiera, en especial las simulaciones.

Algoritmo

Un algoritmo es una secuencia no ambigua, finita y ordenada de instrucciones que han de seguirse para resolver un problema.

Iteración

Acto de repetir. En matemáticas, se refiere al proceso de iterar una función, o técnicas usadas en métodos iterativos para resolver problemas numericos.

Prueba Chi2

Es una prueba de hipótesis estadística en que un estadístico de prueba tiene una distribución chi2

cuando la hipótesis nula es verdadera, o cualquiera en donde la distribución del estadístico de prueba se pudiese aproximar a una chi2 tan cerca como deseado por medio del incremento del tamaño muestral a lo suficientemente grande.Teorema de Bayes

Page 28: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

Es el resultado que da la distribución de probabilidad condicional de una variable aleatoria A dada B, en términos de la distribución de probabilidad condicional de la variable B dada A y la distribución de probabilidad marginal de sólo A.

Bondad del Ajuste (Goodness of Fit)

Describe que tan bien un modelo estadístico se ajusta a un conjunto de observaciones. La medida de bondad de ajuste resume la discrepancia entre los valores observados y los valores esperados bajo el modelo.

Anderson-Darling

La prueba Anderson-Darling determina si los datos vienen de una distribución específica. La fórmula para el estadístico A determina si los datos vienen de una función de distribución acumulativa F.

Kolmogorov-Smirnov

la prueba de Kolmogórov-Smirnov es una prueba no paramétrica que se utiliza para determinar la bondad de ajuste de dos distribuciones de probabilidad entre sí. En el caso de que queramos verificar la normalidad de una distribución, la prueba Anderson-Darling es una alternativa más potente.

Retorno

En economía, son las distribuciones o pagos otorgados a los oferentes de factores de producción. En finanzas, es la ganancia o perdida derivada de una inversión.

Riesgo

Es la probabilidad precisa de eventualidades específicas. El concepto de riesgo es independiente de valor; las eventualidades pueden tener consecuencias buenas y malas. Por convención de uso, el enfoque es en el impacto potencialmente negativo a alguna característica de valor que pueda surgir en un evento futuro. Riesgo no es incertidumbre (falta de certeza completa), es un estado de incertidumbre donde las posibilidades pueden resultar en consecuencias malas.

Es la varianza es resultados esperados, usualmente en referencia a la posibilidad de resultados negativos.

Valor Presente Neto

Es el valor presente total de una serie de tiempo de flujos de caja. Es un indicador de valor o magnitud.

Tasa Interna de Retorno

Page 29: fpfn24.wdfiles.comfpfn24.wdfiles.com/local--files/suplementos-de-clase/... · Web viewSe hace por medio de los parámetros de ubicación, dispersión estadística, y momentos. Histograma

La tasa de interés con la cual el valor presente neto es igual a cero. Es una medida de eficiencia o calidad.

Periodo de Recuperación

El periodo de tiempo requerido para que el retorno de una inversión iguale la inversión inicial.