84
UNIVERSIDAD CENTRAL DE VENEZUELA. FACULTAD DE CIENCIAS. ESCUELA DE MATEM ´ ATICA. Estimaci´ on de Cuantiles en la Medici´on de Riesgo Financiero Trabajo Especial de Grado presentado ante la ilustre Universidad Central de Venezuela por la Br. Amanda Carolina Escorche Pons, para optar al t´ ıtulo de Licenciada en Matem´atica. Tutora: Mercedes Arriojas. Caracas, Venezuela Abril del 2011.

Estimaci on de Cuantiles en la Medici on de Riesgo …saber.ucv.ve/bitstream/123456789/12385/1/TEG Amanda C.Escorche P… · ... la mayor parte de estos planteamientos olvida

  • Upload
    vominh

  • View
    212

  • Download
    0

Embed Size (px)

Citation preview

UNIVERSIDAD CENTRAL DE VENEZUELA.

FACULTAD DE CIENCIAS.

ESCUELA DE MATEMATICA.

Estimacion de Cuantiles en la

Medicion de Riesgo Financiero

Trabajo Especial de Grado presentado

ante la ilustre Universidad Central de

Venezuela por la Br. Amanda Carolina

Escorche Pons, para optar al tıtulo de

Licenciada en Matematica.

Tutora: Mercedes Arriojas.

Caracas, Venezuela

Abril del 2011.

ii

Nosotros, los abajo firmantes, designados por la Universidad Central de Venezuela como

integrantes del Jurado Examinador del Trabajo Especial de Grado titulado “Estimacion

de Cuantiles en la Medicion de Riesgo Financiero”, presentado por la Br. Amanda

Carolina Escorche Pons, titular de la Cedula de Identidad V-18-728038, certificamos

que este trabajo cumple con los requisitos exigidos por nuestra Magna Casa de Estudios para

optar al tıtulo de Licenciado en Matematica.

Mercedes Arriojas

Tutora

Mairene Colina

Jurado

Daniel Barraez

Jurado

DEDICATORIA.

Dedico este Trabajo Especial de Grado a mis

padres, Manuel Escorche y Amanda Pons, pilares

fundamentales en mi vida. Su tenacidad y lucha

insaciable han hecho de ellos el gran ejemplo a

seguir y destacar, no solo para mı, sino para mi

hermana. Los amo con mi vida.

iii

AGRADECIMIENTO.

Mi sincero agradecimiento esta dirigido a todas aquellas personas que creyeron en mı y

contribuyeron en la realizacion de este trabajo y especialmente a:

Jesus de Nazareth, porque ha estado conmigo en cada paso que doy, cuidandome, ilu-

minandome y dandome la fortaleza para continuar.

La ilustre Universidad Central de Venezuela, por ser mas que un recinto universitario, mi

segundo hogar en estos anos de carrera, donde pude alcanzar esta meta y crecer como persona.

Mi tutora Mercedes Arriojas, por su disponibilidad, su dedicacion, rigor academico, pun-

tualidad, sus sugerencias oportunas y por toda su colaboracion para que este trabajo fuese

culminado.

Los integrantes de mi terna examinadora, por ser partıcipes en la realizacion de este

trabajo.

Mis padres, Manuel Escorche y Amanda Pons, quienes a lo largo de mi vida han velado

por mi bienestar y educacion siendo mi apoyo en todo momento, depositando su entera con-

fianza en cada reto que se me presentaba sin dudar ni un solo instante en mi capacidad de

superacion y perseverancia.

iv

v

Mi hermana, Alejandra Escorche, companera inseparable en mi vida, ella represento una

luz en momentos de decline y cansancio.

INDICE GENERAL

Indice de figuras viii

Capıtulo 1. Preliminares. 3

1. Nociones Basicas de Probabilidades. 3

2. Nociones Basicas de Estadıstica. 12

Capıtulo 2. Valor en Riesgo. 27

1. Origen del Valor en Riesgo (VaR). 27

2. Aspectos Basicos del Valor en Riesgo (VaR). 28

3. Definicion del Valor en Riesgo (VaR). 30

4. Enfoques Basicos para el Calculo del VaR. 31

5. Ventajas y Desventajas de los Enfoques Basicos para el Calculo del VaR. 40

Capıtulo 3. Metodologıa Bootstrap. 42

1. Metodo Bootstrap. 43

Capıtulo 4. Estimacion de Cuantiles. 47

1. Bootstrap Exacto de la Media. 52

2. Bootstrap Exacto de la Varianza y Covarianza. 56

3. Bootstrap Simetrico. 61

4. Estimador Harrell - Davis. 61

Capıtulo 5. Resultados Numericos. 63

vi

Indice general vii

Capıtulo 6. Conclusiones. 71

INDICE DE FIGURAS

1.1 Variable Aleatoria. 4

1.2 Variable Aleatoria. 5

1.3 Funcion de Probabilidad de la v.a X = ] de caras en 3 lanzamientos de una moneda. 6

1.4 Funciones de Distribucion Discreta y Continua. 7

1.5 Funcion de Distribucion de la v.a X = ] de caras en 3 lanzamientos. 7

1.6 La probabilidad como el area bajo la curva de la funcion de densidad. 8

1.7 Variable Aleatoria Normal. 9

1.8 Variable Aleatoria Normal, variando sus parametros µ y σ2. 9

1.9 Cuantil xp cuando existe una solucion unica. 21

1.10 Cuantil xp determinado para una funcion de distribucion FX cuando no existe una

solucion. 21

1.11 Interpretacion Geometrica del Cuantil. 22

1.12 Calculo de cuantiles en distribuciones agrupadas. 25

2.1 Valor en Riesgo (VaR). 30

2.2 Precios diarios de los factores de riesgo. 33

2.3 Retornos diarios de los factores de riesgo. 34

2.4 Variaciones diarias en el valor de la cartera. 35

2.5 Variaciones diarias en el valor de la cartera ordenadas en forma creciente. 35

viii

Indice de figuras ix

2.6 Acciones incluidas en la cartera armada por el administrador de fondos. 36

2.7 Precios diarios de los factores de riesgo. 37

2.8 Retornos diarios de los factores de riesgo. 37

2.9 Variaciones de valor diarias de la cartera. 38

2.10 Variaciones de valor diarias de la cartera ordenadas de menor a mayor. 38

2.11 Distribucion de variaciones de valor de la cartera. 39

3.1 Metodo Bootstrap. 45

4.1 Pesos para el Bootstrap Exacto (EB) de distintos estadısticos de orden cuando n = 100. 55

4.2 Pesos para el Bootstrap Exacto (EB) de distintos estadısticos de orden cuando n = 100. 55

4.3 Comparasion de los Pesos: Harrell-Davis (HD) & Estimadores (EB), para n = 100. 62

INTRODUCCION

La Matematica ha jugado un papel esencial en el desarrollo de muchos de los temas

centrales de la Economıa Financiera, destacandose, aquellos aspectos relacionados con los

mercados financieros, por ejemplo, la medicion y gestion de riesgos.

La nocion intuitiva de riesgo esta acompanada de la nocion de azar. Intuitivamente senti-

mos que asumimos riesgos cuando las consecuencias de la ocurrencia de un evento aleatorio,

pueden resultar en perdidas para nosotros.

Coincidente con las grandes crisis financieras que ocurrieron antes de la decada de los

noventa, surgio la necesidad de proporcionar una cuantificacion de esas posibles perdidas.

En respuesta a la necesidad expresada, surge una medida que aparecio a finales de la

decada de los ochenta, denominada Valor en Riesgo (VaR) por sus siglas en ingles.

El VaR es actualmente la medida de riesgo mas utilizada en el ambito internacional, a

pesar de algunas limitaciones.

Desde la incorporacion del VaR al instrumental basico de la practica financiera, han si-

do multiples las propuestas de computo que se han venido realizando para su calculo. Sin

embargo, en la mayorıa de las ocasiones, parece que se ha perdido la perspectiva del ver-

dadero problema: la mayor parte de estos planteamientos olvida el hecho de que el VaR es

1

Indice de figuras 2

un cuantil extremo y lo mas apropiado entonces es hacer uso de las herramientas que la

Estadıstica ofrece para el estudio de sucesos de baja probabilidad.

Debido a esto, en este trabajo se desarrolla el artıculo titulado “On quantile estimation

by Bootstrap” realizado por Erik Brodin [3], que presenta un metodo alternativo para esti-

mar cuantiles, que directamente es un metodo alternativo para estimar el VaR.

Esta monografıa esta estructurada en seis (6) capıtulos. En el Capıtulo 1 se presentan

algunas definiciones y resultados de probabilidades y estadıstica que seran necesarios para la

comprension del siguiente trabajo. En este capıtulo, en la mayorıa de los casos se ha omitido

la demostracion de los resultados presentados, bien sea porque forman parte de la formacion

basica ya obtenida en la Licenciatura en Matematica o para evitar extender demasiado este

trabajo. Las referencias fundamentales para este capıtulo son [2], [4], [11] y [13].

El Capıtulo 2 esta referido al tema del Valor en Riesgo (VaR). En este capıtulo se expo-

nen los antecedentes de las medidas de riesgo financieras hasta el surgimiento del VaR, su

definicion formal, propiedades, algunos metodos que se utilizan en la actualidad para calcu-

larlo, sus ventajas y desventajas. Las referencias para este capıtulo son [1] y [12].

En el Capıtulo 3 se presenta en forma resumida, el metodo de estimacion Bootstrap y

la simulacion de Montecarlo. Referencias para este capıtulo encuentra en [5]. El Capıtulo 4

corresponde al desarrollo del artıculo [3], donde como se menciono anteriormente se muestra

un metodo alternativo para estimar cuantiles vıa Bootstrap.

El Capıtulo 5 presenta algunos resultados numericos referentes a la estimacion bootstrap

de cuantiles y sus aplicaciones al VaR y por ultimo, en el Capıtulo 6 se presentan las

conclusiones.

CAPITULO 1PRELIMINARES.

1. Nociones Basicas de Probabilidades.

Definicion 1. (Espacio Muestral.)

Se define espacio muestral o universo al conjunto de todos los posibles resultados de un

experimento aleatorio. El espacio muestral se denota con la letra Ω.

Definicion 2. (σ-algebra).

Una coleccion F de subconjuntos de Ω es una σ-algebra si cumple con las siguientes

condiciones:

(i) Ω ∈ F.

(ii) Si A ∈ F, entonces Ac ∈ F.

(iii) Si A1, A2,... ∈ F, entonces⋃∞n=1An ∈ F

Los elementos de F se denominan eventos asociados al experimento aleatorio.

Notacion 1. El uso de la letra F para denotar una σ-algebra proviene del nombre en ingles

“field”que significa campo. En algunos libros se usa tambien el termino σ-campo en lugar de

σ-algebra.

Ejemplo 1. El conjunto de partes de Ω, P(Ω) es una σ-algebra.

3

1. NOCIONES BASICAS DE PROBABILIDADES. 4

Definicion 3. (Medida de Probabilidad).

Sea Ω un espacio muestral y F una familia de eventos de Ω. Una medida de probabilidad

o probabilidad sobre Ω, es una funcion P : F → [0,1] que satisface:

(i) P(Ω) = 1.

(ii) P(A)≥ 0, para cualquier A∈ F.

(iii) Si A1, A2,... ∈ F son disjuntos dos a dos, es decir, Ai⋂Aj = 0 para i 6= j, entonces:

P

(∞⋃n=1

An

)=∞∑n=1

P(An).

Definicion 4. (Espacio de Probabilidad).

Un espacio de probabilidad es una terna (Ω, F, P), en donde Ω es un conjunto arbitrario,

F es una σ-algebra de subconjuntos de Ω, y P es una medida de probabilidad definida sobre

F.

Definicion 5. (Variable Aleatoria).

Sea (Ω, F, P) un espacio de probabilidad. Una variable aleatoria o variable aleatoria real

es una funcion:

X: Ω → R

tal que para todo intervalo I ⊆ R el conjunto

X−1(B) = ω ∈ Ω : X(ω) ∈ I ∈ F.

En las figuras 1.1 y 1.2 se puede apreciar graficamente la definicion de variable aleatoria.

Figura 1.1. Variable Aleatoria.

1. NOCIONES BASICAS DE PROBABILIDADES. 5

Figura 1.2. Variable Aleatoria.

Ejemplo 2. Consideremos el experimento aleatorio que consiste en el lanzamiento de una

moneda n veces donde se quiere saber la probabilidad de obtener r caras, r = 0,1,...,n. En

este caso el espacio muestral esta dado por:

Ω = (a1, a2,..., an): ai = c o ai = s; i = 1,...,n,

con F = P(A) y para un evento A ⊆ Ω la funcion P(A) = |A||Ω| define una medida de

probabilidad en este espacio.

Si asociamos a los resultados los valores c = 1 y s = 0 y definimos:

X = X(ω) = ] de caras en n lanzamientos,

entonces es facil verificar que X es una variable aleatoria. El evento r caras en n lanzamientos

se puede expresar como:

ω ∈ Ω: X(ω) = r, con r ∈ 0,1,...,n.

En particular, cuando n = 3, se tiene que:

(X = 3) = ccc; (X = 2) = ccs, csc, scc; (X = 1) = ssc, scs, css; (X = 0) = sss.

Es decir, que la variable aleatoria X definida como el ] de caras al lanzar una moneda en

tres (3) lanzamientos toma los valores 0,1,2,3.

Definicion 6. (Variable Aleatoria Discreta).

Una variable aleatoria X se denomina discreta, si el numero posible de valores de X, es

decir, su rango, es un conjunto discreto (finito o numerable). En este caso existe un conjunto

xnn≥1 (conjunto de valores de X) tal que:∑n≥1

P(X = xn) = 1.

1. NOCIONES BASICAS DE PROBABILIDADES. 6

Ejemplo 3. La variable aleatoria definida en el Ejemplo 2, es una variable aleatoria discreta.

Definicion 7. (Funcion de Probabilidad).

Dada una variable aleatoria discreta X cuyo conjunto de valores es un conjunto xnn≥1,

la funcion:

p : xnn≥1 −→ [0, 1]

xn 7−→ p(n) = pn = P(X = xn)

se denomina funcion de probabilidad de la variable aleatoria X o funcion de masa de

probabilidad de la variable aleatoria X.

Observacion 1. Esta funcion satisface la condicion:∑n≥1

pn =∑n≥1

P(X = xn) = 1.

Ejemplo 4. Considerando la variable aleatoria definida en el Ejemplo 2, tenemos que:

X = ] de caras en 3 lanzamientos de una moneda.

Si asumimos que la moneda es perfectamente simetrica, entonces:

P(X = 0) = 18; P(X = 1) = 3

8; P(X = 2) = 3

8y P(X = 3) = 1

8.

La funcion de probabilidad de la variable aleatoria X esta dada de la siguiente manera:

Figura 1.3. Funcion de Probabilidad de la v.a X = ] de caras en 3 lanzamientos

de una moneda.

Definicion 8. (Funcion de Distribucion).

Si X es una variable aleatoria, se define la funcion de distribucion de X como la funcion

FX : R −→ [0, 1] tal que para cada y ∈ R

FX(y) = P (w ∈ Ω : X(w) ≤ y) = P (X ≤ y) .

1. NOCIONES BASICAS DE PROBABILIDADES. 7

Notacion 2. En algunos casos se utiliza la notacion F en lugar de FX .

A continuacion se presentan dos (2) ejemplos graficos de funciones de distribucion. La

grafica de la izquierda en la Figura 1.4 corresponde a la funcion de distribucion de una

variable aleatoria discreta, y la grafica de la derecha muestra el comportamiento tıpico de

una funcion de distribucion continua.

Figura 1.4. Funciones de Distribucion Discreta y Continua.

Observacion 2. Si X es una variable aleatoria discreta tal que: X(Ω) = x1, ..., xn, ...

entonces se define:

FX(x) =∑xn≤x

pn

donde, pn = P (X = xn) .

Ejemplo 5. Considerando la variable aleatoria definida en el Ejemplo 2, X = ] de caras en

3 lanzamientos de una moneda. Tenemos:

F (0) =1

8;F (1) =

1

8+

3

8=

1

2;F (

3

2) = F (1);F (2) =

1

2+

3

8=

7

8;F (3) = 1;F (4) = 1

En este caso la grafica de la funcion de distribucion es la siguiente:

Figura 1.5. Funcion de Distribucion de la v.a X = ] de caras en 3 lanzamientos.

1. NOCIONES BASICAS DE PROBABILIDADES. 8

Proposicion 1. (Propiedades de la Funcion de Distribucion).

Sea F la funcion distribucion de una variable aleatoria X, entonces:

(i) 0 ≤ F (t) ≤ 1 para todo t ∈ R.

(ii) P (a < X ≤ b) = F (b)− F (a) para a < b.

(iii) F (a) ≤ F (b) si a < b (no decreciente).

(iv) lımt→a+ F (t) = F (a) (continua por la derecha).

(v) lımt→a− F (t) = F (a)− P(X = a).

(vi) lımt→∞ F (t) = 1 y lımt→−∞ F (t) = 0.

Definicion 9. (Funcion de Densidad).

Una funcion f : R −→ R es una funcion de densidad sobre R si y solo si f satisface las

condiciones siguientes:

(i) Para todo x ∈ R, f(x) ≥ 0.

(ii)∫∞−∞ f(u)du = 1.

Definicion 10. (Variable Aleatoria Continua).

Una variable aleatoria X es continua o absolutamente continua si existe una funcion de

densidad f tal que para todo a ∈ R,

F (a) = P (X ≤ a) =

∫ a

−∞f(u)du.

Observacion 3.

• En este caso f se denomina funcion de densidad de probabilidad de X.

• La probabilidad de que X tome un valor en el intervalo (a,b) es el area bajo la curva

de la funcion de densidad sobre dicho intervalo.

Figura 1.6. La probabilidad como el area bajo la curva de la funcion de densidad.

1. NOCIONES BASICAS DE PROBABILIDADES. 9

Definicion 11. (Variable Aleatoria Normal).

Una variable aleatoria X se dice que tiene distribucion normal o que esta normalmente

distribuida, con parametros µ y σ2 (σ > 0), si su funcion de densidad de probabilidad

esta dada por:

f(x) =1

σ√

2πe−

(x−µ)2

2σ2 ; ∀x ∈ R.

La funcion de distribucion de una variable aleatoria normal es

F (t) =1

σ√

∫ t

−∞e−

(x−µ)2

2σ2 dx; ∀t ∈ R

y utilizamos la notacion X ∼ N(µ, σ) para decir que X esta normalmente distribuida con

parametros µ y σ2.

Figura 1.7. Variable Aleatoria Normal.

Figura 1.8. Variable Aleatoria Normal, variando sus parametros µ y σ2.

Definicion 12. (Esperanza de una Variable Aleatoria Discreta).

Sea X una variable aleatoria discreta tal que su conjunto de valores es xnn≥1 y su

funcion de probabilidad pnn≥1, donde pn = P (X = xn). La esperanza matematica o valor

esperado de X es el numero denotado por E[X] y definido como:

µ = E[X] =∞∑n=1

xnP (X = xn) =∞∑n=1

xnpn;

1. NOCIONES BASICAS DE PROBABILIDADES. 10

siempre y cuando la serie anterior sea convergente. En este caso se dice que existe la esperanza

matematica de X.

Observacion 4. Observe que E[X] es un promedio ponderado de los valores de la variable

aleatoria en X. En algunos casos E[X] se denomina media o media ponderada de X.

Ejemplo 6. Considerando la variable aleatoria X = ] de caras en tres lanzamientos de una

moneda definida en el Ejemplo 2.

Tenemos que su esperanza matematica es:

E[X] =3∑

n=1

xnpn = 1.3

8+ 2.

3

8+ 3.

1

8=

3

2.

Definicion 13. (Esperanza de una Variable Aleatoria Continua).

Sea X una variable aleatoria continua con funcion de densidad f . Se define la esperanza

de X como

E[X] =

∫ ∞−∞

xf(x)dx;

siempre que la integral anterior sea finita. En este caso, E[X] < ∞, se dice que X tiene

esperanza o tambien que es integrable con respecto a la medida de probabilidad dada.

Ejemplo 7. Si X es una variable aleatoria normalmente distribuida con parametros (µ, σ2),

su esperanza matematica es:

E[X] =

∫ ∞−∞

xe−(x−µ)2

2σ2

σ√

2πdx

=

∫ ∞−∞

(x+ µ− µ)e−(x−µ)2

2σ2

σ√

2πdx

=1

σ√

∫ ∞−∞

(x− µ)e−(x−µ)2

2σ2 dx+1

σ√

∫ ∞−∞

µe−(x−µ)2

2σ2 dx

=1

σ√

∫ ∞∞

(x− µ)

σe−

(x−µ)2

2σ2 dx+ µ

= µ.

1. NOCIONES BASICAS DE PROBABILIDADES. 11

Definicion 14. (Varianza de una Variable Aleatoria).

Si X es una variable aleatoria con media E[X] = µ, entonces la varianza de X, es denotada

V ar[X], y se define como:

V ar[X] = E[(X − E[X])2] = E[X2]− (E[X])2.

La varianza de X es una medida de la dispersion de los valores de X alrededor de la

media.

Ejemplo 8.

• Calculemos la varianza de la variable aleatoria discreta X = ] de caras en tres

lanzamientos de una moneda, definida en el Ejemplo 2.

V ar[X] = E[X2]− (E[X])2

=3∑

n=0

x2npn − µ2

= 02.1

8+ 12.

3

8+ 22.

3

8+ 32.

1

8− (

3

2)2

=3

2.

2. NOCIONES BASICAS DE ESTADISTICA. 12

• Si X es una variable aleatoria normalmente distribuida con parametros (µ, σ2), su

varianza es:

V ar[X] = E[(X − E[X])2]

=σ2

σ√

∫ ∞−∞

(x− µ)2

σ2e−

(x−µ)2

2σ2 dx

= 2σ2

σ√

∫ ∞0

(x− µ)2

σ2e−

(x−µ)2

2σ2 dx

= 2σ2

√2π

∫ ∞0

y2e−y2

2 dy

= 2σ2

√2π

lımb→∞−ye−

y2

2 |b0 + 2σ2

√2π

∫ ∞0

e−y2

2 dy

= 2σ2

√2π

[0 +

√2π

2]

= σ2.

Definicion 15. (Desviacion Tıpica o Estandar de una Variable Aleatoria).

Dada una variable aleatoria X con varianza σ2, la desviacion tıpica o estandar de X es

igual a σ.

Este valor da una medida de las desviacion de los valores de la variable aleatoria con

respecto a su media. Cuanto menor es la desviacion estandar mas se aglutinan los valores de

la variable aleatoria en torno a la media.

El valor E[|X − E[X]|] se denomina desviacion media absoluta.

2. Nociones Basicas de Estadıstica.

Definicion 16. (Estadıstico o Estadıgrafo).

Dada una muestra aleatoria simple X1,X2,...,Xn, de una poblacion de la variable aleatoria

X, se define Tn = T (X1, X2, ..., Xn), donde T es cualquier funcion real, como un estadıstico o

estadıgrafo, que, para cada realizacion de la muestra, definida por la n-tupla (x1, x2, ..., xn)

toma un valor diferente.

2. NOCIONES BASICAS DE ESTADISTICA. 13

Observacion 5.

De la definicion anterior tenemos, que un estadıstico no es mas que una funcion que a su

vez resulta ser una variable aleatoria, el cual, tiene una distribucion de probabilidad (con su

media, varianza, etc.), que se conoce como distribucion muestral. La distribucion muestral

de un estadıstico depende del tamano de la poblacion, del tamano de las muestras y del

metodo de seleccion de estas ultimas.

Un estadıstico es una caracterizacion numerica de la muestra (media, varianza, etc.). Su

valor no es fijo, sino que depende de la muestra particular seleccionada.

Ejemplo 9.

• La media muestral aleatoria:

~X =1

n(X1 +X2 + ...+Xn) =

1

n

n∑i=1

Xi,

es un estadıstico.

• La varianza muestral aleatoria:

S2 =1

n

n∑i=1

(Xi − ~X)2,

es un estadıstico.

• La varianza muestral centrada aleatoria (cuasivarianza):

S21 =

1

n− 1

n∑i=1

(Xi − ~X)2,

es un estadıstico.

Definicion 17. (Estadıstico de Orden).

Sea X1, X2,..., Xn una muestra aleatoria, llamamos (X(1), X(2),..., X(n)) al conjunto for-

mado por los mismos elementos de la muestra, ordenados en forma creciente, de tal forma

que X(1) ≤ X(2) ≤ ... ≤ X(n). Luego, el miembro r -esimo de esta nueva secuencia se denomina

estadistico de orden r de la muestra dada.

Entre los estadısticos de orden se destacan el primero y el ultimo, que son el mınimo,

X(1) = min(X1, X2,..., Xn) y el maximo, X(n) = max(X1, X2,..., Xn) de la muestra,

respectivamente.

2. NOCIONES BASICAS DE ESTADISTICA. 14

Proposicion 2. (Funcion de distribucion del r-esimo estadıstico de orden).

Sean X1, X2,..., Xn los estadısticos de orden o la muestra ordenada de una poblacion con

funcion de distribucion FX , entonces para r = 1,...,n se tiene que la funcion de distribucion

del rth estadıstico de orden viene dada por

FXr,n(x) =n∑j=r

(n

j

)[FX(x)]j[1− FX(x)]n−j.

Demostracion.

Sea y un valor fijo pero arbitrario, se construye la variable aleatoria Zi = I(−∞,y](Xi),

con i = 1, ..., n.

Como P[Zi = 1] = P[Xi ≤ y] = FX(y), entonces cada una de las variables independientes

Z1, ..., Zn tiene una distribucion de Bernoulli con parametro FX(y).

Adicionalmente,n∑i=1

Zi ∼ Bin(n, FX(y))

dada la independencia citada de las variables Z1, ..., Zn, donde∑n

i=1 Zi representa el numero

de observaciones muestrales menores o iguales al valor especıfico y.

Como el evento Xr,n ≤ y es equivalente al evento ∑n

i=1 Zi ≥ r, entonces la funcion

de distribucion del r-esimo estadıstico de orden corresponde a

FXr,n(y) = P[Xi ≤ y]

= P[n∑i=1

Zi ≥ r]

=n∑j=r

(nj

)[FX(y)]j[1− FX(y)]n−j.

Proposicion 3. (Funcion de densidad del r-esimo estadıstico de orden).

Sean X1, X2,..., Xn los estadısticos de orden o la muestra ordenada de una poblacion

con funcion de distribucion continua FX , la funcion de densidad del rth estadıstico de orden,

para r = 1,...,n se define como

fXr,n(x) =n!

(r − 1)!(n− r)![FX(x)]r−1[1− FX(x)]n−rfX(x).

2. NOCIONES BASICAS DE ESTADISTICA. 15

Demostracion.

La funcion de densidad del estadıstico Xr,n corresponde a la derivada, respecto a los

valores particulares de Xr,n, de su funcion de distribucion FXr,n(y). Entonces:

fXr,n(y) =∂

∂yFXr,n(y) = lım

h→0

FXr,n(y + h)− FXr,n(y)

h

= lımh→0

P[y ≤ Xr,n ≤ y + h]

h.

Por medio de la distribucion multinomial se calcula la probabilidad del evento A(h) =

y ≤ Xr,n ≤ y + h, descrito como:

A(h): “(r − 1) observaciones de la muestra son menores que y, una pertenece al intervalo

[y, y + h] y las restantes (n− r) observaciones son mayores que y + h”.

Luego, se tiene que

(1.1) P[A(h)] =n!

(r − 1)!1!(n− r)![F (y)]r−1[F (y + h)− F (y)][1− F (y)]n−r

y haciendo ∆ = lımh→0P[A(h)]

h, tenemos

∆ =n!

(r − 1)!1!(n− r)![F (y)]r−1[1− F (y)]n−r lım

h→0

F (y + h)− F (y)

h

=n!

(r − 1)!1!(n− r)![FX(y)]

r−1[1− FX(y)]n−rfX(y)

= fXr,n(y).

Observacion 6.

La expresion anterior, es equivalente a la siguiente

fXr,n(x) =1

B(1, n− r + 1)[FX(x)]r−1[1− FX(x)]n−rfX(x),

donde,

(1.2) B(x; a, b) =

∫ x

0

ta−1(1− t)b−1dt

es la funcion Beta incompleta.

2. NOCIONES BASICAS DE ESTADISTICA. 16

Definicion 18. (Funcion de Distribucion Empırica).

Sea X1, X2,..., Xn una sucesion de variables aleatorias independientes con funcion de

distribucion F, definimos

Fn(x) =1

n

n∑i=1

I(−∞, x](Xi) =cardi : Xi ≤ x

n.

Es decir,

Fn(x) =

0 si x < X(1)

kn

si X(k) ≤ x < X(k+1) con k = 1, 2, ..., n− 1

1 si x ≥ X(n)

esta expresion es una variable aleatoria que se denomina funcion de distribucion empırica.

Teorema 1.1. (Glivenko-Cantelli).

Sea X una variable aleatoria con funcion de distribucion F, donde Xnn≥1 es una

sucesion de variables aleatorias independientes con la misma distribucion que X, entonces

Fn(x)c.s→ F (x), ∀ x, cuando n → ∞,

donde c.s significa casi siempre y explıcitamente expresa que la probabilidad P del conjunto

donde esto no ocurre es cero.

Demostracion.

La Ley Fuerte de Grandes Numeros nos asegura este resultado, pues Fn(x) es el promedio

de n variables aleatorias independientes de esperanza

E[Fn(x)] = E[1

n

n∑i=1

I(−∞, x](Xi)]

=1

n

n∑i=1

E[I(−∞, x](Xi)]]

=1

n

n∑i=1

P(Xi ≤ x)

=1

n

n∑i=1

F (x)

= F (x).

2. NOCIONES BASICAS DE ESTADISTICA. 17

2.1. Estimacion.

La estimacion estadıstica se divide en dos grandes grupos: la estimacion puntual y la

estimacion por intervalos. La estimacion puntual consiste en obtener un unico numero cal-

culado a partir de las observaciones muestrales, y que es utilizado como estimacion del valor

del parametro θ. Se le llama estimacion puntual porque a ese numero, que se utiliza como

estimacion del parametro θ, se le puede asignar un punto sobre la recta real.

En la estimacion por intervalos se obtienen dos puntos (un extremo inferior y un extremo

superior) que definen un intervalo sobre la recta real, el cual contendra con cierto nivel de

confianza el valor del parametro θ.

Definicion 19. (Espacio Parametrico).

Se define al espacio parametrico como el conjunto de todos los posibles valores del

parametro θ y lo denotaremos por Θ.

Definicion 20. (Estimador Puntual).

Sea X1, X2,..., Xn una muestra aleatoria de una poblacion X, con funcion de masa Pθ(o funcion de densidad fθ), donde θ ∈ Θ. Un estimador puntual del parametro θ es una

funcion T que a cada posible muestra (x1, x2,..., xn) le hace corresponder una estimacion

(valor especıfico) T (x1, x2, ..., xn) de θ.

Vemos pues, que existe una diferencia entre estimador y estimacion. El estimador es un

estadıstico y, por tanto, una variable aleatoria y el valor de esta variable para una muestra

concreta (x1, x2,..., xn) sera la estimacion puntual. El estimador T tendra su distribucion

muestral.

Ejemplo 10. Como ejemplos de estimadores tenemos:

• La media muestral aleatoria:

~X =1

n(X1 +X2 + ...+Xn) =

1

n

n∑i=1

Xi,

es un estimador de la media (µ) de X.

• La mediana muestral:

Md =

Xn+12

si n es parXn

2+Xn

2 +1

2si n es impar

2. NOCIONES BASICAS DE ESTADISTICA. 18

es un estimador de la media (µ) de X.

• La varianza muestral aleatoria:

S2 =1

n

n∑i=1

(Xi − ~X)2,

es un estimador de la varianza (σ2) de X.

• La varianza muestral centrada aleatoria (cuasivarianza):

S21 =

1

n− 1

n∑i=1

(Xi − ~X)2,

es un estimador de la varianza (σ2) de X.

2.1.1. Propiedades Deseables de un Estimador Puntual:

Definicion 21. (Estimador Insesgado).

Sea T un estimador del parametro θ, se dice que T es un estimador insesgado si:

E[T (X1, X2, ..., Xn)] = θ ∀ n ≥ 1.

Es decir, el estimador es insesgado, si para cualquier tamano de la muestra, el valor medio

del estimador, es el valor que se desea conocer.

Ejemplo 11.

• La media muestral aleatoria:

~X =1

n(X1 +X2 + ...+Xn) =

1

n

n∑i=1

Xi,

es un estimador insesgado de µ.

• La varianza muestral aleatoria:

S2 =1

n

n∑i=1

(Xi − ~X)2,

no es un estimador insesgado de σ2, ya que, E[S2] = n−1nσ2.

• La varianza muestral centrada aleatoria (cuasivarianza):

S21 =

n

n− 1S2 =

1

n− 1

n∑i=1

(Xi − ~X)2,

es un estimador insesgado de σ2.

2. NOCIONES BASICAS DE ESTADISTICA. 19

Definicion 22. (Estimador Consistente).

Sea T un estimador del parametro θ, se dice que T es un estimador consistente si:

lımn→∞

P (| T (x1, ..., xn)− θ |≥ ε) = 0.

Es decir, T es un estimador consistente si a medida que aumenta el tamano de la muestra,

en este caso n, se tiene casi la certeza de que el valor del estimador se aproxima bastante al

valor del parametro que se desea conocer.

Ejemplo 12.

• La media muestral aleatoria:

~X =1

n(X1 +X2 + ...+Xn) =

1

n

n∑i=1

Xi,

es un estimador consistente de µ.

Definicion 23. (Estimador Eficiente).

Dados dos estimadores T1 y T2 de un mismo parametro θ, diremos que T1 es mas eficiente

que T2 si:

V ar[T1] < V ar[T2].

Ejemplo 13.

• La varianza muestral:

S2 =1

n

n∑i=1

(Xi −X)2,

es un estimador mas eficiente que la cuasivarianza muestral:

S21 =

1

n− 1

n∑i=1

(Xi −X)2.

En efecto,

V ar(S2) =(n− 1)2

n2

1

n(µ4 −

n− 3

n− 1σ4) < V ar(S2

1) =1

n(µ4 −

n− 3

n− 1σ4),

siendo µ4 = E((X − µ)4).

2. NOCIONES BASICAS DE ESTADISTICA. 20

Definicion 24. (Estimador Suficiente).

Sea X1, X2,..., Xn una muestra aleatoria cuya distribucion es conocida y queremos esti-

mar un parametro θ de su distribucion. Un estadıstico T es suficiente para el parametro θ si

para todos los resultados posibles T = t, la distribucion condicional de (X1,X2,...,Xn) dado

T=t no es funcion del parametro θ.

Es decir, toda la informacion acerca del parametro θ que puede ser extraıda de la muestra

X1, X2,..., Xn esta contenida en T .

2.2. Cuantiles.

Definicion 25. (Cuantil de orden p).

Sea X una variable aleatoria con funcion de distribucion F y sea p ∈ (0,1). Un cuantil de

orden p es cualquier numero xp ∈ R tal que:

(1.3) P(X < xp) ≤ p y p ≤ P(X ≤ xp).

Observacion 7.

(i) Las desigualdades 1.3 que caracterizan a los cuantiles se pueden reescribir de la

siguiente manera:

(1.4) FX(xp)− P(X = xp) ≤ p y p ≤ FX(xp).

(ii) Sea x ∈ R, las desigualdades 1.4 significan que xp es un cuantil de orden p si y solo

si:

p ∈ [F (x)− P(X = x), F (x)].

Definicion 26. Sea X una variable aleatoria, con funcion de distribucion continua y

estrictamente creciente F , se tiene que xp es un cuantil de orden p si y solo si:

(1.5) FX(xp) = p.

La Figura 1.9 ilustra esta situacion en la que existe una solucion unica para la ecuacion

1.5.

2. NOCIONES BASICAS DE ESTADISTICA. 21

Figura 1.9. Cuantil xp cuando existe una solucion unica.

Cuando FX no es estrictamente creciente o continua (como en el caso de que X sea una

variable aleatoria discreta), puede existir mas de un cuantil o ninguno como solucion de la

ecuacion 1.5. En la Figura 1.10 se muestra esta situacion en el caso de no existir una solucion

para la ecuacion 1.5.

Figura 1.10. Cuantil xp determinado para una funcion de distribucion FX

cuando no existe una solucion.

Definicion 27. (Intervalo Intercuantılico).

El intervalo intercuantılico de X se define como [x−p , x+p ], donde x−p corresponde al cuantil

inferior y se define como:

x−p = infx ∈ R | F (x) ≥ p

y x+p corresponde al cuantil superior y se define como:

x+p = infx ∈ R | F (x) > p.

2. NOCIONES BASICAS DE ESTADISTICA. 22

Definicion 28. (Funcion Cuantil).

Sea p ∈ (0,1), la funcion cuantil o cuantila, Q: [0, 1] → R se define como,

Q(p) = infx ∈ R | F (x) ≥ p.

Esto significa que Q es un p - cuantil de X.

Corolario 1. (Interpretacion “Geometrica”del cuantil de orden p).

Si X es una variable aleatoria continua con funcion de densidad fX , el cuantil de orden

p de X es la unica solucion de la ecuacion:

(1.6)

∫ xp

−∞fX(x)dx = p.

Esto significa que el cuantil de orden p de X es el unico punto sobre el eje de las abscisas

a cuya izquierda el area bajo la funcion de densidad fX es igual a p.

Para una demostracion de 1.6 revisar [4].

Figura 1.11. Interpretacion Geometrica del Cuantil.

Proposicion 4. (Propiedades de la Funcion Cuantil).

Sea X una variable aleatoria con funcion de distribucion F. La funcion cuantil Q(p), con

p ∈ (0,1) es no decreciente y continua por la izquierda, y satisface las siguientes propiedades:

(i) Q(F (x)) ≤ x, para todo x ∈ R con 0 < F (x) < 1.

(ii) F (Q(p)) ≥ p, para todo p ∈ (0,1).

2. NOCIONES BASICAS DE ESTADISTICA. 23

(iii) F (x) ≥ p si y solo si x ≥ Q(p).

Demostracion.

(i) Q(F (x)) ≤ x, para todo x ∈ R con 0 < F (x ) < 1.

Notese que Q(F (x)) = infy ∈ R | F (y) ≥ F (x) ≤ x.

El caso en que Q(F (x)) = x para todo x ∈ R, se satisface cuando F es inyectiva.

(ii) F (Q(p)) ≥ p, para todo p ∈ (0,1).

Notese que F (Q(p)) = F (infy ∈ R | F (y) ≥ p) ≥ p.

El caso en que F (Q(p)) = p, para todo p ∈ (0,1), se satisface si F es una funcion de

distribucion continua.

(iii) F (x) ≥ p si y solo si x ≥ Q(p).

(=⇒) Si F (x) ≥ p entonces x ≥ Q(p).

Notese que si F (x) ≥ p, entonces Q(p) = infx ∈ R | F (x) ≥ p ≤ x.

(⇐=) Si x ≥ F−1(p) entonces F (x) ≥ p.

Notese F−1(p) ≤ x, entonces p ≤ F (F−1(p)) ≤ F (x).

Definicion 29. (Funcion Inversa Generalizada.)

Sea X una variable aleatoria, con funcion de distribucion F , se define la inversa

generalizada de F como

Q(p) ≡ F−1(p) = infx ∈ R | F (x) ≥ p con p ∈ (0, 1).

Si F es biyectiva, entonces F−1 es la funcion inversa de F .

2.2.1. Calculo de Cuantiles.

(i) Si disponemos de la muestra bruta ordenada en orden creciente, podemos calcular

el p - esimo cuantil directamente:

2. NOCIONES BASICAS DE ESTADISTICA. 24

– Sea n el numero de observaciones, el cuantil de orden p es el dato tal que la

cantidad de datos que estan debajo de el es np.

– Si esta np es un entero, el cuantil xp satisface la siguiente condicion:

x(pn) ≤ xp ≤ x(pn+1).

Es decir, xp se encuentra entre dos datos de orden consecutivo. El menor es el

de orden np y el mayor es el dato siguiente en la muestra ordenada.

– Si esa cantidad no es un entero aproximamos xp = x([np+1]), donde [x] denota

la parte entera de x. Esto es el dato cuyo orden es el entero inmediatamente

superior a np.

(ii) Si no disponemos de la muestra bruta y los datos vienen agrupados en clases o

intervalos y se tiene la tabla de frecuencias, tenemos que:

(1.7) xp = Lp +np− Fpfp

∗ c, con k = 1, 2, 3, ...

donde,

• Lp es el lımite inferior de la clase del cuantil de orden p.

• n es el numero de datos.

• Fp es la frecuencia acumulada (es la suma de las frecuencias absolutas de todos los

valores inferiores o iguales a un valor considerado) de la clase que antecede a la clase

del cuantil de orden p.

• fp es la frecuencia absoluta (numero de veces que se repite un determinado valor)

de la clase del cuantil de orden p.

• c es la longitud del intervalo de clase del cuantil de orden p.

La justificacion de la formula 1.7 se deriva de lo siguiente:

Sea (li−1, li] el intervalo donde se encuentra el cuantil xp, entonces dicho cuantil se obtiene

a partir de las frecuencias absolutas acumuladas, mediante interpolacion lineal (Teorema de

2. NOCIONES BASICAS DE ESTADISTICA. 25

Tales) como sigue (ver Figura 1.12):

(1.8)CC ′

AC=BB′

AB⇒ ni

c=np− ni−1

xp − li−1

.

Luego,

xp = li−1 +np− ni−1

ni∗ c, con k = 1, 2, 3, ...

Figura 1.12. Calculo de cuantiles en distribuciones agrupadas.

Ejemplo 14.

(i) Calculo de cuantiles cuando se dispone de la muestra bruta ordenada en orden

creciente:

Consideremos los siguientes datos de una muestra de tamano 10:

3 5 7 1 15 2 3 10 9 9

Se desea calcular el cuantil p = 0.32, entonces se procede de la siguiente manera:

– Se ordenan los elementos de la muestra en forma creciente,

1 2 3 3 5 7 9 9 10 15

– En este ejemplo, tenemos que n = 10 (tamano de la muestra) y p = 0.32. El

producto de ambos, np = 11*0.32 = 3.52. Este numero no es entero, entonces

aproximamos por x0,32 = x([3,52+1]) = 4.

2. NOCIONES BASICAS DE ESTADISTICA. 26

Luego el valor correspondiente al estadıstico de orden x(4) es 3. Por lo tanto,

x0,32 = 3.

CAPITULO 2VALOR EN RIESGO.

1. Origen del Valor en Riesgo (VaR).

Algunos de los mas sonados casos de grandes perdidas en los mercados financieros son:

el de Orange County (California), el de Barings (Singapur), el de Metallgesellschaft (grupo

metalurgico aleman), entre otros, en cada uno de los cuales se perdieron miles de millones

de dolares, hicieron que tanto las instituciones financieras, como los entes encargados de

supervisar el comportamiento de los mercados financieros en cada paıs, se dedicasen a crear

tecnicas, que permitiesen medir o cuantificar el “riesgo” en una posicion de mercado.

El termino “riesgo” aparece entre comillas porque tiene varios posibles significados. La

nocion intuitiva, que se refiere a la situacion que puede resultar en “perdidas”, es uno de

ellos. De hecho, se usara este significado para referirse a las variables aleatorias que describen

una posicion de mercado y se usara el termino “medida de riesgo” para referirnos a cualquier

cuantificacion del “riesgo” en una posicion.

El primer perıodo de importantes desarrollos para cuantificar el riesgo fue iniciado por

Markowitz (1953), quien propuso usar la variabilidad de los rendimientos de los activos fi-

nancieros, como medida de riesgo. Ası, la varianza de los rendimientos de los activos, se

27

2. ASPECTOS BASICOS DEL VALOR EN RIESGO (VAR). 28

mantuvo como la medida de riesgo universalmente aceptada hasta finales de la decada de

los ochenta y principio de los noventa, cuando finalmente se hizo evidente que esta, si bien

es una medida de incertidumbre, no proporciona una cuantificacion de las posibles perdidas.

Coincidente con las grandes crisis financieras ocurridas precisamente en este periodo, se

vio la necesidad de que la medida de riesgo, tenıa que expresarse en terminos de perdidas

potenciales, con una cierta probabilidad de ocurrencia.

En respuesta a la necesidad expresada en el parrafo anterior, surge una medida que

aparecio a finales de la decada de los ochenta, denominada el Valor en Riesgo (VaR por

sus siglas en ingles). Despues de la segunda mitad de los noventa, el VaR adquirio mayor

reconocimiento en el mundo como medida del riesgo de mercado de activos o portafolios,

debido al modelo sobre la gestion de riesgos Riskmetrics, promovido y difundido por J.P.

Morgan basado en la metodologıa del Valor en Riesgo.

2. Aspectos Basicos del Valor en Riesgo (VaR).

Es habitual modelar los rendimientos de una accion o cartera de valores a lo largo de

un perıodo de tiempo fijado de antemano como una variable aleatoria Y . En el momento de

efectuar una inversion, su ganancia (futura) es desconocida, por lo que puede considerarse

como un valor aleatorio. La variable Y representara, por tanto, la ganancia que conlleva cier-

ta inversion y el riesgo de dicha inversion puede cuantificarse utilizando una medida de riesgo.

Una medida de riesgo asocia a cada variable aleatoria un valor real que cuantifica el riesgo

de la inversion cuya ganancia esta descrita por la variable.

La medida de riesgo mas utilizada es el Valor en riesgo (VaR) y su concepto hace re-

ferencia a la mınima perdida esperada para una cartera o conjunto de activos en relacion

con un horizonte temporal y un nivel de confianza determinados, medido en una moneda de

referencia especıfica.

2. ASPECTOS BASICOS DEL VALOR EN RIESGO (VAR). 29

Ejemplo 15.

Supongamos que una entidad financiera anuncia que el valor en riesgo (VaR) a un dıa de

una cartera de posiciones es de 1 millon de euros, para un nivel de confianza del 95 %. Esto,

en otras palabras, significa que:

• Existe un 5 % de probabilidad de incurrir en una perdida superior a dicha cuantıa,

o dicho de otro modo, la perdida en 5 de cada 100 dıas se estima superior a 1 millon

de euros.

• De forma analoga, existe un 95 % de probabilidad de que la perdida sea inferior a 1

millon de euros, o lo que es lo mismo, la perdida de la cartera se espera sea inferior

a esta cuantıa 95 de cada 100 dıas.

• En media, una vez al mes, considerando que un mes comprende 20 (1/20 = 5 %)

dıas de negociacion, el valor de la cartera caera mas de 1 millon de euros.

De lo anterior, tenemos que la idea basica del valor en riesgo consiste en asignar el valor

de las perdidas mınimas incurridas con una cierta probabilidad, donde las hipotesis basicas

se refieren a las variables cuyo riesgo se cuantifica y el lapso al cual se refiere dicho analisis.

Lo ultimo es lo primero que hay que mencionar: el lapso durante el cual se cuantifica el

riesgo. Se supone que el mercado financiero evoluciona durante un solo lapso. El tiempo real

al que esto corresponde es arbitrario, pueden ser dıas, meses o anos. Si, por ejemplo, X(0) es

el valor al iniciar el perıodo y X(t) es el valor final, el valor en riesgo (VaR) se puede asignar

al retorno R = (X(t) - X(0))/X(0), a su expresion equivalente R = (X(t)/X(0)) - 1 o al cambio

(ganancia) en el valor del activo Y = X(t) - X(0).

Generalmente a la variable aleatoria se le llama posicion y decimos que estamos en una

posicion Y . Pero lo importante es que en cada caso quede claro si se habla del precio del acti-

vo al final del lapso, del retorno durante un lapso, o de la ganancia o perdida durante el lapso.

Subyacente a todo hay un modelo de mercado, consistente en este caso en la especifi-

cacion de una terna (Ω, F, P), en donde Ω es un espacio muestral, F es una σ-algebra de

3. DEFINICION DEL VALOR EN RIESGO (VAR). 30

subconjuntos de Ω, y P es una medida de probabilidad definida sobre F. Algunas veces, en

finanzas, a los elementos de Ω tambien se les llama escenarios y a la medida de probabilidad,

escenarios generalizados.

Figura 2.1. Valor en Riesgo (VaR).

3. Definicion del Valor en Riesgo (VaR).

Definicion 30. (Valor en Riesgo (VaR)).

Dado un nivel de confianza α ∈ (0,1), el valor en riesgo (VaR) de una posicion de mercado

con un nivel de confianza α, viene dado por el menor valor y tal que la probabilidad de que

la perdida Y exceda a y no es mayor que 1 - α. Formalmente,

(2.1) V aRα(Y ) = −infy ∈ R | P(Y > y) < 1− α.

Esta definicion de VaR hace referencia al opuesto del cuantil superior de orden α. En

efecto,

(2.2) V aRα(Y ) = −infy ∈ R | 1− FY(y) < 1− α = −infy ∈ R | FY(y) > α.

4. ENFOQUES BASICOS PARA EL CALCULO DEL VAR. 31

4. Enfoques Basicos para el Calculo del VaR.

A continuacion se describen brevemente algunos de los enfoques utilizados en la

actualidad para calcular el cuantil mencionado.

4.1. Metodos Analıticos: Metodo Delta - Normal.

En mercados en equilibrio (sin turbulencia economica) y durante lapsos cortos de tiempo,

es comun usar modelos normales para describir los retornos de los activos.

Si R es el retorno en una posicion, se supone que R ∼ N(µ, σ2) y por lo tanto,

P(R ≤ −V aRα(R)) = P(R− µσ≤ −V aRα(R) + µ

σ) = α.

Usando la tabla de cuantiles xα para la distribucion N(0, 1) se obtiene que:

(2.3) V aRα(R) = −(xασ + µ).

Para el manejo del riesgo los gestores de riesgo muy pocas veces se basan en un solo

activo o inversion, para ello construyen un portafolio o grupo de inversiones. Por lo tanto,

este calculo elemental se extiende para estimar el VaR de un portafolio.

Un portafolio o cartera de inversion se puede definir como una combinacion de activos,

de tal forma que se minimice el riesgo y se maximice las ganancias, es decir, se desea que

la varianza del portafolio sea mınima, donde la posicion de los activos o la eleccion de ellos

determina el rendimiento del portafolio.

Formalmente, un portafolio puede ser considerado como una combinacion lineal de un

numero de variables aleatorias. Ası, el rendimiento de un portafolio se define como

Rp = w1R1 + w2R2 + ...+ wnRn,

donde wi es el peso de cada retorno dentro del portafolio y Ri es la tasa de rendimiento del

activo i, para i = 1,2,...,n.

4. ENFOQUES BASICOS PARA EL CALCULO DEL VAR. 32

De manera matricial esto puede escribirse como

Rp = w′R,

donde w = (w1, w2, ..., wn) es el vector de pesos y R = (R1, R2, ..., Rn) la matriz de rendimien-

tos individuales de los activos.

Extendiendo las formulas para la estimacion de la media y la varianza en 2.3, tenemos

que el rendimiento esperado es

(2.4) E(Rp) = µp =n∑i=1

wiµi.

Tambien se puede expresar matricialmente de la forma

(2.5) E(Rp) = µp = w′µ.

Ademas, la expresion para la varianza viene dada por

(2.6) V(Rp) = σ2p =

n∑i=1

w2i σ

2i + 2

∑j

∑i<j

wiwjσij,

donde σij es la covarianza entre el activo i y el activo j. De igual forma que el valor esperado,

V(Rp) tambien se puede expresar de forma matricial como

(2.7) V(Rp) = σ2p = w′Σw,

donde Σ es la matriz de varianza - covarianzas de los activos y µ el vector de medias de los

activos.

La obtencion de las expresiones 2.4, 2.5, 2.6 y 2.7 se detallan en el capıtulo 4 de esta

monografıa.

Luego, para calcular el valor en riesgo a nivel α del portafolio, simplemente se sustituye

la media y la varianza del portafolio en 2.3.

4. ENFOQUES BASICOS PARA EL CALCULO DEL VAR. 33

Por lo tanto, el VaR de un portafolio calculado por el metodo analıtico Delta Normal

viene dado por

(2.8) V aRα(Ri) = −

(xα

[n∑i=1

w2i σ

2i + 2

∑j

∑i<j

wiwjσij

]+

n∑i=1

wiµi

).

4.2. Simulacion Historica.

Otra manera a partir de la que se puede obtener el VaR es a traves de la informacion

historica de la serie de retornos; en este caso, no se asume que la serie siga alguna distribu-

cion parametrica en particular. En esta metodologıa, el VaR es calculado como el α-esimo

percentil empırico de perdidas y ganancias.

En pocas palabras, la simulacion historica utiliza datos historicos para determinar el im-

porte del VaR, es decir, intenta anticiparse a lo que puede ocurrir en el futuro a partir de

datos pasados recientes. El objetivo es medir el VaR a partir de una distribucion empırica

de cambios en el valor de la cartera.

La simulacion historica requiere el cumplimiento secuencial de los siguientes pasos:

• Obtener los precios de las variables de mercado identificadas como factores de riesgo

en un perıodo de tiempo inmediatamente anterior. Por ejemplo: el tipo de cambio

de los ultimos 200 dıas. En en cuadro que se muestra a continuacion, se pueden

observar los precios en un perıodo de N dıas de los t factores de riesgo identificados.

El dıa cero es el mas lejano hacia atras en el tiempo, mientras que el dıa N es el dıa

de hoy.

Figura 2.2. Precios diarios de los factores de riesgo.

4. ENFOQUES BASICOS PARA EL CALCULO DEL VAR. 34

• Calcular las variaciones porcentuales diarias de los valores de todos los factores de

riesgo. Si, por ejemplo P(0) es el precio inicial de la variable de mercado al ini-

ciar el perıodo y P(t) es el precio final, la expresion utilizada para el retorno es r

= (P(t)/P(0)) - 1. Estos retornos para cada variable de mercado se exhiben en el

siguiente cuadro:

Figura 2.3. Retornos diarios de los factores de riesgo.

• Aplicar los retornos diarios al valor corriente de cada activo y sumarlos, es decir,

calcular el producto del retorno diario con el valor de posicion del activo para el

cierre del dıa que se simboliza como ∂V. El resultado de la suma es la variacion del

valor de la cartera en ese dıa. Esto proporciona N escenarios alternativos sobre lo

que podrıa ocurrir de hoy para manana en el valor de la cartera. En el siguiente

cuadro se muestran los cambios de valor diarios de la cartera. Con la letra V se

simboliza el valor de la posicion en cada activo al cierre del dıa de hoy y con la letra

C se simboliza el valor de la cartera.

4. ENFOQUES BASICOS PARA EL CALCULO DEL VAR. 35

Figura 2.4. Variaciones diarias en el valor de la cartera.

• Ordenar los cambios diarios de valor de la cartera en forma creciente. Esto define

una distribucion de probabilidad de las variaciones diarias de valor de la cartera.

Figura 2.5. Variaciones diarias en el valor de la cartera ordenadas en forma creciente.

• Seleccionar la variacion que se corresponde con el nivel de confianza que se desea

tener, denominada variacion de corte. Por ejemplo, si hay 200 observaciones y se

desea tener un 99 % de confianza se tomara el segundo peor cambio de valor (1 %

de 200 es 2). El importe obtenido es el valor en riesgo (VaR).

Ejemplo 16.

Supongamos que un administrador de fondos privados desea informar a sus clientes una

medida del riesgo de sus inversiones. Especıficamente, desea informarles cuanto pueden llegar

4. ENFOQUES BASICOS PARA EL CALCULO DEL VAR. 36

a perder de un dıa para el otro. Segun lo observado, la aplicacion del VaR a la cartera per-

mitirıa obtener tal informacion. El analisis se hara a traves del enfoque simulacion historica.

Supongamos ademas, que la cartera armada por el administrador de fondos esta com-

puesta por diez acciones que cotizan diariamente en la Bolsa de Comercio de Buenos Aires

formando parte del ındice Merval. Este ındice mide el valor de mercado de una cartera de

acciones de empresas seleccionadas de acuerdo a la participacion, cantidad de transacciones

y valor de cotizacion en la Bolsa de Comercio de Buenos Aires.

Cada accion tiene una participacion del 10 % en el valor total de la cartera.

A continuacion, se presentan las acciones incluidas en la cartera.

Figura 2.6. Acciones incluidas en la cartera armada por el administrador de fondos.

Descrita la composicion de la cartera, corresponde continuar con las etapas de calculo

del VaR senaladas anteriormente.

• Perıodo de tiempo: dado que la cartera se podrıa liquidar en un dıa, el perıodo de

tiempo que cubrira el VaR sera de un dıa.

• Nivel de confianza: el nivel de confianza deseado es de 99 %. Se desea que las perdidas

de valor de la cartera solo sean mayores a las predichas por el VaR el 1 % de los dıas.

• Valor de mercado de la cartera: el valor de mercado corriente de la cartera es de

$10.000.000. Consecuentemente, cada una de las diez acciones participa en la cartera

4. ENFOQUES BASICOS PARA EL CALCULO DEL VAR. 37

con un valor de $1.000.000.

• Factores de riesgo: dado que la cartera esta compuesta solo por acciones, los unicos

factores de riesgo que pueden afectarla son los precios de tales acciones.

Los factores de riesgo son los precios de las acciones comprendidas por la cartera.

Los datos historicos a obtener son las series de precio de cierre de tales acciones, los

cuales fueron obtenidos del sitio web www.bolsar.com.ar para el perıodo 01/01/03 -

31/07/04 (394 precios de cierre para cada accion). En el siguiente cuadro se pueden

observar los precios en un perıodo de 394 dıas de los 10 factores de riesgo identifi-

cados.

Figura 2.7. Precios diarios de los factores de riesgo.

En el cuadro 2.8 se muestra el calculo de las variaciones porcentuales diarias de los preciosde las acciones. Dado que hay 394 precios de cierre para cada accion, se obtienen 393 retornos

para cada accion.

Figura 2.8. Retornos diarios de los factores de riesgo.

4. ENFOQUES BASICOS PARA EL CALCULO DEL VAR. 38

Los retornos diarios se aplican al valor corriente de cada accion ($1.000.000) y se suman.

El resultado de la suma es la variacion de valor de la cartera en ese dıa. Esto nos proporciona

393 escenarios historicos alternativos sobre lo que podrıa ocurrir de hoy para manana con el

valor de la cartera.

Figura 2.9. Variaciones de valor diarias de la cartera.

A continuacion se ordenan los cambios diarios de valor de la cartera de menor a mayor

definiendose una distribucion de probabilidad de las variaciones diarias de valor de la cartera.

En el cuadro 2.10 se exhiben estos cambios ordenados y en el grafico 2.11 se puede observar

la distribucion empırica de cambios de valor.

Figura 2.10. Variaciones de valor diarias de la cartera ordenadas de menor a mayor.

4. ENFOQUES BASICOS PARA EL CALCULO DEL VAR. 39

Figura 2.11. Distribucion de variaciones de valor de la cartera.

En el grafico 2.11 se muestra la distribucion empırica (barras azules) y la distribucion

normal de variaciones de valor de la cartera (lınea roja). Se puede observar que la distribu-

cion empırica es bastante similar a la normal, excepto por algunos movimientos extremos

(outliers) hacia el lado negativo que no se corresponden en esta ultima.

Finalmente, se selecciona la variacion de corte que es aquella que se corresponde con el

nivel de confianza que se desea tener. En la muestra hay 393 observaciones y se definio un

nivel de confianza de 99 %, por lo que la variacion de corte sera el cuarto peor cambio de

valor (1 % de 393 es aproximadamente 4).

En el cuadro 2.10 se busca el cuarto peor cambio de valor (en rojo) y el importe encon-

trado es -626.478,72. El cual VaR es 626.478,72 y representa el 6,26 % del valor de la cartera.

5. VENTAJAS Y DESVENTAJAS DE LOS ENFOQUES BASICOS PARA EL CALCULO DEL VAR. 40

Luego el administrador de fondos podrıa decirle a sus clientes que como maximo en 1 de

cada 100 dıas, la cartera podrıa perder 6.26 % o mas de su valor.

5. Ventajas y Desventajas de los Enfoques Basicos para el Calculo del VaR.

Si se tratase de decidir cual enfoque para calcular el Var es el mejor, desafortunadamente

no existe una respuesta sencilla.

Los enfoques difieren en su facilidad de implementacion, su facilidad para presentar y

explicar resultados, la flexibilidad para analizar efectos de cambios de supuestos y por ulti-

mo en la confiabilidad de los resultados. El mejor metodo podra ser seleccionado entonces

dependiendo de cual de los aspectos anteriores es mas relevante.

La simulacion historica y el metodo parametrico Delta - Normal son faciles de imple-

mentar. El metodo de simulacion historica tiene buena aceptacion, porque no se basa en

supuestos de correlaciones y volatilidades que en situaciones de movimientos extremos en los

mercados pudieran no cumplirse. Tampoco descansa en el supuesto de normalidad.

Uno de los problemas mas serios y conocidos del VaR Parametrico o Delta Normal es

que subestima la frecuencia de los “eventos extremos”, tales como resultados alejados de

la media. Esto se debe a que las distribuciones de retornos presentan “colas pesadas”, es

decir, los resultados se ubican mas hacia las puntas que hacia el centro de la distribucion.

La evidencia empırica demuestra que la distribucion de los retornos de los activos no suele

seguir una distribucion normal.

Esta propiedad de la distribucion de retornos de los activos genera problemas a la hora de

calcular el VaR parametrico que asume que la distribucion se puede aproximar a una Normal.

Una alternativa que no presenta este problema es el Metodo de Simulacion Historica

descrito en el punto anterior. Sin embargo, mientras esta alternativa se abstrae completa-

mente del tema de elegir una distribucion de los retornos de los activos, su aplicacion en la

5. VENTAJAS Y DESVENTAJAS DE LOS ENFOQUES BASICOS PARA EL CALCULO DEL VAR. 41

practica es limitada si se cree que el comportamiento historico de los retornos de los activos

no es un buen predictor de los retornos futuros.

Un segundo problema que presenta el Metodo Delta - Normal es que se debe calcular

el VaR sobre la base de las varianzas y covarianzas de los instrumentos que componen el

portafolio, y estas no siempre estan disponibles. Aun cuando esten disponibles, las varianzas

y covarianzas de los retornos de los activos pueden no ser estables en el tiempo debido a

cambios estructurales en el mercado, cambios en la polıtica monetaria o fiscal, tratamiento

tributario de los activos y otros cambios. Lamentablemente, esta informacion usualmente es

difıcil o hasta imposible de evaluar.

Debido a todo lo anterior, es que surge la necesidad de encontrar metodos alternativos

para la estimacion del VaR.

CAPITULO 3METODOLOGIA BOOTSTRAP.

En muchos procedimientos estadısticos es necesario conocer determinadas caracterısticas

de la distribucion muestral de los estadısticos o los estimadores empleados. Ası, por ejem-

plo, en el contraste de hipotesis se necesitan los percentiles de la distribucion muestral del

estadıstico de contraste, mientras que en problemas de estimacion es esencial tener alguna

medida de la exactitud, por ejemplo, el sesgo, la varianza o el error cuadratico medio del

estimador obtenido.

Un enfoque clasico para obtener medidas de exactitud de un estimador es calcularlas me-

diante analogos empıricos de las formulas explıcitas obtenidas bajo un modelo determinado.

Sin embargo, en la mayorıa de los estadısticos es muy dıficil o imposible obtener formulas

exactas y explıcitas de las medidas de exactitud. Los metodos de remuestreo reemplazan las

derivaciones teoricas del enfoque clasico por la evaluacion de los estadısticos en remuestras

obtenidas a partir de los datos originales, y mediante estos valores se obtienen estimadores

de las medidas de exactitud o de la distribucion muestral del estadıstico.

42

1. METODO BOOTSTRAP. 43

Los metodos de remuestreo mas populares en la literatura estadıstica son el Jackknife de

Quenouville (1949) y Tukey (1958), y el Bootstrap de Efron (1979).

El desarrollo de este trabajo se basa en el Metodo Bootstrap.

1. Metodo Bootstrap.

En el ano 1979, y a partir de un profundo y reflexivo analisis sobre el origen y evolucion

de los metodos estadısticos, tanto al nivel teorico como aplicado, Bradley Efron desarrolla el

metodo Bootstrap. El termino Bootstrap, expresion inglesa que significa “levantarse tiran-

do hacia arriba de las propias correas de las botas”, refleja el aspecto fundamental de esta

tecnica, su autosuficiencia.

Concretamente, la idea basica sugerida por Efron es la siguiente:

“Si una muestra aleatoria contiene la maxima informacion disponible sobre la poblacion,

¿por que no proceder como si la muestra fuese la poblacion y, entonces, estimar la distribu-

cion muestral de un estadıstico generando nuevas muestras mediante un muestreo aleatorio

con reposicion, a partir de los datos de la muestra original?”.

En el remuestreo (bootstrapping), se trata la muestra como si fuera la poblacion y se

realiza un procedimiento del estilo Monte Carlo sobre la muestra. Esto se hace extrayendo

un gran numero de remuestras de tamano n de la muestra original aleatoriamente y con

reposicion.

Ası, aunque cada remuestra tendra el mismo numero de elementos que la muestra origi-

nal, mediante el remuestreo con reposicion cada remuestra podrıa tener algunos de los datos

originales representados en ella mas de una vez, y algunos que no apareceran. Por lo tanto,

cada una de estas remuestras probablemente seran levemente y aleatoriamente diferente de la

muestra original. Y como los elementos en estas remuestras varıan levemente, un estadıstico

θ∗, calculado a partir de una de esas remuestras probablemente tomara un valor ligeramente

1. METODO BOOTSTRAP. 44

diferente de los otros θ∗ y del θ original.

La afirmacion fundamental del remuestreo (bootstrapping) es que una distribucion de

frecuencias relativas de esos θ∗ calculada a partir de las remuestras es una estimacion de la

distribucion muestral de θ (Mooney y Duval, 1993).

Mas formalmente, los pasos basicos en la estimacion bootstrap son los siguientes (Efron,

1979; Hinckley, 1988; Efron y Tibshirani, 1993):

(i) Asignar una probabilidad de 1n

a cada observacion, x1, x2,..., xn de la muestra.

(ii) A partir de la muestra original se extrae una muestra aleatoria simple de tamano n

con reposicion. Esta es una remuestra, x∗b.

(iii) Se calcula el estadıstico de interes, θ, a partir de esa remuestra, obteniendo θ∗b.

(iv) Se repiten los pasos 2 y 3 B veces, donde B es un numero grande. La magnitud de B

en la practica depende de las pruebas que se van a aplicar a los datos. En general,

B deberıa ser de entre 50 a 200 para estimar el error tıpico de θ, y al menos de

1000 para estimar intervalos de confianza alrededor de θ (Efron y Tibshirani, 1986,

1993).

(v) Contruir una distribucion de probabilidad a partir de los θ∗b, calculados en las B

remuestras bootstrap, asignando una probabilidad de 1/B a cada punto, θ∗1, θ∗2,...,

θ∗B. Esta distribucion es la estimacion Bootstrap de la distribucion muestral de θ,

F ∗(θ∗).

El estimador bootstrap del parametro, en este caso, la media muestral se define como:

(3.1) θ∗ =1

B

B∑b=1

θ∗b

es decir, como la media de los valores del estadıstico calculados en las B remuestras bootstrap.

1. METODO BOOTSTRAP. 45

Figura 3.1. Metodo Bootstrap.

Ejemplo 17.

Considere una muestra aleatoria de tamano n = 10 con las siguientes observaciones:

x1 x2 x3 x4 x5 x6 x7 x8 x9 x10

-15.4 -8.8 8.2 3.4 -7.1 4.5 -12.7 5.2 -10.6 -11.2

La siguiente tabla ilustra el procedimiento bootstrap para B = 10, donde x∗ representa la

media de la remuestra.

Muestras x1 x2 x3 x4 x5 x6 x7 x8 x9 x10 x∗

1 4.5 -7.1 -7.1 -11.2 4.5 -15.4 -8.8 8.2 5.2 3.4 -2.38

2 -15.4 -12.7 3.4 5.2 -10.6 8.2 4.5 4.5 4.5 -8.8 -1.72

3 -7.1 3.4 -15.4 -15.4 4.5 -8.8 -12.7 8.2 8.2 -12.7 -4.78

4 -10.6 8.2 3.4 -12.7 4.5 -8.8 5.2 3.4 -12.7 8.2 -1.19

5 -11.2 5.2 -12.7 5.2 -11.2 4.5 -8.8 -11.2 3.4 -7.1 -4.39

6 -15.4 5.2 3.4 -12.7 -10.6 8.2 -8.8 -10.6 3.4 5.2 -3.27

7 -7.1 8.2 -8.8 4.5 -10.6 -11.2 -8.8 8.2 3.4 4.5 -1.77

8 8.2 5.2 8.2 -11.2 8.2 3.4 -10.6 5.2 8.2 -15.4 0.94

9 -10.6 -12.7 8.2 -11.2 8.2 -7.1 3.4 -12.7 -7.1 5.2 -3.64

10 -7.1 3.4 5.2 3.4 4.5 -12.7 -11.2 8.2 3.4 -11.2 -1.41

1. METODO BOOTSTRAP. 46

La media muestral bootstrap es x∗ = 1B

∑Bi=1 x

∗i = -2.22.

El procedimiento bootstrap que se observo en la tabla anterior consistio en asignar una

probabilidad de 1/10 a cada observacion de la muestra original.

A partir de la muestra original se extrajo una muestra aleatoria de tamano n = 10 con

reposicion utilizando el software computacional R. Esta muestra constituye la primera re-

muestra bootstrap.

A la remuestra obtenida se le calculo el estadıstico de interes, en este caso la media mues-

tral.

Este procedimiento se repitio nueve veces mas hasta obtener las 10 remuestras bootstrap.

Para finalizar, se calculo la media muestral bootstrap, es decir, x∗ = 1B

∑Bi=1 x

∗i = -2.22.

1.1. Metodo Monte Carlo.

El metodo Monte Carlo se inicia en experimentos sobre series de numeros aleatorios,

como las generadas por el lanzamiento sucesivo de un dado o los resultados de una rueda

de ruleta. El termino Monte Carlo se generaliza por esta analogıa con los juegos de azar,

y empieza a utilizarse hacia 1944, casi al final de la Segunda Guerra Mundial, momento

en que se inicia el desarrollo de estos metodos, al ser aplicado por Fermi, von Neumann y

Metropolis para dar solucion a problemas relacionados con la fusion nuclear, que aparecieron

en la construccion de la Bomba Atomica.

J.E Gentle (1985) ofrece una definicion general de los metodos Monte Carlo, que incluye

su aplicacion en el ambito de la estadıstica:

El metodo Monte Carlo es aquel en el que las propiedades de las

distribuciones de las variables aleatorias son investigadas mediante la

simulacion de numeros aleatorios (p.612).

CAPITULO 4ESTIMACION DE CUANTILES.

Sean X1, X2,..., Xn variables aleatorias independientes e identicamente distribuidas, con

funcion de distribucion continua F , donde X(1) ≤ X(2) ≤ ... ≤ X(n) denotan la muestra

ordenada.

Se define la funcion cuantil como la inversa generalizada de la funcion de distribucion F ,

es decir,

Q(p) = F−1(p) = infx ∈ R : F (x) ≥ p para 0 < p < 1.

Un estimador basico de Q(p), el pth cuantil muestral de orden p es

(4.1) Q(p) = F−1(p) = X[np]+1:n,

donde [·] denota la funcion parte entera.

Notese que Q(p) = Xi:n para i−1n≤ p < i

n, con i = 1,...,n.

Sin embargo, se presenta un estimador alternativo para Q(p), que resulta ser una com-

binacion lineal de los estadısticos de orden.

47

4. ESTIMACION DE CUANTILES. 48

A este estimador se le denomina L-estimador o L-estadıstico y se define como

(4.2) Tn(p) =n∑i=1

ciX(i),

donde∑n

i=1 ci = 1.

La eleccion de los pesos ci en 6.2 determinan las propiedades y funcionalidad de Tn.

Ejemplo 18.

• La media truncada de orden α, denotada por T (α), es un estimador que elimina

el α% de las observaciones inferiores y el α% de las observaciones superiores de la

muestra ordenada, es un L-estimador. Se define como:

T (α) =n∑i=1

ciX(i)

siendo los pesos,

ai =

0 si i ≤ [α.n] o i ≥ n− [α.n] + 1

1−rn(1−2α)

si i = [α.n] + 1 o i = n− [α.n], con r = [α.n]− α.n1

n(1−2α)si [α.n] + 2 ≤ i ≤ n− [α.n]− 1

• La mediana, definida como:

Md =

Xn+12

si n es parXn

2+Xn

2 +1

2si n es impar

que se puede considerar como una media truncada donde el orden depende del

numero de observaciones, α = n−12n

, es un L-estimador.

• La media winsorizada, definida por:

xwk =1

n[(k + 1)X(k+1) +

n−k−1∑i=k+2

X(i) + (k + 1)X(n−k)]

es un L-estimador.

4. ESTIMACION DE CUANTILES. 49

Observacion 8.

La media winsorizada es muy parecida a la media recortada de orden α, en esta un

determinado porcentaje de valores extremos se sustituyen por el valor inmediatamente

anterior o posterior y se calcula la media de todos los valores.

Las propiedades muestrales de un L-estimador en el caso de grandes muestras han si-

do estudiadas extensivamente y existen resultados muy importantes, ver por ejemplo, Reiss

(1989) y Serfling (1980).

Parr & Schucany (1982) usaron el jackknife para obtener el estimador de la varianza de

un L-estimador. Otro metodo que ha ayudado en las dificultades teoricas con respecto a los

L-estimadores, es el Bootstrap, introducido por Efron en 1979.

Shao & Tu (1995) presentaron una investigacion teorica detallada y actualizada del meto-

do Bootstrap, tambien ver Lepage y Billard (1992).

Por otra parte, Efron & Tibshirani (1993) y Davinson & Hinkley (1997) proporcionaron

un enfoque practico de este metodo.

En el Bootstrap, la tecnica Monte Carlo no puede considerarse un elemento inherente a

este metodo, se usa solo como ultimo recurso, cuando los calculos “exactos”son difıciles o

imposibles, que resulta ser la mayorıa de los casos.

Sin embargo, en este Capıtulo, se muestra como varias estimaciones Bootstrap de los mo-

mentos relacionados con los L-estimadores pueden ser obtenidas directamente, eliminando

ası el paso de remuestreo en la estimacion.

Es decir, al hacer referencia a Bootstrap “Exacto”, el termino “exacto” especifica la

ausencia de la simulacion Monte Carlo en el procedimiento de estimacion Bootstrap.

4. ESTIMACION DE CUANTILES. 50

Las estimaciones Bootstrap Exactas desarrolladas en este capıtulo, estan basadas en el

enfoque de Hutson y Ernst (2000). El enfoque de estos autores que se basa en hacer uso di-

recto de la distribucion bootstrap de una estadıstica de orden en relacion con la distribucion

conjunta de dos estadısticas de orden, implica directamente el bootstrap exacto de la media

y el bootstrap exacto de la varianza de cualquier L-estimador.

La clave esta en la obtencion del vector media bootstrap y la matriz de covarianzas

bootstrap de todo el conjunto de estadısticas de orden, obteniendose ası la combinacion

lineal especıfica correspondiente al estimador de interes.

Estas expresiones exactas eliminan el uso de metodos de computacion intensiva en la

aproximacion de remuestreo bootstrap y su error asociado. Esto abre la puerta a:

(i) Una mejor estimacion del error estandar bootstrap y mejores intervalos bootstrap.

(ii) Mayor uso de los estimadores robustos en otras aplicaciones como el analisis de

varianza.

(iii) Y nuevos estudios teoricos de los estimadores bootstrap.

Por otra parte, se desean obtener las estimaciones bootstrap exactas no parametricas

para

µr:n = E(Xr:n)

σ2r:n = var(Xr:n)

σrs:n = cov(Xr:n, Xs:n)

y se denotan por µr:n, σ2r:n y σrs:n respectivamente, donde 1 ≤ r < s ≤ n.

La media y la varianza bootstrap de cualquier Tn son una consecuencia directa de estas

estimaciones.

Sea c = (c1, c2, ..., cn)′

el vector n x 1 de constantes correspondientes a un L-estimador

especıfico 6.2 y sea

µ = (µ1:n, µ2:n, ..., µn:n)′

4. ESTIMACION DE CUANTILES. 51

el vector bootstrap de la media de las estadısticas de orden.

Sea la matriz n x n bootstrap de covarianza de las estadısticas de orden, definida como

(4.3) Σ =

σ2

1:n σ12:n . . . σ1n:n

σ21:n σ22:n . . . σ2n:n

......

. . ....

σn1:n σn2:n . . . σ2n:n

.

De ello se deduce que la media bootstrap y la varianza bootstrap de Tn estan dadas por

(4.4) µTn = c′µ =n∑i=1

ciµi:n

y

(4.5) σ2Tn =

n∑i=1

c2i σ

2i:n + 2

∑j

∑i<j

cicjσij:n

respectivamente.

En efecto,

E[Tn] = E[n∑i=1

ciX(i)]

=n∑i=1

ciE[X(i)]

=n∑i=1

ciµ(i),

1. BOOTSTRAP EXACTO DE LA MEDIA. 52

y

V ar(Tn) = V ar

(n∑i=1

ciX(i)

)

= E

(n∑i=1

ciX(i) − E

(n∑i=1

ciX(i)

))2

= E

(n∑i=1

ciX(i) −n∑i=1

ciµ(i)

)2

= E

(n∑i=1

ci(X(i) − µi)

)2

= E

(n∑i=1

c2i (X(i) − µi)2 +

∑j

∑i<j

cicj(X(i) − µi)(X(j) − µj)

)

=n∑i=1

c2iE(X(i) − µi)2 +

∑j

∑i<j

cicjE((X(i) − µi)(X(j) − µj))

=n∑i=1

c2i var(X(i)) +

∑j

∑i<j

cicjcov(X(i), X(j))

Pero tenemos que cov(X(i), X(j)) = cov(X(j), X(i)) entonces

σ2Tn =

n∑i=1

c2i σ

2i:n + 2

∑j

∑i<j

cicjσij:n.

Los detalles de como calcular los elementos de µ y Σ directamente sin remuestreo se

presentan en las Secciones 1 y 2 respectivamente.

1. Bootstrap Exacto de la Media.

Dado que la muestra de estadısticas de orden X = (X1:n, X2:n,..., Xn:n) es de ındice fijo,

entonces una remuestra bootstrap no parametrica se genera al tomar una muestra de tamano

n con reemplazo de X.

Esto es equivalente a la generacion de una muestra aleatoria de tamano n de una

distribucion Uniforme(0,1), con estadısticos de orden correspondientes U = (U1:n,..., Un:n) y

1. BOOTSTRAP EXACTO DE LA MEDIA. 53

la aplicacion de la funcion cuantil muestral

(4.6) Q(p) = F−1(p) = X([np]+1:n),

para cada componente de U , donde 0 < p < 1 y [·] denota la funcion parte entera, es decir,

Q(p) = Xi:n en la region dada por i−1n≤ p < i

npara i = 1,...,n.

De lo anterior se deducen los elementos de µ que se presentan en el siguiente teorema.

Teorema 4.1. La estimacion Bootstrap Exacta (EB) de µr:n, con 1 ≤ r ≤ n, es

(4.7) µr:n = EQ(Xr:n) =n∑j=1

wj(r)Xj:n,

donde

(4.8) wj(r) = r

(n

r

)B(

j

n; r, n− r + 1)− B(

j − 1

n; r, n− r + 1),

y

(4.9) B(x; a, b) =

∫ x

0

ta−1(1− t)b−1dt.

es la funcion Beta incompleta.

Demostracion.

A partir de la definicion de la esperanza tenemos

µr:n = E(Xr:n)

=

∫ ∞−∞

xrfr(xr)dxr

=

∫ ∞−∞

r

(n

r

)xrF

r−1(xr)[1− F (xr)]n−rf(xr)dxr (utilizando la proposicion 3)

= r

(n

r

)∫ 1

0

ur−1r (1− ur)n−rF−1(ur)dur (cambio de variable ur = F (xr))

= r

(n

r

)∫ 1

0

Q(ur)ur−1r (1− ur)n−rdur (sustituyendo F−1(ur) por Q(ur))

= r

(n

r

) n∑j=1

∫ jn

(j−1)n

Q(ur)ur−1r (1− ur)n−rdur (particionando el intervalo [0,1] en n partes).

1. BOOTSTRAP EXACTO DE LA MEDIA. 54

Luego, sustituyendo la funcion cuantil muestral Q(ur) = Xi:n para una region dada i−1n

≤ p < in

con i = 1,...,n en Q(ur) tenemos

µr:n = EQ(Xr:n) =n∑j=1

wj(r)Xj:n

donde

wj(r) = r

(n

r

)B(

j

n; r, n− r + 1)− B(

j − 1

n; r, n− r + 1),

y

B(x; a, b) =

∫ x

0

ta−1(1− t)b−1dt.

De la ecuacion 4.4 y del Teorema 4.1 se deduce que el estimador Bootstrap Exacto de la

media Tn es

(4.10) µTn =n∑i=1

n∑j=1

ciwj(i)Xj:n.

Observacion 9.

Es interesante e importante senalar que teoricamente µTn es tambien un L-estimador de

la forma∑n

j=1 kjXj:n, donde kj =∑n

i=1 ciwj(i).

Si ci ≥ 0, para i = 1, 2,..., n (con al menos una desigualdad estricta), como es el caso de

muchos de los estimadores de localizacion, entonces kj > 0, para j = 1, 2,..., n; es decir, µTn

es una suma ponderada de todas las n estadısticos de orden.

Por lo tanto, la existencia del rth momento de Tn no implica necesariamente la existencia

del rth momento de µTn .

Los pesos wj(r) para una muestra de tamano n = 100 y para los cuantiles p = 0.5, 0.95

y 0.99 son presentados en la Figura 4.1 y 4.2.

Los pesos estan distribuidos alrededor de la muestra estimada, con pesos mas grandes

alrededor de X(r) y gradualmente mas pequenos para observaciones distantes.

1. BOOTSTRAP EXACTO DE LA MEDIA. 55

Figura 4.1. Pesos para el Bootstrap Exacto (EB) de distintos estadısticos de

orden cuando n = 100.

Figura 4.2. Pesos para el Bootstrap Exacto (EB) de distintos estadısticos de

orden cuando n = 100.

2. BOOTSTRAP EXACTO DE LA VARIANZA Y COVARIANZA. 56

Kim y Hardy (2007) [9] presentaron una notacion matricial para la expresion de un L-

estimador que es conveniente y util para la programacion con un software computacional

como Matlab.

Para una muestra de tamano n, se define X:n = (X(1), ..., X(n))′ y c es un vector columna

de dimension n. Luego, cualquier L-estimador puede ser expresado como T = c′X:n.

Para un nivel de confianza α en un determinado instante, se tiene que

c = (n(1− α))−1(0, ..., 0, 1, ..., 1)′,

con ceros para los primeros [nα] elementos, para obtener la estimacion a partir de la muestra

c′X:n. Por lo tanto el EB de T , un L-estimador, es

(4.11) E[T ] = E[c′X:n] = c′E[X:n] = c′w′X:n,

donde la matriz w = wi(j)ni,j=1 proviene de los pesos EB para cada elemento de X:n.

2. Bootstrap Exacto de la Varianza y Covarianza.

Los elementos de la matriz de covarianza bootstrap Σ en la expresion 4.3 se presentan

en los siguientes dos teoremas.

Teorema 4.2. La estimacion Bootstrap Exacta (EB) de σ2r:n viene dada por

(4.12) σ2r:n = varQ(Xr:n) =

n∑j=1

wj(r)(Xj:n − µr:n)2,

donde wj(r) fue definido en 4.8.

Demostracion.

A partir de la definicion de la varianza tenemos

2. BOOTSTRAP EXACTO DE LA VARIANZA Y COVARIANZA. 57

σ2r:n = var(Xr:n)

=

∫ ∞−∞

(xr − µr:n)2fr(xr)dxr

=

∫ ∞−∞

(n

r

)(xr − µr:n)2F r−1(xr)[1− F (xr)]

n−rf(xr)dxr (aplicando la proposicion 3)

=

(n

r

)∫ 1

0

ur−1r [1− ur]n−r(F−1(ur)− µr:n)2dur (cambio de variable ur = F (xr))

=

(n

r

) n∑j=1

∫ jn

(j−1)n

ur−1r [1− ur]n−r(Q(ur)− µr:n)2dur.

Particionando el intervalo [0, 1] en n partes y sustituyendo F−1(ur) por Q(ur) se obtiene

la expresion anterior. Luego, sustituyendo la funcion cuantil muestral Q(ur) = Xi:n para una

region dada i−1n≤ p < i

ncon i = 1,...,n en Q(ur) y µr:n en µr:n tenemos

σ2r:n = varQ(Xr:n) =

n∑j=1

wj(r)(Xj:n − µr:n)2,

donde

wj(r) = r

(n

r

)B(

j

n; r, n− r + 1)− B(

j − 1

n; r, n− r + 1),

y

B(x; a, b) =

∫ x

0

ta−1(1− t)b−1dt.

Las unicas soluciones exactas que estan disponibles para la varianza bootstrap de un

L-estimador son para casos especıficos de la media muestral y la mediana muestral (solo

para tamanos de muestras impares).

Maritz & Jarrett (1978) y Efron (1979) [5] propusieron de manera independiente el caso

especıfico de la ecuacion 4.12 para la mediana de una muestra de tamano impar.

2. BOOTSTRAP EXACTO DE LA VARIANZA Y COVARIANZA. 58

Teorema 4.3. La estimacion Bootstrap Exacta (EB) de σrs:n para r < s es

σrs:n = covQ(Xr:n, Xs:n)

=n∑j=2

j−1∑i=1

wij(rs)(Xi:n − µr:n)(Xj:n − µs:n)

+n∑j=1

vj(rs)(Xj:n − µr:n)(Xj:n − µs:n),

donde las expresiones para los pesos son

(4.13) wij(rs) =

∫ j/n

(j−1)/n

∫ i/n

(i−1)/n

frs(ur,us)durdus,

(4.14) vj(rs) =

∫ j/n

(j−1)/n

∫ us

(j−1)/n

frs(ur,us)durdus,

y

(4.15) frs(ur, us) = Crsur−1r (us − ur)s−r−1(1− us)n−s

es la distribucion conjunta de dos estadısticas de orden uniformes Ur:s y Us:n con Crs =

n!(r−1)!(s−r−1)!(n−s)! .

Demostracion.

A partir de la definicion de covarianza tenemos

σrs:n = E[(Xr:n − µr:n)(Xs:n − µs:n)]

=

∫ 1

0

∫ us

0

[Q(ur)− µr:n][Q(us)− µs:n]frs(ur, us)durdus

=n∑j=2

j−1∑i=1

∫ jn

(j−1)n

∫ in

(i−1)n

[Q(ur)− µr:n][Q(us)− µs:n]frs(ur, us)durdus

+n∑j=1

∫ jn

(j−1)n

∫ us

(j−1)n

[Q(ur)− µr:n][Q(us)− µs:n]frs(ur, us)durdus.

2. BOOTSTRAP EXACTO DE LA VARIANZA Y COVARIANZA. 59

Sustituyendo Q, µr:n y µs:n en Q, µr:n y µs:n respectivamente y teniendo en cuenta que

Q(u) = Xi:n para la region i−1n≤ p < i

ncon i = 1,..., n obtenemos

σrs:n = covQ(Xr:n, Xs:n) =n∑j=2

j−1∑i=1

wij(rs)(Xi:n − µr:n)(Xj:n − µs:n)

+n∑j=1

vj(rs)(Xj:n − µr:n)(Xj:n − µs:n).

Por otra parte, para la obtencion de los pesos wij(rs) y vj(rs) en las ecuaciones 4.13 y 4.14,

la clave es considerar que la expansion de la serie Binomial de (us − ur)s−r−1 en la ecuacion

4.15 es

(4.16) (us − ur)s−r−1 =s−r−1∑k=0

(s− r − 1

k

)(−1)s−r−1−kuksu

s−r−1−kr .

Entonces, frs(ur, us) puede ser escrita como

(4.17) frs(ur, us) = Crs

s−r−1∑k=0

(s− r − 1

k

)(−1)s−r−1−kus−k−2

r uks(1− us)n−s.

Usando esta expresion en la ecuacion 4.13 resulta que

wij(rs) = Crs

s−r−1∑k=0

(s− r − 1

k

)(−1)s−r−1−k

∫ i/n

(i−1)/n

us−k−2r dur

∫ j/n

(j−1)n

uks(1− us)n−sdus

= Crs

s−r−1∑k=0

(s− r − 1

k

)(−1)s−r−1−k

s− k − 1[(i

n)s−k−1 − (

i− 1

n)s−k−1]

× [B(k + 1, n− s+ 1;j

n)− B(k + 1, n− s+ 1;

j − 1

n)],

2. BOOTSTRAP EXACTO DE LA VARIANZA Y COVARIANZA. 60

Analogamente, para la ecuacion 4.14 tenemos

vj(rs) = Crs

s−r−1∑k=0

(s− r − 1

k

)(−1)s−r−1−k

s− k − 1[B(s, n− s+ 1;

i

n)

− B(s, n− s+ 1;i− 1

n)− (

i− 1

n)s−k−1(B(k + 1, n− s+ 1;

i

n)

− B(k + 1, n− s+ 1;i− 1

n))],

Por lo tanto, el Bootstrap Exacto de la varianza de cualquier L-estimador, dada por la

ecuacion 4.5, puede calcularse directamente a partir de las expresiones (EB) de varianza y

covarianza demostradas en los Teoremas 4.2 y 4.3 respectivamente.

Kim y Hardy (2007) [9] tambien presentaron una notacion alternativa, en forma matricial

para las expresiones de la varianza y covarianza bootstrap de un L-estimador.

Sea Dwr una matriz diagonal con (i, i)-th elemento igual a i-th elemento de wr = (w1(r),

w2(r),..., wn(r))’, el vector peso EB de la media del r-th estadıstico de orden definido en el

Teorema 4.1.

Y sea vrs la matriz triangular superior con elementos vij(rs)i≤j. Entonces, las expresiones

EB de la varianza y covarianza pueden ser reescritas como

V ar(Xr:n) = (X:n − µ(r))′D(wr)(X:n − µ(r))

= (X:n − w′rX:n)′D(wr)(X:n − w′rX:n),

Cov(Xr:n, Xs:n) = (X:n − µ(r))′vrs(X:n − µ(s))

= (X:n − w′rX:n)′vrs(X:n − w′sX:n),

4. ESTIMADOR HARRELL - DAVIS. 61

para 1 ≤ r < s ≤ n.

Observacion 10.

Observe que D(wr) y vrs son independientes de la muestra, por lo que pueden usarse para

otras muestras con el mismo tamano.

3. Bootstrap Simetrico.

Algunos investigadores sugieren el uso del Bootstrap Simetrico si la hipotesis de que los

datos provienen de una poblacion simetrica parece razonable.

Los calculos exactos discutidos aquı pueden llevarse a cabo bajo el Bootstrap Simetrico,

reemplazando Q(u) en la ecuacion 4.1 por

(4.18) Qsym(u) = Tn + (X[nu+1:n] −Xn(1−u)+1:n)/2.

4. Estimador Harrell - Davis.

Harrell y Davis (1982) [7] propusieron un L-estimador en particular:

HDp =1

B(n+ 1)p, (n+ 1)(1− p)

∫ 1

0

F−1n (y)y(n+1)p−1(1− y)(n+1)(1−p)−1dy,(4.19)

donde Fn(X) es la funcion de distribucion empırica.

Este estimador puede ser reescrito como:

HDp =n∑i=1

wn,iX(i),

donde

wn,i =1

B(n+ 1)p, (n+ 1)(1− p)

∫ in

(i−1)n

y(n+1)p−1(1− y)(n+1)(1−p)−1dy

= Ii/np(n+ 1), (1− p)(n+ 1) − I(i−1)/np(n+ 1), (1− p)(n+ 1)

donde Ix(a, b) denota la funcion Beta Incompleta.

La importancia del estimador Harrell - Davis (HD) radica en que este estimador es el esti-

mador bootstrap exacto de E[X(n+1)p] incluso si (n+1)p no es entero y justamente E[X(n+1)p]

4. ESTIMADOR HARRELL - DAVIS. 62

converge a F−1(p) cuando n tiende a infinito para p ∈ (0,1).

Figura 4.3. Comparasion de los Pesos: Harrell-Davis (HD) & Estimadores (EB),

para n = 100.

En el grafico anterior se puede observar que los pesos del estimador bootstrap exacto

para p = 0.96 son similares a los pesos para el estimador Harrell - Davis considerando p =

0.95.

CAPITULO 5RESULTADOS NUMERICOS.

En este capıtulo las muestras X1, X2,..., Xn provenientes de una distribucion Normal

Estandar, de una distribucion t-Student con cuatro (4) grados de libertad, una distribucion

Lognormal Estandar y una distribucion Exponencial Estandar, con muestras de tamano n

= 100, y para los cuantiles p = 0.5, 0.95 y 0.99 son estudiadas.

Para cada distribucion y para los cuantiles p = 0.5, 0.95 y 0.99, se calculo el estimador

(Qp), el estimador bootstrap exacto (QEBL ), el estimador bootstrap exacto (QEB

U ) y el

estimador Harrell - Davis (QHD), donde:

(5.1) QEBL (p) = Xr, si (r − 1)/n < p ≤ r/n,

(5.2) QEBU (p) = Xr, si (r − 1)/n ≤ p < r/n

Los estimadores QEBL y QEB

U son identicos, excepto cuando np es entero. Por ejemplo, si

n = 100, y p = 0.95, QEBL (0,95) = X(95) y QEB

U (0,95) = X(96).

63

5. RESULTADOS NUMERICOS. 64

Se trabajo con el software Matlab, donde se destacan las siguientes funciones utilizadas

para los calculos computacionales: betainc, normrnd, sort, lognrnd, exprnd, trnd y binom.

La funcion betainc se utilizo para calcular la funcion beta incompleta correspondiente a

los pesos de los L-estimadores. Las funciones normrnd, lognrnd, exprnd y trnd permitieron

generar muestras de tamano 100, provenientes de las distribuciones normal estandar, log-

normal, exponencial y t-student con 4 grados de libertad, para los cuantiles ya mencionados

anteriormente.

Por otra parte, con la funcion sort se ordenaba cada muestra de forma creciente y con la

funcion binom se calculaba los coeficientes binomiales que se reflejan en las formulas de los

pesos para los L-estimadores.

A continuacion se presentan las tablas elaboradas con los estimadores de cuantiles ante-

riormente mencionados.

50th estadıstico de orden.

Tamano de la muestra n = 100.

Distribucion Qp QEBL QEB

U QHD

Normal(0,1) -0.0803 -0.0965 -0.0762 -0.0864

Lognormal, µ = 1 0.8065 0.8460 0.8749 0.8603

Exponecial, λ = 1 0.8143 0.7718 0.7909 0.7814

t-Student, ν = 4 -0.0523 -0.1012 -0.0792 -0.09

5. RESULTADOS NUMERICOS. 65

95th estadıstico de orden.

Tamano de la muestra n = 100.

Distribucion Qp QEBL QEB

U QHD

Normal(0,1) 1.7919 1.7042 1.7837 1.7795

Lognormal, µ = 1 4.4045 4.21 4.5136 4.4980

Exponecial, λ = 1 2.7222 2.6525 2.8198 2.8104

t-Student, ν = 4 1.8332 1.7386 1.8732 1.8659

99th estadıstico de orden.

Tamano de la muestra n = 100.

Distribucion Qp QEBL QEB

U QHD

Normal(0,1) 2.2926 2.1219 2.2728 2.2714

Lognormal, µ = 1 5.7313 5.4547 5.6949 5.6929

Exponecial, λ = 1 3.9807 3.6284 3.9552 3.9522

t-Student, ν = 4 2.8613 2.5226 2.8299 2.8270

De las tablas mostradas se observa que QEBL < QHD < QEB

U con QHD cercano a QEBU .

Ejemplo 19.

Se desea calcular el cuantil de orden p = 0.25 utilizando el metodo bootstrap ordinario

(OB) y el metodo bootstrap exacto (EB), con la finalidad de poder establecer una compara-

cion entre ambos metodos. El cuantil de orden p = 0.25 de la muestra aleatoria es x0,25 =

-11.49.

Para esto se considero la muestra aleatoria de tamano n = 10 utilizada en el ejemplo 17.

A continuacion se presenta una tabla con las observaciones de la muestra aleatoria:

x1 x2 x3 x4 x5 x6 x7 x8 x9 x10

-15.4 -8.8 8.2 3.4 -7.1 4.5 -12.7 5.2 -10.6 -11.2

5. RESULTADOS NUMERICOS. 66

Para calcular el cuantil de orden p = 0.25 se consideraron nuevamente las 10 remuestras

bootstrap obtenidas de la muestra original en el ejemplo 17 y a cada una de estas remuestras

se le calculo el cuantil deseado.

La siguiente tabla muestra las 10 remuestras bootstrap y en la ultima columna de dicha

tabla se senala el valor correspondiente al cuantil QOBb con b ∈ (1,...,10) de cada remuestra.

Muestras x1 x2 x3 x4 x5 x6 x7 x8 x9 x10 QOBb

1 4.5 -7.1 -7.1 -11.2 4.5 -15.4 -8.8 8.2 5.2 3.4 -8.375

2 -15.4 -12.7 3.4 5.2 -10.6 8.2 4.5 4.5 4.5 -8.8 -10.15

3 -7.1 3.4 -15.4 -15.4 4.5 -8.8 -12.7 8.2 8.2 -12.7 -12.7

4 -10.6 8.2 3.4 -12.7 4.5 -8.8 5.2 3.4 -12.7 8.2 -10.15

5 -11.2 5.2 -12.7 5.2 -11.2 4.5 -8.8 -11.2 3.4 -7.1 -11.2

6 -15.4 5.2 3.4 -12.7 -10.6 8.2 -8.8 -10.6 3.4 5.2 -10.6

7 -7.1 8.2 -8.8 4.5 -10.6 -11.2 -8.8 8.2 3.4 4.5 -8.8

8 8.2 5.2 8.2 -11.2 8.2 3.4 -10.6 5.2 8.2 -15.4 -7.1

9 -10.6 -12.7 8.2 -11.2 8.2 -7.1 3.4 -12.7 -7.1 5.2 -11.05

10 -7.1 3.4 5.2 3.4 4.5 -12.7 -11.2 8.2 3.4 -11.2 -10.175

Luego, el cuantil bootstrap de orden p = 0.25 es el valor promedio de los cuantiles del

mismo orden para cada remuestra. En efecto, QOB = -10.03.

Por otra parte, aplicando ahora el metodo bootstrap exacto, utilizando el estimador

Harrell - Davis, tenemos que la estimacion para el cuantil de orden p = 0.25 deseado es

QHD = -11.20.

Por ultimo, estableciendo una comparacion entre las estimaciones de ambos metodos con

respecto al valor original del cuantil deseado, se puede observar que la estimacion bootstrap

exacta (utilizando el estimador Harrell - Davis) se aproxima mejor al valor original del cuan-

til de orden p = 0.25 de la muestra.

5. RESULTADOS NUMERICOS. 67

Ejemplo 20.

Pacific Rubiales es una productora colombo - canadiense de petroleo y gas natural.

Supongamos que su administrador de fondos desea cuantificar el riesgo de sus inversiones

en una de sus acciones. Especıficamente, desea conocer cuanto puede llegar a perder la pro-

ductora una vez al mes.

Segun lo estudiado, la aplicacion del VaR a tal accion permitirıa obtener esa informacion.

El analisis se realizara en primer lugar con el enfoque de simulacion historica y

posteriormente, con el metodo bootstrap exacto, utilizando el estimador Harrell - Davis.

• Enfoque Simulacion Historica:

– Perıodo de tiempo: dado que la accion se podrıa liquidar una vez al mes, el

perıodo de tiempo que cubrira el VaR sera de una vez al mes.

– Nivel de confianza: el nivel de confianza deseado es de 95 %. Se desea que las

perdidas del valor de la accion solo sean mayores a las predichas por el VaR el

5 % de los dıas.

– Valor de mercado de la accion: el valor de mercado de la accion es de 1.000.000

de pesos.

– Factores de riesgo: dado que se habla de una accion, el unico factor de riesgo

que existe es el precio de dicha accion.

Los datos historicos a obtener es la serie de precio de cierre de la accion, para el

perıodo 04/03/10 - 11/06/10 (100 precios de cierre). En la siguiente tabla se pueden

observar los precios correspondientes a los primeros 20 dıas:

5. RESULTADOS NUMERICOS. 68

En la tabla anterior, la segunda columna refleja los precios de la accion, la tercera

columna muestra el calculo de las variaciones porcentuales diarias de los precios de

la accion. Dado que hay 100 precios de cierre para la accion, se obtienen 99 retornos.

Recuerde que el retorno viene definido como R = (X(t) - X(0))/X(0).

Luego, los retornos diarios se aplican al valor corriente de la accion (1.000.000

pesos). Esto nos proporciona 99 escenarios historicos alternativos sobre lo que po-

drıa ocurrir una vez al mes con el valor de la accion. Esto se puede observar en la

tercera columna de la tabla anterior.

5. RESULTADOS NUMERICOS. 69

A continuacion se ordenan los cambios diarios de valor de la accion de menor a

mayor, definiendose una distribucion de probabilidad de las variaciones diarias del

valor de la accion.

Finalmente, se selecciona la variacion de corte. En la muestra hay 99 observa-

ciones y se definio un nivel de confianza de 95 %, por lo que la variacion de corte

sera el quinto peor cambio de valor (5 % de 99 es aproximadamente 5).

La variacion de corte es -25.628,25 pesos, que representa el 2.56 % valor de la

accion.

Luego, el administrador de fondos puede establecer que como maximo en 5 de

cada 100 dıas, la accion podrıa perder 2.56 % o mas de su valor.

• Metodo Bootstrap Exacto:

Una vez obtenida la muestra ordenada de los precios de la accion de Pacific Rubiales, se

procedio a calcular en el software Matlab el estimador Harrell - Davis. Al principo de este

capıtulo se detallaron las funciones del paquete de programacion que se utilizaron para dicho

calculo.

Recuerde que:

HDp =n∑i=1

wn,iX(i),

donde

wn,i =1

B(n+ 1)p, (n+ 1)(1− p)

∫ in

(i−1)n

y(n+1)p−1(1− y)(n+1)(1−p)−1dy

= Ii/np(n+ 1), (1− p)(n+ 1) − I(i−1)/np(n+ 1), (1− p)(n+ 1)

donde Ix(a, b) denota la funcion Beta Incompleta.

5. RESULTADOS NUMERICOS. 70

Se considero n = 100 y p = 0.95, que corresponde al nivel de 95 % de confianza. El valor

del estimador obtenido fue:

HDp = −26,095, 99

Luego, el VaR estimado por el metodo bootstrap exacto tiene un valor de 26.095,99 pesos.

Observe que este valor es muy similar al obtenido por el metodo de simulacion historica.

Por otra parte, Mausser (2001) [10] demostro que QHD se comporta mejor para la de-

terminacion del Valor en Riesgo (VaR) para algunas carteras de activos financieros.

De todo lo anterior, se puede decir que el estimador Harrell - Davis, claramente es un

estimador alternativo para estimar el VaR, ası lo reflejan los resultados obtenidos en las

tablas, en el ejemplo mostrado y en el capıtulo 4 se habıa mencionado que este estimador,

es el estimador bootstrap exacto de E[X(n+1)p] incluso si (n+ 1)p no es entero y justamente

E[X(n+1)p] converge a F−1(p) cuando n tiende a infinito para p ∈ (0,1).

CAPITULO 6CONCLUSIONES.

Desde la incorporacion del VaR al instrumental basico de la practica financiera, han si-

do multiples las propuestas de computo que se han venido formulando. Sin embargo, en la

mayorıa de las ocasiones, parece que se ha perdido la perspectiva del verdadero problema: la

mayor parte de estos planteamientos olvida el hecho de que el VaR es un cuantil extremo

y entonces este detalle motivo la realizacion de este trabajo, ya que haciendo uso de las

herramientas que la Estadıstica ofrece se presento un metodo alternativo para estimar este

cuantil.

Un estimador basico de la funcion cuantil es

(6.1) Q(p) = F−1(p) = X[np]+1:n,

donde [.] denota la funcion parte entera.

Sin embargo, se presenta un estimador alternativo de la funcion cuantil, que no es mas

que una combinacion lineal de los estadısticos de orden.

71

6. CONCLUSIONES. 72

A este estimador se le denomina L-estimador o L-estadıstico y se define como

(6.2) Tn(p) =n∑i=1

ciX(i),

donde∑n

i=1 ci = 1.

Uno de los metodos que ha ayudado en las difcultades teoricas con respecto a los L-

estimadores, es el Bootstrap, introducido por Efron en 1979.

En el bootstrapping, se trata la muestra como si fuera la poblacion y se realiza un pro-

cedimiento del estilo Monte Carlo sobre la muestra. Esto se hace extrayendo un gran numero

de remuestras de tamano n, a partir de la muestra original aleatoriamente y con reposicion.

Se calcula el estadıstico de interes a cada remuestra, lo que permite obtener el estimador

bootstrap deseado.

Otro metodo presentado es el Bootstrap Exacto de Hutson y Ernst (2000). Al hacer

referencia a Bootstrap “Exacto”, el termino “exacto” especifica la ausencia de la simulacion

Monte Carlo en el procedimiento de estimacion Bootstrap.

Por lo tanto, el metodo Bootstrap Exacto consiste en un estimador “plug-in” de la muestra

de la funcion cuantil en alguna funcion de interes γ(Q), sin requerir de la simulacion Monte

Carlo, por lo que estas expresiones exactas eliminan el uso de metodos de computacion in-

tensiva en la aproximacion de remuestreo bootstrap y su error asociado.

Hay varias ventajas del Bootstrap Exacto (EB) con respecto al Bootstrap Ordinario

(OB). La formula del EB tiene una forma analıtica sencilla, por lo que no se usan simu-

laciones. La forma simple es facil de implementar y reduce significativamente el tiempo de

calculo en comparacion con el OB, especialmente cuando los tamanos de las muestras son

grandes.

En base a las referencias consultadas [9] y a los caculos reflejados en el ejemplo 19, se

puede decir que generalmente el EB sera mejor estimador que el OB, dado que no hay error

6. CONCLUSIONES. 73

de remuestreo en el EB. Por ultimo los pesos EB pueden ser utilizados para cualquier mues-

tra con el mismo tamano, ya que son independientes de los datos.

Harrell y Davis (1982) [7] propusieron un L-estimador en particular:

HDp =n∑i=1

wn,iX(i),

donde

wn,i =1

B(n+ 1)p, (n+ 1)(1− p)

∫ in

(i−1)n

y(n+1)p−1(1− y)(n+1)(1−p)−1dy

= Ii/np(n+ 1), (1− p)(n+ 1) − I(i−1)/np(n+ 1), (1− p)(n+ 1)

donde Ix(a, b) denota la funcion Beta Incompleta.

La importancia del estimador Harrell - Davis (HD) es que es el estimador bootstrap ex-

acto de E[X(n+1)p] incluso si (n+1)p no es entero y justamente E[X(n+1)p] converge a F−1(p)

cuando n tiende a infinito para p ∈ (0,1).

Por ultimo, a partir de los resultados numericos obtenidos, no se puede precisar cual

metodo resulta mejor para estimar el VaR. Se consideraron metodos tradicionales como

la simulacion historica y metodos alternativos como el bootstrap exacto. Sin embargo, las

simulaciones realizadas no permiten establecer diferencias significativas en las estimaciones

obtenidas. A pesar de esto, se puede establecer una leve comparacion entre ambos.

Para estimar el Var a partir del metodo de simulacion historica es necesario tener en

cuenta algunos conceptos basicos financieros: calcular el retorno de los activos, por ejemplo,

es uno de ellos. Sin embargo, utilizando el estimador Harrel - Davis (bootstrap exacto) no

hay necesidad de tener presente estos conceptos. La estimacion se hace directamente con la

muestra, no con una funcion de la muestra.

En vista de lo anteriormente expuesto, sigue siendo de interes el determinar si los metodos

alternativos considerados, pueden, bajo ciertas condiciones resultar mas eficientes que los

6. CONCLUSIONES. 74

tradicionales para el calculo del VaR. Esto requerirıa un estudio en profundidad de las

propiedades de los L-estimadores.

BIBLIOGRAFIA

[1] Acerbi, C., Nordio, C. and Sirtory, C.(2001). Expected Shortfall: as a Tool for Financial Risk

Management.

[2] Arriojas, M.(2004). Teorıa de las Probabilidades. Caracas.

http://www.matematica.ciens.ucv.ve/pregrado/probabilidades/CursoI.

[3] Brodin, E. (2006). On quantile estimation by bootstrap. Computational Statistics & Data Analysis

N 50. (pp. 1398 - 1406).

[4] David, H. (1981). Order statistics. John Wiley & Sons, New York, 2nd edition.

[5] Efron, B. and Tibshirani, R. (1993). An introduction to the bootstrap. Chapman & Hall, New

York.

[6] Feldman, D. and Tucker, H. (1965). Estimation of Non - Unique Quantiles. Michigan State

University and University of California, Riverside.

[7] Harrell, F. and Davis, C. (1982). A new distribution-free quantile estimator. Biometrika, N 3.

(pp. 635 - 640).

[8] Hutson, A. and Ernst, M. (2000). The exact bootstrap mean and variance of an L - estimator.

Royal Statistical Society N 62. (pp. 89 - 94).

[9] Kim, J. and Hardy, M. (2007). Quantifying and correcting the bias in estimated risk measures. Astin

Bulletin N 2. (pp. 365 - 386).

[10] Mausser, H. (2001). Calculating Quantile-based Risk Analytics with L-estimators. Algo Research

Quarterly N 4. (pp. 33 - 47).

[11] Olivares, M.(2004). Notas de Estadıstica. Caracas. Edic. de la Escuela de Matematica, UCV.

[12] Romero, R. (1999). Medidas de Riesgo Financiero.

[13] Serfling, R.(1980). Approximation Theorems of Mathematical Statistics. Wiley, New York.

75