Tesis de Economía Con Análisis Paramétrico

Embed Size (px)

Citation preview

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    1/103

    INSTITUTO POLITCNICONACIONAL

    ESCUELA SUPERIOR DE ECONOMASECCIN DE ESTUDIOS DE POSGRADO E INVESTIGACIN

    LLAAEEFFIICCIIEENNCCIIAADDEELL PPRROONNSSTTIICCOODDEELLNNDDIICCEEDDEEPPRREECCIIOOSSYYCCOOTTIIZZAACCIIOONNEESSDDEELLAABBOOLLSSAA

    MMEEXXIICCAANNAADDEEVVAALLOORREESS,,AAPPLLIICCAANNDDOORREEDDEESSNNEEUURROONNAALLEESSAARRTTIIFFIICCIIAALLEESSEENNCCOOMMPPAARRAACCIINN

    CCOONNUUNNMMOODDEELLOOPPAARRAAMMTTRRIICCOO..

    T E S I SPARA OBTENER EL GRADO DE:

    MAESTRO EN CIENCIAS ECONOMICAS

    (ECONOMA FINANCIERA)

    P R E S E N T A :ELSY LIZBETH GMEZ RAMOS

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    2/103

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    3/103

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    4/103

    AGRADECIMIENTOS

    Por todo el amor que has creado en m.Te dedico la perseverancia y esfuerzo

    plasmados en estas hojas.

    Ami pequea hija XchitlPor estar siempre a mi lado, por tu ayuda para

    conseguir cualquier informacin que requera ypor tus consejos.

    Ami esposoPor esperarme cuando me he ido, porbuscarme cuando no me encuentran

    y por seguir al tanto de mis proyectos.

    Amis padres

    Por pulir mis ideas en lugar de desecharlas,por ser ms que una gua, por el tiempootorgado, y por sus reflexiones y consejos que

    hicieron de esta investigacin un trabajosobresaliente.

    Ami director de tesis,Dr. FranciscoVenegas Martnez.

    Por la dedicacin en la revisin deesta investigacin y por creer en m.

    Ami codirector y consejero de estudios,M. en C. HctorAllier Campuzano

    Por ser m casa a lo largo de todos estos aos.

    Ala ESEQue me apoyo con la beca para realizarmi maestra.

    A CONACyT

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    5/103

    n d i c e Pgina

    ndice de figuras, grficos y tablas

    Lista de abreviaturasGlosario de trminosTrminos y expresiones equivalentes entre el campo estadstico y las RNAResumen

    vii

    ixxxixii

    Abstract xiiiIntroduccin xiv

    Captulo 1.El principal indicador de la BMV : IPCy la importancia de los pronsticos

    1.1. Generalidades 11.2 Metodologa para el clculo del IPC 2

    1.2.1 Frmula 3

    1.2.2 Criterios de seleccin 31.3 El ciclo burstil 71.4 Tendencias en la literatura terica sobre el mercado burstil 81.5 Elementos de los pronsticos

    1.5.1 El proceso del pronostico1112

    1.6 Revisin de investigaciones sobre predictibilidad 13

    Captulo 2.Modelo no paramtrico: Redesneuronales artificiales.

    2.1 Generalidades 172.2 Redes neuronales biolgicas 18

    2.2.1 La neurona biolgica 192.3 Componentes de una red neuronal Artificial 21

    2.3.1 Unidades de procesamiento 222.3.2 Funcin de activacin 24

    2.4 Estructur a de una red neuronal artificial 262.4.1 Niveles o capas de neuronas 262 4 2 Conexiones entre neuronas 27

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    6/103

    2.7.2 Estructura y aprendizaje de la red2.7.2.1 Algoritmo de aprendizaje

    3637

    Captulo 3.Modelo paramtrico3.1 Generalidades 473.2 Caracterstic as de las series de tiempo 48

    3.2.1 Descomposicin de una serie temporal 483.2.2 Estacionariedad 503.2.3 Races unitarias 51

    3.3 Descripcin de los modelos ARIMA 523.3.1 Clasificacin de los modelos B-J 523.3.1.1 Proceso autorregresivo 533.3.1.2 Proceso media mvil 54

    3.3.2 Proceso autorregresivo de media mvil 553.4 Metodologa B-J 563.5 Modelos heteroscedst icos 58

    3.6 Limitaciones del modelo GARH 61

    Captulo 4. Aplicacin de los modelos depronstico a la serie de tiempo IPC.

    4.1 Seleccin de la muestra 62

    Parte 1. Modelos de pronstico.4.2 Modelo basado en RNA: Backpropagation 64

    4.2.1 Metodologa 644.2.2 Elaboracin de la red

    4.2.2.1 Etapa de entrenamiento4.2.2.2 Etapa de prueba

    4.3Modelo ARIMA: Tipo GARCH4.3.1 Metodologa4.3.2 Estimacin del modelo

    Parte 2. Comparativo de los pronsticos

    676771737374

    4.5 Dentro de la muestra 77

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    7/103

    ndice de figuras, grficos y tablas pgina

    Figura 2.1 Partes de una neurona bilgica 19Figura 2.2 Sinapsis 20Figura 2.3 El elemento de proceso i con n entradas y una salida 22Figura 2.4 Esquema con varias neuronas conectadas 23Figura 2.5 Modelo de neurona con umbral 24Figura 2.6 Funciones de activacin tpicas 25Figura 2.7 Red neuronal con una capa oculta 26Figura 2.8 Modelo de arquitectura de una red backpropagat ion 37Figura 2.9 Secuencia para obtener el error 43Figura 4.1 Red backpropagation 9-9-1 60

    Grfico 1.1 El ciclo burstil 7

    Grfico 1.2 Elementos de los pronsticos en negocios yeconoma 11

    Grfico 3.1 Tendencias de las series de tiempo 49Grfico 3.2 Proceso de construccin de un modelo ARIMA (BJ) 57Grfico 4.1 Datos al cierre del IPC 62Grfico 4.2 Correlograma de la serie IPC 63Grfico 4.3 Errores de la etapa de entrenamiento con 10

    iteraciones

    69

    Grfico 4.4 Errores de la etapa de entrenamiento con 50iteraciones

    69

    Grfico 4.5 Errores de la etapa de entrenamiento con 100iteraciones

    70

    Grfico 4.6 Comparacin entre el pronstico con red neuronal yel IPC

    72

    Grfico 4.7 Contraste Jarque Bera 73Grfico 4.8 Correlograma de los residuales al cuadrado 75Grfico 4.9 Pronstico de la varianza 75Grfico 4.10 Comparacin entre el pronstico del modelo GARCH

    y el IPC76

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    8/103

    Tabla 3.2 Grado de integracin para distintas tendencia 50Tabla 3.3 Algunos modelos ARCH 59Tabla 4.1 Prueba de contraste de races unitarias para el IPC 63

    Tabla 4.2 Resultado de arquitecturas propuestas 65Tabla 4.3 Programacin bsica de la primera iteracin en

    Mathematica67

    Tabla 4.4 Programacin de la etapa de prueba en Mathematica 71Tabla 4.5 Prueba ARCH 74Tabla 4.6 Modelo GARCH 74

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    9/103

    Lista de abreviaturas

    ARCH: Heteroscedsticid ad condicional autorregresiva

    ARIMA: Autorregresivos integrados de media mvil

    BMV: Bolsa mexica de valores

    CNBV: Comisin nacional bancaria y de valores

    CNSF: Comisin nacional de seguros y fianzas

    FAC: Funcin de autocorrelacin

    FACP: Funcin de autocorrelacin parcial

    GARCH: Heteroscedsticidad condicional autorregresivageneralizada

    IA: Inteligencia artificial

    IPC: ndice de precios y cotizaciones

    MCO: Mnimos cuadrados ordinarios

    MLP: Perceptron multicapa

    MSE: Error cuadrtico medio

    RNA: Redes neuronales artificiales

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    10/103

    Glosario de trminos

    Campo de las RNA

    Elemento deproceso, neurona,unidad, nodo:

    Un elemento simple del clculo, lineal o no lineal, que aceptauna o ms entradas, calcula una funcin de estas y puedemandar el resultado a otra u otras neuronas.

    Entrenamiento offline:

    Actualizacin interactiva de las estimaciones al concluir cadapaso completo sobre los datos, como en la mayor parte delalgoritmos de regresin no lineal

    Entrenamiento online:

    Actualizacin interactiva de las estimaciones medianteecuaciones de diferencias, tomando las observaciones de unaen una, como en la aproximacin estocstica.

    Regla deltageneralizada:

    Algoritmo interactivo para entrenar un perceptron no linealmediante mnimos cuadrados, similar a la aproximacinestocstica.

    Retropropagacin:(Backpropagation)

    Clculo de derivadas para un MLP y diversos algoritmos (talcomo la regla delta generalizada).

    Campo estadstico

    Residuo: Trmino que se incluye en el anlisis de regresin con

    propiedades probabilsticas, para efectos de posibles erroresde medicin de las variables, generalizar y simplificar lasrelaciones econmicas, y calcular la aleatoriedad inherentedel comportamiento humano.

    arianza: Medida de dispersin que hace referencia a la variabilidad o

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    11/103

    Trminos y expresiones equivalentes o parecidosentre elcampo estadstico y las RNA

    ESTAD STICA RNA

    Estimacin, ajuste del modelo,optimizacin.

    Entrenamiento, aprendizaje, adaptacin o auto-organizacin.

    Estimacin de parmetros Pesos sinpticos

    Modelo Arquitectura

    Muestra Conjunto de entrenamiento

    Muestra de validacin Conjunto de prueba

    Observacin Patrn, par de entrenamiento, vector

    Proyeccin - regresin Redes feedforward con una capa oculta

    Regresin Mapeado, aproximacin de funcin

    Residuos Errores

    Variables independientes Entradas

    Variable dependiente Salidas

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    12/103

    Resumen

    En la literatura burstil se encuentran dos corrientes que aceptan lapredictibilidad de los rendimientos esperados de un activo. Laeficientista que sostiene que cualquier variacin en los rendimientosesperados es producto del carcter racional de los agentes econmicosy la ineficientista que asocia los cambios de los rendimientos esperadosa la psicologa de masas. Dentro de la primera corriente se hanutilizado modelos paramtricos aceptados ampliamente en la literatura

    financiera como el modelo tipo GARCH, sin embargo en aos recientesse han aplicado tcnicas de prediccin inspirados en lascaractersticas del cerebro. En este trabajo se compara la eficiencia enel pronstico del IPC de la BMV a travs de dos modelos. Unoparamtrico: GARCH, y otro no paramtrico: Red Neuronal Artificial.Para ello se tom una muestra de 102 observaciones en forma semanaly se pronosticaron 6 periodos, con lo cual se logra demostrar la

    superioridad de una RNA sobre el modelo paramtrico.

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    13/103

    Abstract

    In the literature of financial markets there are two mainstreams whichaccept the predictability of the expected asset returns. The efficientmarket hypothesis establishes that any variation in expected returns isthe product of the agents economic rationality and the inefficientmarket hypothesis is associated with changes in expected returns dueto the masses psychology. Within the first hypothesis we can findparametric models like GARCH but in recent years new forecastingtechniques has been applied which are inspired by braincharacteristics. This paper compares the forecasting efficiency of theMexicos stock market index (IPC) through two models. The first one isa parametric model: GARCH and the second a non parametric model:Artificial Neural Network. It was taken into account a sample of 102observations on a weekly basis and it was predicted 6 periods. It could

    be demonstrated the superiority of an ANN over the parametric model.

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    14/103

    Introduccin

    Los modelos de series de tiempo han sido tradicionalmente aplicados amercados burstiles, ya que estos han probado en diversos estudios serefectivos en la prediccin. Por lo que, el modelo ARIMA(Autorregresivos Integrado de Media Mvil) es ampliamente reconocidoen estudios financieros, ya que han permitido modelar con algunas

    tcnicas adicionales (modelos heteroscedsticos) la complejidad de lasseries burstiles (Guzmn et al., 2006).

    El modelo arriba mencionado pertenecen a la clasificacin de modelosparamtricos, ya que parten de una funcin de distribucin, y reducenel problema a estimar los parmetros que mejor se ajustan a las

    observaciones de la muestra (Bonilla et al, 2003). Dichos modelosresultan ser muy potentes cuando el proceso generador de datos sigueuna distribucin propuesta, en la teora financiera los resultados msconocidos se han obtenido a travs de la distribucin normal ogaussiana (Venegas, 2008).

    Sin embargo, la aplicacin de modelos no paramtricos 1, en especial lasRNA (Redes Neuronales Artificiales), han permitido en aos recientesdar soluciones ms precisas a problemas complejos, por lo que se haexpandido su aplicacin debido a las limitaciones que presentan losmodelos paramtricos (como la violacin de supuestos, por ejemplo quelas observaciones no estn normalmente distribuidas) al ser aplicados afenmenos financieros, ya que estas en si son complejas para su estudio

    en parte porque presentan volatilidad y por lo tanto son sensibles aexpectativas y a las condiciones del mercado.

    Los modelos no paramtricos tambin son conocidos como mtodos de

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    15/103

    funcionales flexibles que se aproximen a la funcin objetivo, por lo queel problema consiste en calcular los parmetros de una funcin.

    Adems, la literatura sugiere que las redes neuronales poseen variasventajas potenciales por ejemplo, que son aproximadoras de funcionesuniversales an para funciones no lineales 2, y debido a que se tieneantecedente de que el ndice de precios y cotizaciones (IPC) sigue unadinmica de comportamiento no lineal (Valdes,2002 ) lo que favorecela aplicacin de este tipo de modelos.

    Finalmente, diversas investigaciones han comprobado la superioridadde las RNA sobre el modelo ARIMA (Parisi y Guerrero, 2003). Por loque este trabajo pretende la aplicacin de ambos modelosespecficamente para el IPC. El objetivo de esta investigacin , serdemostrar que un modelo no paramtrico basado en RNA predice

    adecuadamente la tendencia de la serie de tiempo del IPC de la BMVesto comparativamente con un modelo paramtrico tradicional(GARCH 3). En consecuencia la hiptesis a probar a lo largo del estudioes que si un modelo basado en RNA predice adecuadamente latendencia de la serie de tiempo del IPC, implica que se requiere de unmodelo no paramtrico para obtener resultados ms precisos, noobstante el modelo paramtrico es menos demandante para suelaboracin.

    Las justificaciones que implica la realizacin de la investigacin secentran en 2 direcciones: (1) Contribuir a una mayor difusin de lasredes para aspectos de pronstico, ya que la literatura es limitada parael sector financiero en Mxico, no as para sectores como la ingenieraen donde se abarcan casi todas las modalidades de las redes, y (2)Contrastar un enfoque tradicional de prediccin (GARCH) con lastcnicas de modelos no paramtricos como las RNA y comprobar sueficiencia para el IPC.

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    16/103

    La investigacin consta de una introduccin, cuatro captulos y unaconclusin. En la introduccin se da una visin amplia de la

    investigacin, en el captulo 1 se describe la metodologa para elclculo del IPC y se hace la revisin de la literatura; en el captulo 2 serealiza la investigacin metodolgica sobre el funcionamiento de lasRNA, as como los componentes principales del modelo seleccionadopara efectos de pronstico ; en el captulo 3 se abarcan el modeloparamtrico (ARIMA) dando una descripcin detallada sobre lametodologa de este modelo, as como la tcnicas adicionales utilizadas

    en el uso de series financieras(GARCH); en el captulo 4 se realiza laaplicacin de los modelos a la serie de tiempo del IPC, adems delcomparativo del pronstico dentro y fuera de la muestra; y en laconclusin se detallan los hallazgos ms sobresalientes del trabajo.

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    17/103

    Captulo 1. El principal indicador de la BMV:IPC y la importancia de los pronsticos .

    1.1

    Generalidades

    El funcionamiento del sistema financiero de una economa de mercadocapta, equilibra, canaliza, usa y multiplica el dinero. Para el caso de

    Mxico, la organizacin de este sistema financiero est compuestoprincipalmente por 2 organismos reguladores que son la ComisinNacional Bancaria y de Valores (CNBV) y la Comisin Nacional deSeguros y Fianzas (CNSF); ambas supervisadas por la Secretaria deHacienda y Crdito Pblico y el Banco de Mxico.

    Parte del sector burstil lo constituye la bolsa mexicana de valores

    (BMV), a travs de la cual se negocian ttulos de deuda y acciones deempresas, y su principal indicador es el IPC (ndice de precios ycotizaciones). El mercado de capitales es el segmento del mercado devalores donde se cotizan instrumentos que involucran recursos decapital, es decir con madurez de largo plazo o plazo indefinido (Rueda,2002).

    Los instrumentos tpicos del mercado de capitales son las acciones4

    ,ttulos que representan una parte alcuota del capital social de unaempresa, acredita y transmite al tenedor la calidad y derechos del socioy constituye el lmite de responsabilidad que contrae el accionista anteterceros y la propia empresa. El IPC, es un indicador de la evolucindel mercado accionario en su conjunto y se calcula en funcin de lasvariaciones de los precios de una seleccin de acciones, llamadamuestra, balanceada, ponderada 5 y representativa de todas las acciones

    cotizadas en la BMV6.

    4 Las 2 clases bsicas de acciones son: las comunes (representan la inmensa mayora del capital y susposeedores solo obtienen beneficios cuando la empresa reporta utilidades) y las preferentes (garantizan un

    di i t l t d ti d l l l i f d d it i )

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    18/103

    La ponderacin se basa (Las 5 series accionarias ms importantes de lamuestra, no podrn tener una ponderacin conjunta de ms del 60%)por el valor de capitalizacin, por lo tanto, el cambio en el precio deuna emisora integrante de la muestra influye en el comportamiento delndice en forma relativa al peso que dicha emisora tiene en la muestra.Este peso se determina por el valor de capitalizacin, es decir, el precioy el nmero de acciones inscritas. La muestra7 se selecciona bajo 2criterios: la bursatilidad y el valor de capitalizacin (Venegas, 2008).

    Sin embargo, hay que considerar que no es el nico ndice que calculala BMV, la clasificacin que sigue es a travs de cuatro grandes grupos(principales, de rendimiento total, sectoriales y otros) los cuales sebasan de acuerdo al enfoque y especialidad de un grupo de empresas.

    El fin de los indicadores burstiles es permitir a los inversionistas,intermediarios, empresas e incluso al sector pblico, esbozar una idea

    precisa y vigente de la situacin del mercado de valores8

    , de tal formaque adems de sustentar sus decisiones de financiamiento y/oinversin, puedan tambin disear anticipada y acertadamente susexpectativas econmicas (Centro Educativo del Mercado de Valores,1997).

    1.2 Metodologa para el clculo el IPC

    El nmero de series accionaras que conforman la muestra 9es de 35, lascuales pueden variar durante el periodo de vigencia por movimientoscorporativos. La periodicidad de la revisin de la muestra es anual(febrero).

    La mecnica de clculo es:

    =VMAF Valor de mercado ajustado por acciones flotantes del total de series accionarias de la muestra delndice.6 Con base en :www bmv com mx

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    19/103

    Base: 30 de octubre de 1978Clase: ndice ponderado por valor de capitalizacin

    1.2.1 Frmula

    Esta frmula mide el cambio diario del valor de capitalizacin de unamuestra de valores (Centro Educativo del Mercado de Valores, 1997).

    =

    it1it1t,i

    itit

    1tt

    F*Q*P

    Q*PII (1.1)

    Donde:=it ndice en tiempo t=itP Precio de la emisora i el da t

    =itQ Acciones de la emisora i el da t

    =iF Factor de ajuste por ex derechos

    La sumatoria del valor de capitalizacin de todas las emisoras de lamuestra, dividida entre la sumatoria del valor de capitalizacin de lamisma muestra del da hbil anterior, ajustada en su caso, determina elfactor de variacin del IPC respecto a dicho da anterior. El factor deajuste es siempre=1, excepto cuando la emisora i se aplica un derecho ouna restructuracin de capital 10, por lo que se requiere ajustar el valorde las series accionaras.

    1.2.2 Criterios de seleccin

    E i d l l d ibi f l

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    20/103

    Con este indicador se asegura que las empresas sean las de mayornegociacin en la BMV. Como primera seleccin se considera a las 35series11 accionaras de mayor bursatilidad, para lo cual se utiliza elndice de bursatilidad que genera y publica en forma mensual la BMV.Las series seleccionadas, se debern haberse mantenido dentro de estegrupo los ltimos 6 meses.

    Si existieran 2 o ms series accionarias que presenten el mismo nivelde bursatilidad en el ltimo lugar disponible de la muestra, laseleccin se har, tomando en cuenta la frecuencia en que incurran en

    este nivel las series y se considerar su valor de capitalizacin.

    En caso de no contar con las 35 series accionaras en la primeraseleccin, se lleva a cabo una segunda seleccin considerando lafrecuencia en que las series incurren en los mejores lugares del nivelde bursatilidad y su valor de capitalizacin. En caso de que 2 o msseries accionaras cumplan con las mismas caractersticas y los lugares

    no sea suficientes, se considerara la evolucin burstil de las series yla opinin del comit de metodologas de la BMV12(bmv.com.mx).

    A continuacin se presenta como es calculado este ndice y lainterpretacin de sus resultados. Las variables que se utilizan paradescribir los niveles de negociacin son: el importe, el nmero deoperaciones y la media del importe (Venegas, 2008).

    11Las series accionarias pueden indicar diversas situaciones o un rasgo particular. Por ejemplo, la serie A: sonacciones comunes que pueden ser suscritas exclusivamente por mexicanos; La serie B: son acciones ordinariasde libre suscripcin (pueden ser adquiridas por mexicanos o extranjeros, por personas fsicas o personasmorales) ; La serie L:son acciones de libre suscripcin con restriccin de derechos corporativos; entre otras. Enmuchos casos las empresas deciden hacer combinaciones de series que lgicamente mezclan condiciones oprerrogativas. Por ejemplo, La serie A1: acciones ordinarias que representan la parte fija del capital social y queson suscritas nada mas por mexicanos; La serie:A2: son acciones ordinarias suscritas solo por mexicanos querepresentan la parte variable del capital social; entre otras. Por lo general, las series se estipulan por decisin o

    l d d l i di i i fi i l

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    21/103

    ==jO

    1iijijjt QPI (1.2)

    Donde13:

    jtO = Nmero de transacciones realizadas en la serie j durante elsemestre anterior a t.

    =jtI Importe operado acumulado, para cada serie, al tiempo t.

    =ijQ Respecto a la serie j se realizaron i= 1,2,, jtO operaciones de

    volumen.

    =ijP Precio

    El importe total acumulado 14, tI del mercado, se define como la suma delos importes de las series, es decir:

    ==N

    1jjtt II (1.3)

    Para el clculo:

    A partir de las variables operativas de cada una de las seriesaccionaras (importe total acumulado ( jtI ), nmero de operaciones

    acumuladas ( ijQ ) y la media del importe ( jtI ), se evalan los valoresmximos y mnimos de cada una de las variables y se definen losporcentajes de participacin para cada variable.

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    22/103

    El ndice de bursatilidad, al tiempo t, se define:

    (1.4)

    ( )

    ++= 3

    minmax

    minmaxmaxjt2

    minmax

    minmaxmaxjt1

    minmax

    minmaxmaxjtt

    )I/Iln(

    ))I/I)(I/Iln((

    )O/Oln(

    ))O/O)(O/Oln((

    I/Iln

    ))I/I)(I/Iln((10

    Por lo que 10I0 t , que deber interpretarse de acuerdo a lasiguiente tabla:

    Tabla 1 .1 : Niveles de bursati l idadBursatilidad mnima 0.00 4.58Bursatilidad baja 4.59 6.33Bursatilidad media 6.34 7.99

    Bursatilidad alta 8.00 10.00Fuente:Centro Educativo del Mercado de Valores (1997).

    El ndice de bursatilidad, validado por la CNBV, permite seleccionar lamuestra dentro de un listado de emisiones jerarquizadas segn dichondice. En realidad el tamao de la muestra no tiene mucha relevancia

    sino que la seleccin de las emisoras sea la adecuada.

    2.- Valor de Capitalizacin: el cual otorga a cada una de las seriesaccionaras el valor de contribucin que tendrn dentro de la muestrade acuerdo al tamao de estas. Este criterio busca que las empresasconsideradas, sean significativas en su ponderacin y distribucin de la

    muestra.

    El ndice de capitalizacin se calcula con el nmero de acciones encirculacin que se multiplican por el ltimo precio. Se suman todos losvalores de mercado de las empresas muestra y esa sumatoria ser igual

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    23/103

    1.3 El ciclo burstil

    En general, el ciclo econmico y el ciclo burstil se relacionandirectamente y suelen tener una duracin temporal similar. De hecho,parece que la bolsa se anticipa a la economa. Es decir, la bolsa bajacuando la economa aun crece y empieza a subir cuando la economatodava est en declive. Esto tiene sentido, ya que cuando compramosacciones, compramos los beneficios futuros (Martnez y Snchez,2002).En el mercado burstil, podemos diferenciar dos tipos de fases:La alcista y bajista.

    Por lo tanto, podemos decir que se identifica un mercado bajista con unperiodo en que el retorno acumulado es menor que -20% y un mercadoalcista con aquel en que el retorno acumulado es mayor que un 20%,(grfico 1).En general la duracin de las fases del ciclo burstil vara enforma significativa de un pas a otro, sin embargo para todos esaplicable la regla de mayor duracin en la fase alcista (Gmez y Prez,

    2002).

    Grf ico 1 .1 : El c ic lo bursti l

    Las institucionesfinancieras comienzana com rar acciones.

    Alza en las cotizaciones.El inversor comn no seatreve a entrar en la bolsa

    Se provoca una alza sostenida ygeneralizada de las cotizaciones.

    Incrementan las ofertaspblicas de adquisicinde acciones.

    La poblacin en general compraacciones que es satisfecha por elinversor entendido (anticipando eldeclive econmico).

    Los grandes bancos vendernun porcentaje de sus acciones.

    Mientras que el pblico engeneral solo lo toma como unaba a transitoria.

    Los pequeos inversores vendena la cotizacin ms baja delciclo, sin darse cuenta de que

    d l iLos inversores mse pertos empie an a

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    24/103

    1.4 Tendencias en la literatura terica sobre elmercado burstil

    Existen bsicamente dos corrientes que aceptan la predictibilidad delos rendimientos esperados de un activo (Guzmn et al., 2007). Una deellas es la llamada eficientista, que pone nfasis en los elementos delclculo racional de los agentes econmicos en el comportamiento delprecio de las acciones con base en el valor presente de los dividendosfuturos; sus supuestos son el libre acceso al mercado de capitales, pocainfluencia de los agentes econmicos para determinar el precio de las

    acciones, libre negociacin de ttulos dentro del mercado e informacinamplia y libremente disponible. Sus mximos exponentes son Schwert(1977), French et al. (1987), Fama (1991) y Chen (1991).

    La otra corriente es la llamada ineficientista, que asocia los cambios delos rendimientos esperados a la psicologa de masas. Esta corriente se

    sustenta principalmente en la teora de Keynes y es reforzada por losplanteamientos de Shiller (1984), Summers (1986), Poterba (1988) yWest (1988). Segn esta corriente, el comportamiento del mercadoaccionario se debe a factores estacionarios, existencia de modas,burbujas especulativas o errores sistemticos en el tratamiento de lainformacin (Nuez, 1988). La psicologa de masas tiene un papelfundamental para determinar el comportamiento del mercado burstil,la conducta del mercado accionario es de corto plazo y la bolsa de

    valores es un mercado que prev los cambios con mayor anticipacin.

    Los eficientistas calculan el precio de las acciones con base en lafrmula de valor presente o actual neto, donde los dividendosesperados y la tasa de rentabilidad esperada estn presentes. Lafrmula ms sencilla para calcular el precio de una accin es:

    (1.5)

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    25/103

    Esta ecuacin expresa que el precio actual de las acciones es igual a lacorriente descontada de todos los dividendos futuros que se pagarnpor ella 15.

    Los ineficientistas por otra parte proponen un modelo alternativo de laformacin del precio de los activos. En l, se incorporan a losinversionistas ordinarios y profesionales; los primeros son guiados porla psicologa de masas, la cual influye en los mercados financieroshaciendo que los precios de los activos sobrerreaccionen ante cambiosen la moda, el acontecer poltico, el ciclo econmico y los movimientossociales; mientras que los profesionales reaccionan en forma racional alos mercados en una forma rpida y apropiadamente a la informacinpblica disponible. El modelo de la formacin de precios que Shiller(1984) propone es:

    (1.6)

    Donde:

    Pt= Precio real de los activos

    = Dividendos esperados de los activos, segn los inversionistasprofesionales.

    = Dividendos esperados de los activos segn los inversionistasordinarios.

    = Tasa de descuento de los dividendos esperados por losinversionistas profesionales.

    = Tasa de descuento de los dividendos esperados por losinversionistas ordinarios.

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    26/103

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    27/103

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    28/103

    Un pronstico puntual proporciona una gua sencilla y fcil decomprender el futuro de una serie temporal. Sin embargo los choquesaleatorios e impredecibles afectan toda la serie que se estpronosticando. Como resultado de esos choques se espera que los

    errores de pronstico sean distintos a cero, an para pronsticos muybuenos. En consecuencia, se desea conocer el grado de confianza quese tiene con determinado pronstico puntual. En otras palabras, sedesea conocer cuanta incertidumbre est asociada con determinadopronstico (Diebold, 1998).

    1.5.1 El proceso del pronstico

    Para Bails and Peppers (1993) un pronstico no debe considerarsecomo algo permanente o esttico. Por lo que se debe visualizar como unproceso:

    1. Determinar el propsito y objetivo del pronstico

    2. Encontrar relaciones tericas

    3. Recolectar la base de datos

    4. Analizar la base de datos

    5. Estimar un modelo inicial

    6. Evaluar el modelo y hacer revisiones

    7. Presentar un pronstico inicial

    8.Entrega del pronstico

    9. Establecer procedimientos de monitoreo

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    29/103

    1.6 Revisin de investigaciones sobre predictibilidad.

    Aunque la literatura sobre la predictibilidad de los mercadosfinancieros es vasta, en este apartado se revisan las investigacionesms relevantes de los estudiosos sobre el tema y sus resultados.

    El tema de la predictibilidad en el mercado burstil es reciente,prcticamente se ha desarrollado en las dos ltimas dcadas. Lostericos de la predictibilidad del rendimiento de un activo a travs del

    valor presente neto y de variables macroeconmicas se dividen, al igualque en los determinantes del mercado burstil, en las corrienteseficientista e ineficientista. La pregunta que intentan resolver ambascorrientes es cul es el origen de las variaciones de los dividendosesperados y de la tasa de descuento o bien de los rendimientosesperados de un activo.

    Los eficientistas sostienen que cualquier variacin en los rendimientosesperados es producto del carcter racional de los agentes econmicos,y adems estos rendimientos revierten a la media en el largo plazo. Losineficientistas asocian los cambios de los rendimientos esperados a lapsicologa de masas, argumento que los lleva a concluir que el mercadono se comporta en forma racional (Guzmn et al, 2007).

    Dada la aceptacin de la predictibilidad de los rendimientos esperadosde un activo en esas dos escuelas, independientemente del carcterracional o irracional de los mercados, un recuento de los trabajosempricos sobre el pronstico del mercado burstil muestra que lasprincipales variables que determinan los cambios en los rendimientosde las acciones son las razones financieras, la tasa de inters y lasvariables macroeconmicas. En la tabla 1.2 se intenta resumir aquellasinvestigaciones ms sobresalientes sobre el tema.

    Tabla 1 .2: Pr incipales invest igaciones sobre predict ibi l idadAo Autores Investigacin

    1981 G Shill Ob l 16 l j di t d l i i d l

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    30/103

    descuento).1990 Balvers, Cosimano

    y McDonaldEl rendimiento de los activos puede ser predectible porque el productoagregado es predectible. Por lo que domina la relacin entre producto yrendimiento. Utilizan un modelo intertemporal de equilibrio general17.

    1991 Fama Muestra que un elemento adicional que explica la variacin en el precio de losactivos es su volatilidad.

    1992 Bekaert y Hodgrik Prueban la capacidad predictiva de los dividendos, el rendimiento futuro en elmercado de cambios extranjero y los rendimientos en exceso rezagados sobrelos rendimientos en exceso corrientes y concluyen que tienen alto poderpredictivo sobre el rendimiento en exceso de los activos. Utilizan un modelode vectores autorregresivos.

    1993 Nelson y Kim Prueban que la actividad econmica, medida por el ndice de la produccinindustrial no es un buen predictor de la variacin de los precios de los activos.

    1997 Kothari y Shanken Evalan la capacidad predictiva de la razn financiera: Valor en libros/Valorde mercado (L/M) y las comparan con las de dividendos, como resultado esque ambas tienen poder predictivo.

    1998 Rantiff y Scholl Muestran la capacidad predictiva de L/M y la variable diferencial sobre losrendimientos de los activos.

    2001 Tono y Veronesi Muestran que la variable de ingreso que explicara la variacin en elrendimiento de los activos es la razn ingreso laboral a consumo la cual,subrayan los autores, es una variable macroeconmica pura a diferencia de lasvariables financieras. Utilizan un modelo de equilibrio general.

    2002 Valds* Concluye que no se puede rechazar la hiptesis nula de que el ndiceaccionario sigue una caminata aleatoria, ni la linealidad de la media de losrendimientos del IPC de1985 a 2000.

    2003 Parisi y Guerrero Analizan la capacidad predictiva de los modelos de RNA para pronosticar elsigno de las variaciones semanales de 10 ndices burstiles de 1993 a 2002. Yconcluyen que los modelos basados en RNA, superan a los modelos ARIMA.

    2003 Salas* Analiza si la funcin de la esperanza condicional de los indicadores burstilesde 15 pases, incluyendo a Mxico, se puede modelar de manera lineal. Elresultado al que llega es que los ndices burstiles de la mayora de los pasesanalizados se pueden modelar en forma lineal. Utilizan los estadsticos deCramer Von Mises y el de Kolmogrov-Simirnov19.

    2004 Johnston ySoriano*

    Estudian la volatilidad de los rendimientos accionarios para 39 pases,incluyendo a Mxico, con datos diarios para el periodo 1990-2002. Los

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    31/103

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    32/103

    volatilidad y en la construccin de modelos matemticos que prediganun cambio de signo de estos.

    Finalmente, se presenta una sntesis del captulo para mostrar loselementos ms sobresalientes. Parte del sector burstil lo constituye labolsa mexicana de valores (BMV) y su principal indicador es el ndicede precios y cotizaciones (IPC), el cual representa la evolucin delmercado accionario en su conjunto a travs de una muestra balanceada,ponderada y representativa de todas las acciones cotizadas.

    En cuanto a las tendencias en la literatura que actan en el mercadoburstil tenemos, a los eficientistas que sostienen que cualquiervariacin en los rendimientos esperados es producto del carcterracional de los agentes econmicos, mientras que los ineficientistasasocian los cambios de los rendimientos esperados a la psicologa demasas por lo que concluyen que el mercado no se comporta de formaracional, sin embargo, ambas corrientes aceptan la predictibilidad delos rendimientos esperados de un activo .Por consiguiente, lospronsticos que se realizan en este trabajo son a partir de una serietemporal IPC, puntuales y de corto plazo.

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    33/103

    Captulo 2. Modelo no paramtrico:Redes neuronales artificiales.

    2.1 Generalidades

    El cerebro humano se caracteriza por su gran capacidad de procesarinformacin y su rapidez de respuesta han hecho que se intentendesarrollar sistemas que imiten, al menos en parte sus caractersticas.

    Su capacidad para realizar tareas como el reconocimiento, el recuerdo ola clasificacin se han intentado plasmar en diferentes tipos desistemas.

    Las redes neuronales artificiales (RNA) constituye una de las tcnicasque intentan reproducir las caractersticas del cerebro, a partir de suestructura fisiolgica bsica: la neurona, as como la agrupacin de

    neuronas en sistemas que pueden mostrar un comportamiento dealguna forma inteligente.

    Las RNA son arquitecturas de procesamiento paralelo 23 que ofrecennuevos mecanismos aplicables a una amplia gama de problemas,permitiendo tratar problemas difciles o imposibles de resolvermediante mtodos tradicionales, su aplicacin se ha extendido a

    problemas de prediccin, clasificacin, reconocimiento y, en general, aproblemas que no pueden ser descritos de forma exacta y para lo que laprogramacin convencional ofrece soluciones limitadas o inadecuadas(Prez y Martn, 2003).

    Una definicin que enfatiza el aspecto tecnolgico, nos dice que lasRNA (ANNs24) son distribuidas25, adaptativas26 y generalmente con

    mecanismos de aprendizaje no lineal, construida por diversosprocesadores elementales (Principe et al, 2000)

    Dentro de lo que se entiende por inteligencia artificial (I.A) una de las d l d l d i d

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    34/103

    nodos en los que hay elementos procesadores de informacin de cuyasinteracciones locales depende el comportamiento del conjunto delsistema.

    Estas redes a su vez pueden ser de procesamiento numrico, la cualrecibe directamente la seal de entrada desde el exterior y opera sobreella. Si la conexin entre los nodos se realiza en forma global bajo unasreglas de composicin, estamos ante los llamados sistemasdistribuidos, mientras que si la conexin se realiza agrupando ensubredes, se denomina sistema asociativo. Por lo que si se realiza unadistribucin en la que cada nodo 27 funciona corporativamente, se

    denomina red neuronal (Hilera y Martnez, 2000) .

    En trminos estadsticos, las RNA son estimadores no paramtricos querealizan estimaciones denominadas de modelo libre 28.Estas redes sesuelen definir en trminos de sus algoritmos o implementaciones(Prez y Martn, 2003).

    Para fines de este trabajo nos centraremos en la red backpropagation, 29la cual se considera una red feedforward multicapa que utilizafunciones no lineales y el algoritmo pretende minimizar el error.Considerando lo anterior este tipo de redes superan las limitacionesde las redes con una sola capa (Perceptrn y Adeline) por lo que suaplicacin ha sido extensa en diversas disciplinas, por ejemplo aproblemas de clasificacin, aproximacin de funciones y pronsticos(Mehrotra et al., 2000).

    2.2 Redes neuronales biolgicas

    La descripcin de la estructura y el funcionamiento de los sistemasbiolgicos nos servirn para comprobar el paralelismo que se intentaestablecer en los sistemas artificiales. El sistema nervioso es unsistema complejo, formado por unidades individuales denominadasneuronas, unidas entre s por una malla de fibras nerviosas.

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    35/103

    Las neuronas estn separadas estructural, metablica y funcionalmentey pueden tener tamaos y formas muy variados. Las neuronas formanredes entretejidas muy elaboradas, cuyas funciones varan endiferentes regiones del sistema. Estas diferencias de formas y tamaos

    reflejan el modo en que las neuronas procesan la informacin.

    2.2.1 La neurona biolgica

    Aunque las neuronas pueden presentar mltiples formas, muchastienen un aspecto similar. En todas las neuronas se identifican 3 partesprincipales (Prez y Martn, 2003).

    F igura 2 .1 : Partes de una neurona bio lgica

    Fuente: www.google.com.mx

    1.- El cuerpo celular o soma: Centro de sntesis de la clula, queprocesa las seales que le llegan de otras clulas, en forma deimpulsos, generando un nuevo impulso si se cumplen ciertascondiciones.

    2.- Las dentritas: Ramas fibrosas que emanan del cuerpo celular.

    3.- El axn: Fibra principal que emana el cuerpo celular. Es elcanal transmisor de los impulsos generados por la clula. Seramifica en su extremo final para conectar con otras neuronas, a

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    36/103

    La conexin entre neuronas se realiza por medio de uniones especialesdenominadas sinapsis30(figura 2.2). La transmisin de un lado a otro deestas uniones es de naturaleza qumica. La cantidad de sealtransferida depende de la cantidad de qumica aportada por el axn y

    recibida por las dentritas. La intensidad sinptica es modificadacuando decimos que el cerebro aprende. La sinapsis combinada con elproceso de informacin de la neurona, forman el mecanismo bsico dela memoria.

    Figura 2 .2: Sinapsis

    Fuente: www.google.com.mx

    Las neuronas en estado de inactividad presentan en su interior unpotencial de reposo de aproximadamente -70 mv. Si se aplica unestmulo despolarizado (reduccin del potencial de reposo) la respuestade la neurona consiste en pequeos cambios despolarizados con algunadistorsin. Cuando dicho estmulo alcanza el nivel de 10-15 mv,denominado umbral de impulso nervioso, se provoca una respuestabreve y rpida conocida como potencial de accin o impulso nervioso.Este se propaga a travs del axn en forma de reaccin en cadena,mantenindose una magnitud uniforme a medida que avanza. Sullegada a la unin sinptica provoca fenmenos elctricos al otro ladode la sinapsis, denominados potenciales postsinpticos.

    Aunque las neuronas propagan un solo tipo de seal, los potenciales

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    37/103

    que una neurona recibe potenciales excitatorios 31 e inhibitorios 32procedentes de diversas sinapsis En general, la neurona combina elefecto de estos potenciales en forma de sumas y restas,desencadenando un impulso nervioso solo si la combinacin supera el

    umbral.

    Existen grupos de neuronas pertenecientes a una determinada regindel cerebro que forman unidades funcionales especializadas en tareasconcretas, como puede ser la visin. La unin de todos los subgruposforma el encfalo. Se sabe que el procesamiento en el sistema nerviosoinvolucra la actuacin de muchos de estos subgrupos, que intercambian

    continuamente informacin.

    La intensidad de una sinapsis no est representada por una cantidadfija, sino que se puede modificar en una escala temporal mucho msamplia que la del disparo de las neuronas .Se supone que estacaracterstica constituye al menos en buena medida el aprendizaje.

    El cerebro de un ser vivo se modela durante su desarrollo, adquiriendouna serie de cualidades por la influencia de la informacin que recibede su entorno. Existen diversas formas de modelar el sistema nervioso:establecer nuevas conexiones, eliminar alguna ya existente, modificarlas intensidades sinpticas o eliminar neuronas. La modificacin de lasintensidades sinpticas es la caracterstica principal que utilizarn lasRNA para aprender.

    2.3 Componentes de una red neuronal artificial

    Una RNA se puede definir como un dispositivo diseado para laimitacin de los sistemas nerviosos de los animales, consiste en unainterconexin de unidades, denominadas neuronas artificiales oelementos de proceso, cuyo funcionamiento se inspira en las neuronas

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    38/103

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    39/103

    Las entradas a un elemento de proceso pueden ser las salidas de loselementos de proceso conectados a l, o entradas procedentes delexterior. As mismo, su salida puede ser una entrada a otros elementosde proceso, o ser una salida de la propia RNA. Cada conexin de

    entrada tiene asociado un nmero, denominado peso o fuerza de laconexin, que determina el efecto cuantitativo de unas unidades sobreotras y corresponde a la sinapsis biolgicas (figura 2.4).Los pesos sesuelen representar con una w (weights) y 2 subndices que indican laneurona y la entrada a dicha neurona a la que estn asociadosrespectivamente. Por tanto cada neurona tendr tantos pesos comoentradas.

    Figura2.4: Esquema con varias neuronas conectadas .

    Fuente: Prez y Martn (2003)

    La entrada total a un elemento de proceso, o entrada neta, ie , sedetermina aplicando una regla de propagacin, , a las entradas y suscorrespondientes pesos. Se pueden utilizar diferentes funciones,aunque la ms habitual es de tipo lineal y se basa en la suma ponderada

    de las entradas por los pesos:

    )t(w)t(x)t(e ijn

    1jiji

    =

    = (2.1)

    EPb

    )t(x

    )t(x

    )t(x

    3a

    2a

    1a

    )(tSi

    EPa

    EPi

    )t(x

    )t(x

    )t(x

    3b

    2b

    1b

    3b

    2b

    1b

    3a

    2a

    1a

    w

    w

    w

    w

    w

    w

    1iw

    2iw

    l ili l di i lid l

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    40/103

    entre vectores, se suele utilizar la distancia euclidea , que representa ladistancia entre el vector de entrada y el de pesos. Si ambos vectoresson muy similares, la distancia es muy pequea, aumentado con susdiferencias:

    =

    =n

    1j

    2ijiji )]t(w)t(x[)t(e (2.2)

    En algunos modelos la neurona se aade al conjunto de pesos unparmetro adicional, i , denominado umbral o tendencia, con lo que seaade un grado de libertad mas a la neurona (figura2.5).Dichoparmetro se asocia a una entrada con valor fijo igual a -1. La entradaneta calculada en (2.2) ser en este caso:

    i

    n

    1j

    ijiji )]t(w)t(x[)t(e = =

    (2.3)

    Figura 2 .5: Modelo de neurona con umbral

    Fuente: Prez y Martn (2003)

    2.3.2 Funcin de activacin

    EPi

    )(

    )(

    )(

    2

    1

    tx

    tx

    tx

    in

    i

    i

    )(tSi

    inw

    2iw

    - 1 i

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    41/103

    Al conjunto de valores de activacin de los elementos de proceso de unared indica lo que esta representa en un momento dado. Dichos valorespueden ser continuos o discretos. La funcin de activacin se suele

    considerar determinista y, en la mayor parte de los modelos, montonacreciente y continua, como se observa habitualmente en las neuronasbiolgicas. Cuando los algoritmos de aprendizaje requieren de unafuncin de activacin sea derivable, las mas empleadas son lasfunciones de tipo sigmoideo33.

    Figura 2 .6: Funciones de act ivacin t picas .

    Identidad Escaln Lineal a tramosU s o: Cua ndo la

    s a l ida de la ne uronae s igua l a s u e s ta dode a c t iva c in

    U s o: Cua ndo la

    ne urona no s edis p a ra mie ntra sla a c t iva c in nos up e re un c ie r toumbra l .

    U s o: L a a c t iva c in

    de la unida d e s tobl iga da ap e rma ne ce r de ntrode un inte rva lo .

    Gaussiana Sigmoidea S inusoidalU s o: imp l ica e lc lcu lo decua dra dos dedis ta nc ia s e ntre losve c to re s de ent ra day los de pe s os .

    U s o: cua ndo s ere quie ra unafunc in de r iva ble ,con unincre me ntomonotnico

    U s o: Cua ndo s ere quie re e xp re s a re xp l c i ta me nte unap e r iodic ida dte mp ora l .

    Fuente: Elaboracin propia con base en Prez y Martn (2003) e Hilera y Martnez(2000).

    Tanto la funcin de salida como la de activacin pueden tomar distintasf l f i d i b l d d

    Cuando una neurona recibe una seal de entrada formada por n

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    42/103

    Cuando una neurona recibe una seal de entrada, formada por nvalores, determina su entrada neta como la suma ponderada de talesvalores por los pesos asociados a cada valor de entrada. Aplicando a laentrada neta la funcin de activacin prefijada, se obtiene el nuevo

    valor de activacin de la neurona.

    2.4 Estructura de una red neuronal artificial

    2.4.1 Niveles o capas de neuronas

    Una RNA consta de varios elementos de proceso conectados de algunaforma, generalmente organizados en grupos denominados capas.Existen 2 capas tpicas en toda red, que contienen conexiones con elexterior (Prez y Martn, 2003):

    1.- Capa de entrada: a travs de la cual se presentan los datos de lared, y 2.- Capa de salida: muestra la respuesta de la red a unaentrada. La capa de entrada generalmente sirve para distribuir lasentradas de la red, por lo que no se tiene en cuenta a la hora decontabilizar el nmero de capas de esta. El resto de capas existentesentre ambas se denominan capas ocultas. Estas capas no tienenconexin directa con el entorno pero proporcionan a la red gradosde libertad adicionales, que permiten encontrar representac ionesinternas correspondientes a determinados rasgos del entorno(figura2.7).

    Figura 2 .7 : Red neuronal con una capa oculta .La primera t iene 3 neuronas , la segunda 2 y la tercera 1 .

    2 4 2 Conexiones entre las neuronas

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    43/103

    2.4.2 Conexiones entre las neuronas

    La conectividad entre los nodos de una red neuronal est relacionadacon la forma en que la salida de las neuronas est canalizada paraconvertirse en entradas de otras neuronas. La seal de salida de unnodo puede ser una entrada de otro elemento de proceso, o incluso serla entrada de s mismo (conexin autorrecurrente).

    Cuando ninguna salida de las neuronas es entrada de neuronas del

    mismo nivel o de niveles precedentes, la red se describe como depropagacin hacia delante (Feedforward). Cuando las salidas puedenser conectadas como entradas de neuronas de niveles previos o delmismo nivel, incluyndose ellas mismas, la red es de propagacinhacia atrs (feedback) (Mehrotra et al. , 2000).

    2.5 Operacin de la red

    En una RNA se distinguen 2 fases de operacin (Prez y Martn, 2003):

    1.- Fase de aprendizaje o entrenamiento: Una de lascaractersticas fundamentales en la RNA es que son sistemas

    entrenables, capaces de realizar un determinado tipo de procesamientoaprendiendo a partir de un conjunto de ejemplos, denominadospatrones de entrenamiento. La memoria de estas redes es distribuida.Los pesos de las conexiones son las unidades de memoria de la red. Losvalores de dichos pesos representan su estado actual de conocimiento.

    En la fase de entrenamiento, se representa a la red un conjunto de

    patrones de entrenamiento de forma interactiva. La red adaptar lospesos de las conexiones de forma que la respuesta a cada uno de lospatrones tenga un error cada vez menor. En general, el entrenamientoconcluye cuando se alcanza un error predeterminado.

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    44/103

    valores deseados y los obtenidos de la salida, es decir, en funcin del

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    45/103

    valores deseados y los obtenidos de la sal ida, es decir, en funcin delerror cometido en la salida.

    (b)Aprendizaje por refuerzo: Se basa en la idea de no disponerde un ejemplo completo de comportamiento deseado; es decir, indicardurante el entrenamiento exactamente la salida que se desea queproporcione la red ante una determinada entrada.

    (c)Aprendizaje estocstico: Consiste en realizar cambiosaleatorios en los valores de los pesos de las conexiones de la red y

    evaluar su efecto a partir del objetivo deseado y de distribuciones deprobabilidad.

    2.-Aprendizaje no supervisado: No requieren influencia externa paraajustar los pesos de las conexiones entre sus neuronas. La red norecibe ninguna informacin por parte del entorno que le indique si lasalida generada en respuesta a una determinada entrada es o no

    correcta (Hilera y Martnez, 2000).

    (d)Aprendizaje hebbiano: Consiste bsicamente en el ajuste delos pesos de las conexiones de acuerdo con la correlacin de los valoresde activacin (salidas) de dos neuronas conectadas.

    (e)Aprendizaje competitivo y cooperativo: Suele decirse que lasneuronas compiten (y cooperan) unas con otras con el fin de llevar cabouna tarea dada. Con este tipo de aprendizaje, se pretende que cuandose presente cierta informacin de entrada, solo una de las neuronas desalida de la red, o un cierto grupo de neuronas, se activen. Por tanto lasneuronas compiten por activarse quedando finalmente solo lasvencedoras.

    3.-Aprendizaje hbrido: En una misma red se utiliza aprendizajesupervisado y el no supervisado, normalmente en distintas capas de lamisma (Prez y Martn, 2003).

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    46/103

    30

    Tabla 2.1 Caractersticas de las redes neuronales artificiales ms conocidas.Aprendizaje Modelo de Red Topologa Algunas

    Aplicacione sAut or(es)

    Tipo Regla On Off

    Supervisado

    Correccinde error

    Perceptron 2 capasFeedforward 35

    Reconocimientode caracteresimpresos.

    Rosenblat1958

    Adaline/Madeline 2 capasFeedforward

    Filtrado deseales.EcualizadorAdaptativo.Modems.

    WidrowHoff1960

    Backpropagation N capasFeedforward

    Sntesis de vozdesde texto.Prediccin.Reconocimientode patrones.

    Werbos,Paker yRumelhart

    1986

    Brain-State-in-a-Bo x 1 capaConex.lat. 36

    y Auto-Recu.

    Extraccin deconocimiento debases de datos.

    Anderson1977

    Counterpropagation 3 capasFeedforwardConex.lat.

    y Auto-Recu

    Comprensin deimgenes. Hecht-Niel-Sen1987

    Refuerzo Linear Reward Penalty 2 capas

    FeedforwardReconocimientoo clasificacin depatrones.

    Barto1985

    Associative Rew.Penalty

    2 capasFeedforward

    Reconocimientoo clasificacin depatrones.

    Barto1985

    Adaptive HeuristicCritic

    3 capasFeedforward

    Barto1983

    35Las redes multicapas, normalmente todas las neuronas de una capa reciben seales de entrada de otra capa anterior ms cercana a la entrada de la red y enva las seales de

    salida a una capa posterior, mas cercana a la salida de la red. A estas conexiones se les denomina conexiones hacia delante (feedforward).36

    En las redes monocapa, se establecen conexione laterales entre las neuronas que pertenecen a la nica capa que constituye la red. Tambin pueden existir conexiones auto

    recurrentes (salida de una neurona conectada a su propia entrada).Estas redes s utiliza tpicamente en tareas relacionadas con autoasociacin.

    Estocstico Boltzmann Machine 1 capa Reconocimiento Hinton

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    47/103

    31

    stocst co o t a ac e capaConex.lat3 capasFeedforward

    eco oc e tode patrones(imgenes, sonary radar).

    Optimizacin.

    toAckleySejnowski1984

    Cauchy Machine 1 capaConex.lat3 capasFeedforward

    Reconocimientode patrones(imgenes, sonary radar).

    Szu1986

    Nosupervisado

    AprendizajeHebbiano

    Hopfield 1 capaConex.lat

    Reconstruccinde patrones yoptimizacin.

    Hopfield1984

    Learning Matrix 1 capaCrossbar

    Reconocimientode imgenes.

    Steinbuch1961

    TemporalAssoc.Memory

    2 capasFeedback37

    Desarrollo desoftware.Reconocimientode patrones (voz,texto). Anlisis deMercados.

    Amari1972

    Linear Associative

    Memory

    2 capas

    Feedforward

    Reconocimiento

    de cdigos.

    Anderson

    1968Kohonen1977

    Optimal Lam 2 capas/FF1 capaConex.lat.

    y Auto-Recu

    Reconocimientode imgenes.

    Wee1968Kohonen1973

    Drive-Reinforcement 2 capasFeedforward

    Klopf1986

    Fuzzy AssociateMemory

    2 capasFeedforward

    Desarrollo desoftware.Reconocimientode patrones (voz,texto). Anlisis deMercados.

    Kosko1987

    37Cuando existe a posibilidad de conectar las salidas de las neuronas de capas posteriores a as entradas de capas anteriores se les denomina conexiones hacia atrs (feedback)

    Additive Grossberg 1 capa Modelo mas Grossberg

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    48/103

    32

    g pConex.lat.

    y Auto-Recuampliamenteaplicado.

    g1968

    Shunting Grossberg 1 capa

    Conex.lat.y Auto-Recu

    Grossberg

    1973

    BidirectionalAssociative Memory

    2 capasFeedforward/Feedback

    Desarrollo desoftware.Reconocimientode patrones (voz,texto). Anlisis deMercados.

    Kosko1988

    Adaptive Bam 2 capas

    Feedforward/Feedback

    Kosko

    1987

    AprendizajeCompetitivo/Cooperativo

    Learning VectorQuantizer

    2 capasConex.lat.Implic.

    Autorrec.

    Problemas declasificacin ysegmentacin deimgenes.

    Kohonen1981

    Cognitron/Neocognitron

    Jerarqua deNiveles con

    capasbidimens. FF/F.Back

    Reconocimientode caracteres

    manuscritos.

    Fukushima1975/1980

    Topology PreservingMap

    2 capasFFConex.latImplic.

    Autorrec.

    Reconocimientode patrones,codificacin dedatos.Optimizacin.

    Kohonen1982

    Adaptive Resonance

    Theory

    2 capas

    Feedforward/Feedback/conex.lat.

    Auto-Recu.

    Reconocimiento

    de patrones(radar, sonar,etc.)

    Carpenter

    Grossberg1987

    Fuente: Hilera y Martnez (2000) y Mehrotra (2000).

    2.7 La red Backpropagation

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    49/103

    7 p p g

    En 1986, Rumelhart, Hinton y Williams, basndose en los trabajos deotros investigadores (Werbos, 74)(Parker, 82) formalizaron un mtodopara que una red neuronal aprendiera la asociacin que existe entrepatrones de entrada y las clases correspondientes, utilizando masniveles de neuronas que los que utiliz Rosenblatt para el Perceptrn 38.Este mtodo, conocido en general como backpropagation39(propagacion del error hacia atrs) est basado en la generalizacin dela regla delta y, a pesar de sus propias limitacione s40, ha ampliado de

    forma considerable el rango de aplicaciones de las redes neuronales(Hilera y Martnez, 2000).

    Esta red generalmente incluye una capa de entrada (que no realizaprocesamiento), otra de salida y al menos una capa oculta. Aunque noexisten lmites tericos en el nmero de capas ocultas, normalmentehay una o dos, habindose comprobado experimentalmente que se

    pueden resolver problemas de cualquier complejidad utilizando unmximo de 3 capas ocultas (Prez y Martn, 2003).

    Por lo que se puede decir, que las capacidades de las redes estnlimitadas por su tamao. Aunque el uso de redes grandes incrementa eltiempo de entrenamiento y reduce la generalizacin (memoriza la reden lugar de aprender) (Mehrotra et al, 2000).

    De forma simplificada, el funcionamiento de una red backpropagationconsiste en un aprendizaje de un conjunto predefinido de pares deentradas-salidas dados como ejemplo, empleando un ciclopropagacin-adaptacin de dos fases: primero se aplica un patrn deentrada como estmulo para la primera capa de las neuronas de la red,se va propagando a travs de todas las capas superiores hasta generaruna salida, se compara el resultado obtenido en las neuronas de salidacon la salida que se desea obtener y se calcula un valor de error paracada neurona de salida. A continuacin, estos errores se transmitenhacia atrs, partiendo de la capa de salida, hacia todas las neuronas dela capa intermedia que contribuyan directamente a la salida, recibiendo

    el porcentaje de error aproximado a la participacin de la neuronai t di d l lid i i l E t it

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    50/103

    intermedia de la salida original. Este proceso se repite, capa por capa,hasta que todas las neuronas de la red hayan recibido un error quedescriba su aportacin relativa al error total. Basndose en el valor del

    error recibido, se ajustan los pesos de conexin de cada neurona, demanera que en la siguiente vez que se presente el mismo patrn, lasalida est ms cercana a la deseada; es decir, el error disminuya.

    2.7.1 Regla delta generalizada

    La regla propuesta por Widrow en 1960 (regla delta) ha sido extendidaa redes con capas intermedias (regla delta generalizada 41) conconexiones hacia delante (feedforward) y cuyas clulas tienenfunciones de activacin continuas (lineales o sigmoidales), dando lugaralgoritmo de retropropagacin (backpropagation).Estas funcionescontinuas son no crecientes y derivables. La funcin sigmoidalpertenece a este tipo de funciones (Hilera y Martnez, 2000).

    Este algoritmo utiliza tambin una funcin o superficie de errorasociada a la red, buscando el estado estable de mnima energa o demnimo error a travs del camino descendente de la superficie de error.Por ello realimenta el error del sistema para realizar la modificacin delos pesos en un valor proporcional al gradiente decreciente de dichafuncin de error.

    Los pesos se actualizan de forma proporcional a delta, o diferenciaentre la salida deseada y la obtenida ( = salida deseada-salidaobtenida).Dada una neurona (unidad iU ) y la salida que

    produce, iy (ecuacin 2.4), el cambio que se produce en el peso de la

    conexin que une a la salida de dicha neurona con la unidad jU ( jiW )para un patrn de aprendizaje p determinado es:

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    51/103

    El punto en el que difiere la regla delta generalizada de la regla delta es elvalor co ncr et o de pj .Por otro lado, en las redes multinivel, a diferencia

    de las redes sin neuronas ocultas, en principio no se puede conocer lasalida deseada de las neuronas de las capas ocultas para poderdetermina los pesos en funcin del error cometido. Sin embargo,inicialmente si podemos conocer la salida deseada de las neuronas desalida. Segn esto, si consideramos la unidad jU de salida, entoncesdefinimos:

    jpjpjpj netfyd = (2.5)

    Donde pjd es la salida deseada de la neurona j para el patrn py jnet es laentrada neta que recibe la neurona j.

    Esta frmula es como la de la regla delta excepto en lo que se refiere ala derivada de la funcin de transferencia. Este trmino representa lamodificacin que hay que realizar en la entrada que recibe la neurona j.En el caso de que dicha neurona no sea de salida, el error que seproduce estar en funcin del error que se cometa en las neuronas quereciban como entrada la salida de dicha neurona. Esto es lo que se

    denomina procedimiento de propagacin del error hacia atrs.

    Segn esto, en el caso de que jU no sea una neurona de salida el errorque se produce esta en funcin del error que se comete en lasneuronas que reciben como entrada la salida de jU :

    ( )jk

    kjpkpj netfw

    = (2.6)

    El d d i d l bi id l

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    52/103

    El mtodo de retropropagacin del error , tambin conocido como elgradiente descendente, que requiere de un importante nmero declculos para lograr el ajuste de los pesos de la red. En la

    implementacin del algoritmo, toma una amplitud de paso que vienedada por a tasa de aprendizaje . A mayor tasa de aprendizaje, mayores la modificacin de los pesos en cada interaccin, con l que elaprendizaje ser ms rpido, pero por otro lado, puede dar lugar aoscilaciones. Para filtrar estas oscilaciones se aaden en la expresindel incremento de los pesos un trmino (momento) , de manera quedicha expresin quede:

    )t(Wy)1t(W

    )1t(W)t(Wy)t(WW

    jipipjji

    jijipipjjiji

    +=+

    =++= (2.7)

    Donde es una constante (momento) que determina el efecto en t+1 del cambio de los pesos en el instante t. Con este momento se consiguela convergencia de la red en menor nmero de interacciones, ya que sien tel incremento de un peso era positivo y en t+1 tambin, entonces eldescenso por la superficie del error en t+1 es mayor. Sin embargo, sien t el incremento era positivo y en t+1 es negativo, el paso que se daen t+1 es ms pequeo, lo cual es adecuado, ya que eso significa que seha pasado por un mnimo y que los pasos deben ser menores para poderalcanzarlo.

    2.7.2 Estructura y aprendizaje de la red.

    En una red backpropagation existe una capa de entrada con n neuronasy una capa de salida con m neuronas y al menos una capa oculta 42 deneuronas internas. Cada neurona de una capa (excepto las de entrada)reciben entradas de todas las neuronas de la capa anterior y envan susalida a todas las neuronas de la capa posterior (excepto las salidas).Nohay conexiones hacia atrs ni laterales entre neuronas de la mismacapa (figura 2.8).

    Figura 2 .8: Arquitectura de una red backpropagation. Pueden exis t ir neuronas

    f ict ic ias43 con sal ida 1 y pesos umbral de entrada al resto de las neuronas de

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    53/103

    f ict ic ias43 con sal ida 1 y pesos umbral de entrada a l resto de las neuronas decada capa.

    Fuente: Hilera y Martnez (2000)

    2.7.2.1 Algoritmo de aprendizaje

    A continuacin se presenta, a modo de sntesis, los pasos y frmulas autilizar para aplicar el algoritmo de aprendizaje (Hilera y Martnez,2000):

    1.-Iniciar los pesos de la red con valores pequeos yaleatorios 44.

    2.-Presentar un patrn de entrada, pN2p1pp x,...,x,x:X , especificar la

    salida deseada que debe generar la red: M21 d,...,d,d .

    3.-Calcular la salida actual de la red para ello presentamos lasentradas a la red y vamos calculando la salida que presenta cada capahasta llegar a la capa de salida de la red yyy Los pasos son los

    1

    1

    1

    i N

    L

    M

    Ca a oculta

    Ca a de salida

    Ca a de entrada

    Se calculan las entradas netas para las neuronas ocultas45 procedentesde las neuronas de entrada.

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    54/103

    de las neuronas de entrada.

    Para una neurona j oculta

    hjpi

    N

    1i

    hji

    hpj xwnet +=

    (2.8)

    En donde el ndice h se refiere a magnitudes de la capa oculta; elsubndice p, al p-esimo vector de entrenamiento, y j a la j-esim neurona

    oculta. El trmino puede ser opcional, los pesos actan como unaentrada ms.

    Se calculan las salidas de las neuronas ocultas:

    )net(fy hpjh

    jpj = (2.9)

    Se realizan los mismos clculos para obtener las salidas de las

    neuronas de salida (capa o).

    )net(fy

    ywnet

    opk

    okpk

    L

    1J

    okpj

    okj

    opk

    =

    +== (2.10)

    4.-Calcular los trminos de error para todas las neuronas: si laneurona k es una neurona de la cap a de salida, el valor delta es:

    ( ) )net(fyd opkokpkpk

    opk = (2.11)

    La funcin f, debe ser derivable. La funcin sigmoidal46est definida

    por la expresin:

    jknetjkk e1

    1)net(f

    +

    = (2.12)

    Y su derivada es

    )y1(y)f1(ff pkpkok

    ok

    ok ==

    (2.13)

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    55/103

    Por lo que los trminos de error para las neuronas de salida quedan:

    )yd( pkpkopk = (2.14)

    Para la salida sigmoidal 47

    =k

    okj

    opk

    hpj

    hj

    hpj w)net(f (2.15)

    Donde observamos que el error en las capas ocultas depende de todoslos trminos de error de la capa de salida. De aqu surge el trmino defeedforward (propagacin hacia atrs). En particular, para la funcinsigmoidal:

    okj

    k

    opkpipi

    hpj w)x1(x

    = (2.16)

    Donde k se refiere a todas las neuronas de la capa superior a la de laneurona j. As, el error que se produce en una neurona oculta esproporcional a la suma de los errores conocidos que se producen en lasneuronas a las que est conectada la salida de esta, multiplicando cadauno de ellos por el peso de la conexin. Los umbrales internos de lasneuronas se adaptan de forma similar, considerando que estnconectados con pesos desde entradas auxiliares de valor constante.

    5.-Actualizacin de los pesos: Para ello utilizamos el algoritmorecursivo, comenzando por las neuronas de salida y trabajando haciaatrs hasta llegar a la capa de entrada, ajustando los pesos de la formasiguiente:

    Para lo pesos de las neuronas d e la capa de salida:

    okj

    okj

    okj );1t(w)t(w)1t(w ++=+

    (2 17)

    hh

    hji

    hji

    hji

    )1(

    );1t(w)t(w)1t(w

    ++=+ (2.18)

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    56/103

    pihpj

    hji x)1t(w =+

    En ambos casos, para acelerar el proceso de aprendizaje, se puedeaadir el trmino momento48 de valor: ))1t(w)t(w( okj

    okj en el caso de la

    neurona de salida, y ))1t(w)t(w( hjihji cuando se trata de una neurona

    oculta.

    6.-El proceso se repite hasta que el trmino de error 49, resulta

    aceptablemente pequeo para cada uno de los patrones aprendidos.

    =

    =M

    1k

    2pkp 2

    1e (2.19)

    Siendo k el ndice de las clulas de la ltima capa. Y donde2pkpk

    2pk )yd( = es decir, se compara la salida obtenida con la salida

    deseada.

    El algoritmo de backpropagation encuentra un valor mnimo de error(local o global) mediante la aplicacin del gradiente descendente50.Cada punto de la superficie de la funcin de error corresponde a un

    conjunto valores de los pesos de la red. Con el gradiente descendente,siempre que se realiza un cambio en todos los pesos de la red, seasegura el descenso por la superficie del error hasta encontrar el vallems cercano, lo que puede hacer que el proceso de aprendizaje sedetenga en un mnimo local de error.

    El error total vendr dado por:

    48Para acelerar la convergencia del modelo, sus propios diseadores propusieron introducir un trmino a laexpresin que determina la variacin de los pesos, denominado termino momento, que ser proporcional a ladiferencia entre los pesos actuales y previos de la neurona correspondiente (determina el efecto en cadainteraccin del cambio de los pesos en la interaccin previa). Con ello, si el incremento de un peso es alto, la

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    57/103

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    58/103

    pjj

    p

    Net

    e=

    (2.24)

    La ecuacin (2.22) resultante es:

    pipjji

    p yw

    e=

    (2.25)

    Y por lo tanto la ecuacin (2.21) queda:

    pipjji yw = (2.26)

    Donde es la constante de proporcionalidad.

    Para calcular el valor de delta, se vuelve a aplicar la regla de la cadena.

    =

    =

    j

    pj

    pj

    p

    j

    ppj Net

    y

    y

    e

    Net

    e (2.27)

    El segundo trmino de la ecuacin (2.27) se obtiene a partir de quecada clula de la red cambia su salida.

    )Net(fNet

    ))Net(f(

    Net

    yj

    j

    j

    j

    pj =

    =

    (2.28)

    Para calcular el primer trmino, se deben distinguir 2 casos:

    (i) Si j es una clula de la capa de salida.En este caso, podemos aplicardirectamente la ecuacin (2.19) pues j seria igual a k. Por lo tanto

    pijpjpjji y)Net(f)yd(w = (2.30)

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    59/103

    (ii) Si la neurona jno pertenece a la capa externa:En este caso, hay que aplicar de nuevo la regla de la cadena:

    =

    pj

    k

    k

    p

    kpj

    p

    y

    Net

    Net

    e

    p

    e (2.31)

    Donde k denota las neuronas de la capa siguiente a que pertenece laneurona j (Figura 2.9). El desarrollo de la ecuacin (2.31) es:

    Figura 2 .9: Secuencia para obtener el error .

    jNet jy

    ji

    p

    w

    e

    j

    p

    y

    e

    ji

    j

    w

    Net

    Nivelesdeneuronas

    Nivel desalida

    pe

    3j

    2j

    1j

    w

    w

    w

    Error que seproduce a la

    Salida de la red

    j

    j

    Net

    y

    j

    p

    Net

    e

    Net kn

    Net 1k

    kNet pe

    ( )

    =

    =

    kj

    pjpjkj

    pp wN

    eyw

    N

    ee (2.32)

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    60/103

    kj

    kk pjkpj NetyNety

    ( ) ( ) ==

    k kkjpkkjpk

    pj

    p wwY

    e (2.33)

    De esta manera, la variacin del peso de una conexin que va de una

    capa de la red a otra que no sea la extern a, se calcula como:

    ( ) ( ) =k

    pijkjpkji yNetfww (2.34)

    nicamente queda por definir la funcin fy su derivada.

    Por lo general, en las redes tipo multicapa generalizando la funcin deactivacin suele ser sigmoidal:

    ( )xe11)x(f

    += (2.35)

    Donde x= jNet ; es decir

    ( )

    +

    =+

    = ijij ywNet

    je1

    1

    e1

    1y (2.36)

    Este tipo de funcin se caracteriza porque su derivada se puede

    ( ) ( ) ( )e1e

    e1

    1

    e1

    e)x(f

    x

    x

    x2x

    x

    =++

    =+

    =

    ( )

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    61/103

    ( )

    ( ) ( ) ( ))x(f1)x(f

    e1

    1

    1e

    1e)x(f

    e1

    11e)x(f

    xx

    x

    x

    x

    =

    +

    +

    +=

    +

    +

    (2.37)

    Y por lo tanto:

    jjjjj

    y1yNetf1NetfNetf == (2.38)

    En definitiva, para calcular el incremento a realizar en los pesosexistentes entre una capa y la siguiente que no sea la capa externa,usamos:

    ( ) ( ) =k

    pipjpjkjpkji yy1yww (2.39)

    Donde ( ) k

    kjpk w representa a retropropagacin del error. Para calcular

    el incremento a realizar a los pesos existentes entre una capa y la capasiguiente (capa externa), usamos:

    pipjpjpjpjji yy1yydw = (2.4o)

    Donde pjpj yd es el error que se produce en las neuronas de la capa

    externa, siendo pjd el valor deseado para el patrn p, e pjy el valorrealmente obtenido al procesar el patrn p.

    RNA son estimadores no paramtricos que realizan estimacionesdenominadas de modelo libre. Para efectos de pronstico utilizaremosla red backpropagation (propagacin del error hacia atrs) la cual se

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    62/103

    la red backpropagation (propagacin del error hacia atrs) la cual sebasa en la regla delta generalizada y con conexin hacia delante

    (feedforward) y cuyas clulas tienen funciones de activacin continuas(lineales o sigmoidales).

    Captulo 3.Modelo paramtrico

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    63/103

    3.1 Generalidades.

    En general, podemos decir que hay 4 enfoques de prediccin en lasseries de tiempo; por un lado tenemos modelos de regresinuniecuacionales y los modelos de regresin de ecuaciones simultaneas,ambos utilizan una prediccin condicional (se realizan a travs de

    modelos causales los cuales predicen los valores futuros de la variabledependiente de un modelo segn los valores que tomen las variablesindependientes del modelo ajustado) y por otro lado, tenemos losmodelos ARIMA52 (autorregresivos integrados de media mvil) y VAR(vectores autorregresivos) basados en predicciones incondicionales (sepredicen valores futuros de una variable en funcin de valores pasadosy actuales) que se realizan mediante mtodos autoprotectivos53(tabla3.1)(Gujarati, 1997).

    Los modelos ARIMA estn basados directamente sobre la metodologade Box54-Jenkins 55 (B-J), aunque los modelos tipo VAR no pertenecenexactamente a la familia de modelos estocsticos de series temporalesporB-J no obstante, los modelos VAR, pueden considerarse como una

    generalizacin del campo multivariante de los modelos autorregresivos

    univariantes AR de B-J (Prez, 2006).

    Para efectos de este trabajo, en lo que respeta a los modelos de seriesde tiempo nos centraremos en el modelo con tcnica incondicional, yaque la evidencia emprica de la literatura financiera ha comprobado laeficiencia de este tipo de modelos para fines de pronstico (Guzmn etal. , 2007).

    52Por su siglas en ingles: Autorregressive Moving Average

    Tabla 3.1 : Clas if icacin de los modelos paramtricosClasificacin Tcnicas de

    prediccinTipos Caractersti cas Representaci n

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    64/103

    Modelos

    Paramtricos

    Condicionales

    Modelos de

    regresinuniecuacionales

    Parte de unafuncin dedistribucin yestablece a

    priori una formafuncional

    ii22i110i uXXY +++=

    Modelos deregresin deecuacionessimultaneas 56

    tt10t uYC ++=

    ttt ICY +=

    Incondicionales

    Modelosautorregresivosintegrados demedia mvil(ARIMA) 57

    1t1t01t1t uuYY +++=

    Modelos devectoresautorregresivos(VAR)

    t2t21t1t vYYY +++=

    Elaboracin propia con base en: Prez (2006) y Gujarat i (1997) .

    3.2. Caractersticas de las series de tiempo

    3.2.1. Descomposicin de una serie temporal

    Una serie temporal es una sucesin de valores en el tiempo. La teoraclsica considera una serie de tiempo formada por 4 componentes(Prez, 2006):

    1.-La tendencia: Viene dada por el movimiento general a largol d l i l ( ) li l (b) d ti ( )

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    65/103

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    66/103

    3.2.3 Races unitarias

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    67/103

    El primer paso que tenemos que llevar a cabo en cualquier modelo que

    involucra series temporales es verificar el orden de integracin de lasvariables implicadas. Para verificar si una serie temporal es I(0), esdecir, estacionaria se pueden utilizar alternativamente diversaspruebas que, en la literatura especializada se conocen como test deraces unitarias. Entre los ms usados destacan los test de Dickey-Fuller (DF), Dickey-Fuller ampliado (DFA) y de Phillips-Perron (PP)(Prez, 2006).

    1.-Dickey-Fuller (DF): Se trata de verificar la hiptesis nula queel proceso es no estacionario 58 (p=1) o ( 0= ), frente a la hiptesisalternativa (p1) Consideremos el siguiente modelo 59 ttt uYY += 1 y

    tambin se puede escribir t1tt uYY = .Ahora utilizando el operador de

    rezagos L de tal manera que 22

    1 == tttt YYL,YLY y as sucesivamente.

    Parattt

    uYY += 1

    tenemostt

    uY)L( =1 . El trmino de raz unitaria 60 serefiere a la raz del polinomio del operador de rezagos.

    2.-Dickey-Fuller Ampliado (DFA) 61:Si el trmino de error tu estautocorrelacionado tendremos por

    ejemplo, = ++++=

    m

    1ititi1t21t YYtY , donde t es la variable de

    tiempo o tendencia. En caso de hiptesis nula es que 0= , ya que( 1p = ) es decir que hay una raz unitaria. Adems se considera que

    ( )2t1t1t YYY = ,etc; es decir se utilizan trminos en diferenciasrezagados que se determina con frecuencia empricamente, siendo laidea incluir suficientes trminos de tal manera que termino de errorsea serialmente independiente.

    3.-Phillips-Perron (PP): Los contrastes de Phillips-Perronextienden los contrastes de Dickey-Fuller para permitir autocorrelacin

    l b i l l l S

    3.3 Descripcin de los modelos ARIMA

    3 3 1 Clasificacin de los modelos Box-Jenkins

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    68/103

    3.3.1 Clasificacin de los modelos Box-Jenkins .

    Suponga en primer lugar que consideraremos como medicin deltiempo o de una serie temporal de observaciones de una variable, y,toman intervalos de tiempo regulares, t, en, n, periodos (Bails yPeppers, 1993).

    { }nt y,...,y,y,yy 321= (3.1)

    El objetivo es establecer cul es el patrn de estas observaciones y sitiene una relacin sistemtica en el tiempo y si lo hay, determinar elproceso que genera ese patrn. En un modelo en general, cada

    observacin en y, est compuesta por dos partes: la explicable o elcomponente predecible ( )tp y el componente de error aleatorio ( )t :

    ttt py += (3.2)

    El historial de los valores de la serie ( )tp representan un componenteexplicable para la prediccin de ty .La diferencia entre el valor actual y

    los valores estimados de ty , se le denomina ( )t y es referenciado comoel residuo. En el caso de un anlisis de regresin se espera que el valorde los residuales sea cero y que se asuma que no estn correlacionadosentre s.

    ( ) ( ) 00 1 == ttt E,E (3.3)

    Con el marco de referencia anterior podremos enfocarnos bsicamenteen 3 modelos62:

    Proceso autorregresivo (AR)

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    69/103

    Proceso autorregresivo (AR)

    Proceso de media mvil (MA)

    Proceso autorregresivo de media mvil (ARMA) 63

    3.3.1.1 Proceso autorregresivo

    Cuando un modelo es autorregresivos (AR), el valor actual de lavariable est en funcin de los valores previos ms el trmino deerror64.En este caso sera un proceso autorregresivo de orden p, oAR(p) (Bails y Peppers, 1993).

    tptpttt y...yyy +++++= 2211 (3.4)

    Donde ( ) son los parmetros a estimar y ( ) es el trmino constanteque est relacionado con la tendencia de la serie. El modelo se llamaautorregresivo porque, ty es regresivo en ella misma. El orden de este

    modelo , p, se refiere al nmero de trminos de rezagos.

    Para entender mejor cmo funcionan los parmetros autorregresivos ycomo debe de interpretar se, supondremos un modelo de primer ordenAR (1), el cual se modela de la siguiente forma:

    ttt yy += 11 (3.5)

    En la ecuacin (3.5) tenemos un modelo autorregresivo de primer

    orden donde, 11 ty representa el valor estimado y, t el trmino de

    error medido en el periodo de tiempo t.

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    70/103

    La ecuacin (3.4) sugiere que el valor estimado (pronstico) ty , est

    relacionado con ms de un valor previo. Por ejemplo, un procesoautorregresivo de segundo orden AR (2), tendra 2 parmetrosautorregresivos, por lo tanto:

    tttt yyy ++= 2211 (3.6)

    Por lo que se tiene que el valor actual de ty est en funcin ( 21 , ) que

    preceden a los 2 valores de y ( 21 tt y,y ) ms el trmino de error. En laterminologa Box-Jenkins el orden de p ms alta se refiere al orden delmodelo. Adicionalmente, no se siguiere nada al respecto de que no se

    puedan excluir los trminos de un orden menor para obtener el modelofinal. Por ejemplo, supongamos que el modelo que se estimar sea alsiguiente:

    ttttyyy ++=

    5533 (3.7)

    3.3.1.2 Proceso de media mvil

    El segundo modelo general dentro del marco de B-J es el proceso de

    media mvil (MA). Un modelo de media mvil une los valores actualesdel error aleatorio de una serie de tiempo con los periodos anteriores.El cual se puede expresar de la siguiente forma (Bails y Peppers, 1993):

    funcin del valor de la media , y de algunas combinaciones deltrmino de error de periodos anteriores. El orden ms alto del modelose denotar con q y se refiere al nmero de periodos de rezago en elmodelo

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    71/103

    modelo.

    En la ecuacin (3.9) consideramos un modelo de media mvil de primerorden MA (1)

    ttty += 11 (3.9)

    La ecuacin anterior implica que el valor observado de la serie , ty , es

    directamente proporcional (medida por 1 ) al periodo anterior del error.Como en los modelos AR, los modelos MA pueden extenderseincluyendo los trminos de error que necesiten excluyendo losintermedios.

    3.3.2 Proceso autorregresivo de media mvil

    El modelo final es un proceso autorregresivo de media mvil ARMA , el

    cual contiene parmetros tanto de AR como de MA. El orden delmodelo se expresa en trminos tanto de p y q, usualmente se denominade la forma ARMA (p , q)en el caso de que aade la diferenciacin lanotacin tomara la forma ARIMA(p , d, q) donde p es el orden deltrmino autorregresivo, d es el nivel de diferenciacin y qes el orden dela media mvil (Bails y Peppers,1993).

    ptpttt y...yyy ++++= 2211

    tqtqtt ... + 2211 (3.10)

    3.4 Metodologa Box-Jenkins (B-J)

    La metodologa Box Jenkins es tcnicamente conocida como

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    72/103

    La metodologa Box-Jenkins, es tcnicamente conocida como

    metodologa ARIMA, el nfasis de este mtodo de prediccin es elanlisis de las propiedades probabilsticas, o estocsticas de las seriesde tiempo econmicas por s mismas bajo la filosofa .En este tipo de modelos , tY puedeser explicada por valores pasados o rezagados de s misma y por lostrminos estocsticos de error 65.Por esta razn, los modelos ARIMAreciben algunas veces el nombre de modelos a-tericos porque nopueden ser derivados de la teora econmica.

    Para la aplicacin bsica de la metodologa Box- Jenkins, primerodebemos asumir que la serie de datos es estacionaria. Intuitivamente sedice que una serie es estacionaria cuando esta flucta aleatoriamentealrededor de algn valor fijo, generalmente el valor de la media de laserie (Perez, 2006).

    La metodologa Box- Jenkins considera 4 pasos:

    1.-Identificacin: Se encontraran los valores apropiados de p, dy q .

    2.-Estimacin: Al encontrar los valores apropiados de p y q , seestimarn los parmetros de los trminos autorregresivos y de mediamvil incluidos en el modelo.

    3.-Validacin: Posteriormente se ver si el modelo seleccionado ajustalos datos en forma razonablemente buena.

    4.-Prediccin: Al final se pronosticar la serie de tiempo y obtendremoslos intervalos de confianza que medirn la incertidumbre asociada conel pronstico.

    Grf ico 3.2 . Proceso de construccin de un modelo ARIMA (B-J)

    Datos de la serie

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    73/103

    F ue nt e : Pe re z .

    Clculo estadstico de laserie

    Selecci n de p,q y decisi n sobre lainclusin de .

    Transformacin de la serie

    Selecci n de

    d y

    Clculo de estimadores yClculo de estadsticos delos estimadores y de los

    residuos.

    Si

    NoEs la serie

    estacionaria?

    IDENTIFICACION

    ESTI

    MACION

    Es el modelo

    adecuado?

    VALIDA

    CION

    No

    Selecci n de los periodos deprediccin

    Clculo de predicciones yClculo de estadsticos paraevaluacin de a capacidad

    predictiva

    Si

    PR

    EDICCION

    3.5 Modelos heteroscedsticos

  • 8/10/2019 Tesis de Economa Con Anlisis Paramtrico

    74/103

    Uno de los supuestos importantes del modelo clsico es que la varianzaes constante para cada trmino de perturbacin t , es decirhomoscedstico 66.La importancia del incumplimiento de la hiptesis dehomoscedasticidad condicional radica, entre otras cosas, en que losestimadores obtenidos por MCO no son de varianza mnima aunquesigan siendo insesgados67.

    Por lo que, los modelos ARIMA (homocedsticos) son lineales en losparmetros, pero este tipo de estructura no puede explicar ciertascaractersticas importantes que tienen en comn las series financierascomo son (Brooks, 2006):

    (1) Leptocrtosis: La tendencia de los rendimientos de los activosfinancieros tiene una distribucin con colas gordas y exceso de

    apuntamiento en la media;(2) Volatilidad clustering: La tendencia de lavolatilidad en los mercados financieros aparecen en grupos y (3)Efectos de apalancamiento: La tendencia de la volatilidad seincrementa ms seguida de una cada prolongada de precios que en unaalza de precios.

    Cuando existen problemas de heteroscedsticidad en la serie, adems

    de haber sido tratadas con modelos ARIMA debern someterse atcnicas economtricas con la finalidad de poder explicar y modelar lavarianza del trmino de pert