Click here to load reader

ESTADISTICA BAYESIANA

  • View
    706

  • Download
    6

Embed Size (px)

Text of ESTADISTICA BAYESIANA

ESTADSTICA BAYESIANANotasndice1. INTRODUCCIN.............................................................................................................12. ESTADSTICA BAYESIANA............................................................................................23. QU ES LA INFERENCIA BAYESIANA?......................................................................34. CONCEPTOS BAYESIANOS BSICOS.........................................................................54.1. Teorema de Bayes ..................................................................................................................................... 54.2. Naturaleza secuencial del teorema de Bayes............................................................................................ 74.3. Distribucin a priori difusa o no informativa ............................................................................................... 74.4. Distribucin a priori conjugada ................................................................................................................. 105. INFERENCIA BAYESIANA............................................................................................125.1. Estimacin puntual ................................................................................................................................... 125.2. Intervalos de credibilidad o regiones veraces .......................................................................................... 165.3. Prueba de hiptesis para una muestra .................................................................................................... 175.4. Prueba de hiptesis para dos muestras................................................................................................... 186. CONCLUSIONES..........................................................................................................207. BIBLIOGRAFA..............................................................................................................201. IntroduccinComo anunciaba Lindley en el primer Congreso Internacional de Estadstica Bayesiana, falta menos para el2021aoenelqueeladjetivobayesianoparalaestadsticaserasuperfluoalserbayesianastodaslasaproximaciones a la estadstica.Elobjetivodelaestadstica,yenparticulardelaestadsticaBayesiana,esproporcionarunametodologaparaanalizaradecuadamentelainformacinconlaquesecuenta(anlisisdedatos)ydecidirdemanerarazonable sobre la mejor forma de actuar (teora de decisin).Figura 1. Diagrama de la EstadsticaTipos de inferencia: clsica y bayesianaLatomadedecisionesesunaspectoprimordialenlavidadeunprofesional,porejemplo,unmdicodebe de tomar decisiones.La metodologa estadstica clsica se puede ver como un conjunto de recetas que resultan apropiadasen determinados casos y bajo ciertas condiciones.Toma dedecisionesAnlisis dedatosInferencia MuestreoPoblacinMuestra2Sinembargo,existeunametodologaunificadaygeneralquesederivadeanalizarelprocesolgicoquedebedeseguirseparatomarunadecisin(teoradeladecisin),yqueincluyecomocasoparticular al conjunto de recetas clsicas.La estadstica esta basada en la teora de probabilidades. Formalmente la probabilidad es una funcinquecumpleconciertascondiciones,peroengeneralpuedeentendersecomounamedidaocuantificacin de la incertidumbre.Aunqueladefinicindefuncindeprobabilidadesuna,existenvariasinterpretacionesdelaprobabilidad:(a) clsica: Supone que el experimento aleatorio produce resultados igualmente verosmiles (posibles)y propone como medida de probabilidad el cociente entre los casos favorables y los casos totales,( ) PrAnAn=(b)frecuentista: Supone que un experimento aleatorio puede ser repetido un nmero infinito de vecesbajocondicionessimilaresyproponecomomedidadeprobabilidadlaproporcindevecesqueocurri el evento de inters,( ) Pr limAnnAn=

(c) subjetiva: Es simplemente una medida de la incertidumbre, asociada a un evento, asignada por undecisor. En otras palabras, es un juicio personal sobre la verosimilitud de que ocurra un resultado.( ) Pr A =Lametodologabayesianaestbasadaenlainterpretacinsubjetivadelaprobabilidadytienecomopunto central el Teorema de Bayes.Figura 2. Retrato del Reverendo Thomas Bayes (1702-1761)2. Estadstica bayesianaEl inters por el teorema de Bayes trasciende la aplicacin clsica, especialmente cuando se ampla a otrocontexto en el que la probabilidad no se entiende exclusivamente como la frecuencia relativa de un sucesoalargoplazo,sinocomoelgradodeconviccinpersonalacercadequeelsucesoocurraopuedaocurrir(definicinsubjetivadelaprobabilidad).Afirmacionesdeltipo"esmuyprobablequeelpartidoXganelasprximas elecciones", "es improbable que Juan haya sido quien llam por telfono" o "es probable que seencuentre un tratamiento eficaz para el sida en los prximos cinco aos", normales en el lenguaje comn,no pueden cuantificarse formalmente; resultan ajenas, por tanto, a una metodologa que se desenvuelva enun marco frecuentista. Una cuantificacin sobre base subjetiva resulta, sin embargo, familiar y fecunda parael enfoque bayesiano. Al admitir un manejo subjetivo de la probabilidad, el analista bayesiano podr emitirjuiciosdeprobabilidadsobreunahiptesisHyexpresarporesavasugradodeconviccinalrespecto,tanto antes como despus de haber observado los datos. En su versin ms elemental y en este contexto,el teorema de Bayes asume la forma siguiente:( )( )( )( )Pr |Pr | PrPrdatos HH datos Hdatos=3Laprobabilidadapriorideunahiptesis,( ) Pr H ,sevetransformadaenunaprobabilidadaposteriori,( ) Pr | H datos ,unavezincorporadalaevidenciaqueaportanlosdatos.Elcasoconsideradosecircunscribe a la situacin ms simple, aquella en que( ) Pr Hrepresenta un nmero nico; sin embargo, siseconsiguieraexpresarlaconviccininicial(ylaincertidumbre)medianteunadistribucindeprobabilidades.Entonces una vez observados los datos, el teorema "devuelve" una nueva distribucin, que no es otra cosaque la percepcin probabilstica original actualizada por los datos.Estamaneraderazonardelainferenciabayesiana,radicalmentediferentealainferenciaclsicaofrecuentista (que desdea en lo formal toda informacin previa de la realidad que examina), es sin embargomuycercanaalmododeprocedercotidiano,einductivo.Debesubrayarsequeestametodologa,adiferencia del enfoque frecuentista, no tiene como finalidad producir una conclusin dicotmica (significacinonosignificacin,rechazooaceptacin,etc.)sinoquecualquierinformacinemprica,combinadaconelconocimientoqueyasetengadelproblemaqueseestudia,"actualiza"dichoconocimiento,ylatrascendencia de dicha visin actualizada no depende de una regla mecnica.Losmtodosbayesianoshansidocuestionadosargumentandoque,alincorporarlascreenciasoexpectativaspersonalesdelinvestigador,puedensercaldodecultivoparacualquierarbitrariedadomanipulacin.Sepodraargir,porunaparte,queelenfoquefrecuentistanoestexentodedecisionessubjetivas (nivel de significacin, usar una o dos colas, importancia que se concede a las diferencias, etc.);dehecho,lasubjetividad (algobiendiferentedelaarbitrariedadoelcapricho)esunfenmenoinevitable,especialmente en un marco de incertidumbre como en el que operan las ciencias biolgicas y sociales. Porotraparte,las"manipulaciones"sonactosdedeshonestidad,quepuedenproducirseencualquiercaso(incluyendo la posibilidad de que se inventen datos) y que no dependendelametodologaempleada sinode la honradez de los investigadores.Aunquelasbasesdelaestadsticabayesianadatandehacemsdedossiglos,noeshastafechasrecientes cuando empieza a asistirse a un uso creciente de este enfoque en el mbito de la investigacin.Una de las razones que explican esta realidad y que a la vez anuncian un impetuoso desarrollo futuro es laabsolutanecesidaddeclculocomputarizadoparalaresolucindealgunosproblemasdemedianacomplejidad. Hoy ya existe software disponible (BUGS, macros para MINITAB, prxima versin de EPIDATy First Bayes, entre otros) que hace posible operar con estas tcnicas y augura el "advenimiento de una eraBayesiana".Elprocesointelectualasociadoalainferenciabayesianaesmuchomscoherenteconelpensamientousual del cientfico que el que ofrece el paradigma frecuentista. Los procedimientos bayesianos constituyenunatecnologaemergentedeprocesamientoyanlisisdeinformacinparalaquecabeesperarunapresencia cadavezmsintensaenel campodelaaplicacindelaestadsticaalainvestigacinclnicayepidemiolgica.3. Qu es la inferencia bayesiana?Elmarcotericoenqueseaplicalainferenciabayesianaessimilaralaclsica:hayunparmetropoblacionalrespectoalcualsedesearealizarinferenciasysetieneunmodeloquedeterminalaprobabilidad de observar diferentes valores de X, bajo diferentes valores de los parmetros. Sin embargo, ladiferencia fundamental es que la inferencia bayesiana considera al parmetro como una variable aleatoria.Estopareceraquenotienedemasiadaimportancia,perorealmentesilotienepuesconduceaunaaproximacin diferente para realizar el modelamiento del problema y la inferencia propiamente dicha.Algunosejemplosquejustificanloanteriorson:laverdaderaproporcindeartculosdefectuososqueproduceunprocesodemanufacturapuedefluctuarligeramentepuesdependedenumerososfactores,laverdaderaproporcindecasasquesepierdenporconceptodehipotecavariadependiendodelascondicioneseconmicas,lademandapromediosemanaldeautomvilestambinfluctuarcomounafuncin de varios factores incluyendo la temporada.En esencia, la inferencia bayesianaestabasadaenladistribucin deprobabilidaddelparmetrodadolosdatos(distribucinaposteriorideprobabilidad ( )Pry,enlugardeladistribucindelosdatosdadoelparmetro.Estadiferenciaconduceainferenciasmuchomsnaturales,lonicoqueserequiereparaelprocesodeinferenciabayesianaeslaespecificacinpreviadeunadistribucinapriorideprobabilidad4() Pr ,lacualrepresentaelconocimientoacercadelparmetroantesdeobtenercualquierinformacinrespecto a los datos.La nocin de la distribucin a priori para el parmetro es el corazn del pensamiento bayesiano. El anlisisbayesianohaceusoexplcitodelasprobabilidadesparacantidadesinciertas(parmetros)eninferenciasbasadas en anlisis estadsticos de datos.El anlisis bayesiano lo podemos dividir en las siguientes etapas:1.Eleccin de un modelo de probabilidad completo. Eleccin de una distribucin de probabilidad conjuntaparatodaslascantidadesobservablesynoobservables.Elmodelodebeserconsistenteconelconocimiento acerca del problema fundamental y el proceso de recoleccin de la informacin;2.Condicionamiento de los datos observados. Calcular e interpretar la distribucinaposterioriapropiadaquesedefinecomoladistribucindeprobabilidadcondicionaldelascantidadesnoobservadasdeinters, dados los datos observados;3.Evaluacindelajustedelmodeloylasimplicanciasdeladistribucinaposterioriresultante.Eselmodeloapropiadoalosdatos?,sonlasconclusionesrazonables?,qutansensiblessonlosresultadosalassuposicionesdemodelamientodelaprimeraetapa?.Sifuesenecesario,alteraroampliar el modelo, y repetir las tres etapas mencionadas.Lainferenciabayesianasebasaenelusodeunadistribucindeprobabilidadparadescribirtodaslascantidades desconocidas relevantes a un problema de estimacin, la concrecin tcnica deesteresultadoconsiste en lo siguiente:Sisedisponedeunacoleccindevariablesaleatoriasintercambiables { }1 2, , ,nx x x esdecirquesudistribucin slo depende del valor de esas variables y no del orden en que han sido observadas, entoncesla distribucin de probabilidad( ) ( ) ()1 21, , , |nn iif x x x f x d ==donde es la distribucin inicial( )|if x es el modelo de probabilidad; es el lmite de alguna funcin de las observaciones; y() es una distribucin de probabilidad sobre la distribucin inicial.Elconceptodeintercambiabilidadesmsdbilqueeldemuestraaleatoriasimple.Porejemplo,silasvariables intercambiables ixtoman el valor 0 1, el teorema de representacin toma la forma( ) ( ) ()11 21, , , 1i inx xnif x x x d == donde:1limniinxn==

Es importante notar que lo que quiere decir el anterior resultado es que siempre que se tenga una coleccinde variables intercambiables, y en una muestra aleatoria sencilla lo son, existe una distribucin inicial sobreel parmetro . Adems, el valor del parmetro puede obtenerse como lmite de las frecuencias relativas.Laaproximacinbayesianaimplicaentonces,quelainformacinmuestralyladistribucininicialseactualizan mediante el teorema de Bayes para dar lugar a la distribucin final.( )() ( )() ( )1 21 21 2, , , || , , ,, , , |nnnf x x xx x xf x x x d =Ahora todas las inferencias, la estimacin por punto, la estimacin por regiones veraces y los contrastes dehiptesis, se realizan mediante la distribucin final.54. Conceptos bayesianos bsicos4.1. Teorema de BayesSea { }1 2, , , 'ny y y = Y unvectorden observacionescuyadistribucindeprobabilidad( ) Pr | y depende dekparmetros involucrados en el vector { }1 2, , , 'n = . Supngase tambin queqtieneuna distribucin de probabilidades() Pr . Entonces, la distribucin de conjunta deeY es:( ) ( ) () ( ) () Pr | Pr | Pr Pr | Pr y y y y = =de donde la distribucin de probabilidad condicional dedado el vector de observacionesY resulta:( )( ) ()()Pr | PrPr |Pryyy =con() Pr 0 y A esta ecuacin se lo conoce como el teorema de Bayes, donde() Pryes la distribucin de probabilidadmarginal deY y puede ser expresada como:()( ) ()( ) ()Pr | PrPrPr | Pry d si es continuoyy si es discreto = dondelasumaointegralestomadasobreelespacioparamtricode .Deestemodo,elteoremadeBayes puede ser escrito como:( ) ( ) () ( ) () Pr | Pr | Pr Pr | Pr y c y y = [1]donde: () Pr representaloqueesconocidode antesderecolectarlosdatosyesllamadaladistribucin a priori de ;( ) Pr | y representaloqueseconocede despusderecolectarlosdatosyesllamadaladistribucin posterior dedadoY;c es una constante normalizadora necesaria para que( ) Pr | y sume o integre uno.Dado que el vector de datosY es conocido a travs de la muestra,( ) Pr | Y es una funcin dey no deY.Enestecasoa( ) Pr | Y seledenominafuncindeverosimilitudde dadoYyseledenotapor( ) | l Y . Entonces la formula de Bayes puede ser expresada como:( ) ( ) ( ) Pr Pr l | y | y Ejemplo. Sea el parmetroque a priori tiene una distribucin uniforme enelintervalo[0,1]ylavariablealeatoriaYque tiene una distribucin de probabilidades binomial con parmetrosm y ,m conocido porconveniencia. Entonces se tienen las siguientes funciones de distribucin:()( ) ( )Pr 1 0 1Pr | 1 0,1, ,myymy y my = | |= = |\ .Ahora, para una muestra aleatoria de tamaonla funcin de verosimilitud estar dada por:( ) ( )1| 1 0,1, ,i innm y yii iml y y m iy =| | = = | \ .6yaplicarelteoremadeBayesdadoen[1],ladistribucinaposterioride dadalamuestrayquedaexpresada como:( )( )( )( )1 1!Pr | 1! !i imn y yn ni ii in my cy m y = = = Esta expresin puede escribirse de la siguiente manera:( )( )( )( )( )( )1 1 1 11 1!Pr | 1! !i iy nm yn ni ii in my cy m y + + = = = que tiene la forma de una distribucin beta con parmetros1 yi| |+ |\ . y1 nm yi| | + |\ ..Luego el valor adecuado de la constante normalizadoracser:( )( )( )! !2!1 1y m ynmi icn my nm yi i +=| | | | + + ||\ . \ .Ntese que es a travs de( ) | l Yque los datos (informacinmuestral)modificanelconocimientopreviodeq dadopor() Pr .Esteprocesoderevisindelasprobabilidadesiniciales,dadalainformacinmuestral, se ilustra en la figura 3.Figura 3.Porultimo,esconvenientesealarquelainformacinmuestralY porlogeneralserintroducidaenelmodelo a travs de estadsticas suficientes para , dado que estas contienen toda la informacin referentea los datos. As, dado un conjunto de estadsticas suficientestpara los parmetros en ,( ) Pr | y podrser intercambiada por( ) Pr | t , para lo cual bastara con calcular la distribucin condicional detdado .InformacininicialInformacinnuevaDistribucina prioriPr()Funcin deverosimilitudl( | y)Teorema deBayesDistribucina posteriori7Figura 4. Teorema de Bayes4.2. Naturaleza secuencial del teorema de BayesSupngase que se tiene una muestra inicial 1y . Entonces, por la frmula de Bayes dada anteriormente setiene:( ) ( ) ()1 1Pr | | Pr y l y Ahora supngase que se tiene una segunda muestra 2yindependiente de la primera muestra, entonces:( ) ( ) () ( )( ) ()( ) ( ) ( )1 2 1 2 1 21 2 2 1Pr | , | , Pr | | PrPr | , | Pr |y y l y y l y l yy y l y y =Deestamanera,ladistribucinaposterioriobtenidaconlaprimeramuestraseconvierteenlanuevadistribucin a priori para ser corregida por la segunda muestra.Enesteprocesopuederepetirseindefinidamente.As,sisetienenr muestrasindependientes,ladistribucin a posteriori puede ser recalculada secuencialmente para cada muestra de la siguiente manera:( ) ( ) ( )1 2 1 2 1Pr | , , , | Pr | , , , 2, 3, ,m m my y y l y y y y para m r = Nteseque ( )1 2| , , ,my y y podratambin serobtenidopartiendode() Pr yconsiderandoaltotalde lasrmuestras como una sola gran muestra.La naturaleza secuencial del teorema de Bayes, es tratada por Bernardo como un proceso de aprendizajeentrminosdeprobabilidades,elcualpermiteincorporaralanlisisdeunproblemadedecisin,lainformacinproporcionadaporlosdatosexperimentalesrelacionadosconlossucesos(parmetros)inciertos relevantes.4.3. Distribucin a priori difusa o no informativaLadistribucinaprioricumpleunpapelimportanteenelanlisisbayesianoyaquemideelgradodeconocimiento inicial que se tiene de los parmetros en estudio. Si bien su influencia disminuye a medida quemsinformacinmuestralesdisponible,elusodeunauotradistribucinapriorideterminaraciertasdiferencias en la distribucin a posteriori.Si se tiene un conocimiento previo sobre los parmetros, este se traducir en una distribucin a priori. As,serposibleplanteartantasdistribucionesaprioricomoestadosinicialesdeconocimientoexistanylosdiferentes resultados obtenidos en la distribucin a posteriori bajo cada uno de los enfoques, adquirirn unaimportancia en relacin con la conviccin que tenga el investigador sobre cada estado inicial. Sin embargo,cuando nada es conocido sobre los parmetros, la seleccin de una distribucin a priori adecuada adquiereuna connotacin especial pues ser necesario elegir una distribucin a priori que no influya sobre ningunodelosposiblesvaloresdelosparmetrosencuestin.Estasdistribucionesapriorirecibenelnombrededifusas o no informativas y en esta seccin se tratara algunos criterios para su seleccin.Valoracin a priori acerca de si la hiptesises verdadera antes de ver los datosFactor de BayesValoracin a posteriori de quehiptesis nula sea verdaderax xComponente subjetivoComponente de los datos (evidencia)Probabilidad de la veracidad8Mtodo de JeffreysEn situaciones generales, para un parmetroel mtodo mas usado es el de Jeffreys (1961) que sugiereque,siuninvestigadoresignoranteconrespectoaunparmetro ,entoncessuopininacercadedadolasevidenciasX debeserlamismaqueeldeunaparametrizacinpara ocualquiertransformacin uno a uno de ,() g , una priori invariante sera:() () Pr Idonde () I es la matriz de informacin de Fisher:()( )22| Lnf yE= ISi ( )1 2, , , 'n = es un vector, entonces:() () Pr det I [2]donde () I es la matriz de informacin de Fisher de ordenp p El elemento( ) i jde esta matriz es:( )20|i ji jLnf yI E = Por transformacin de variables, la densidad a priori() Pr es equivalente a la siguiente densidad a prioripara :( ) ( ) ( )1Pr Prdhd = = [3]ElprincipiogeneraldeJeffreysconsisteenquealaplicarelmtodoparadeterminarladensidadapriori() Pr ,debeobtenerseunresultadoequivalenteen( ) Pr siseaplicalatransformacindelparmetropara calcular( ) Pr a partir de() Pr en la ecuacin [3] o si se obtiene( ) Pr directamente a partir delmtodo inicial. Es decir, debe cumplirse la siguiente igualdad:( ) () dI Id =Ejemplo. Sea la variableYcon una distribucin( ) , B n 9( ) ( ) ( )( ) ( ) ( )( )( )( )( )( )( )( )( )22 2 22 2 2 22 2| Pr | 1log | log log log 1log |1log |11 111n yynf y yynf y y n yyd f yy n ydd f yy n ydn yy n y ny n y n | |= = |\ .| |= + + |\ .= += +| | | | + = +|| || \ . \ .| | + =| |\ .EEEo1n Prescindiendo dense obtiene que la distribucin a priori de es:() Pr 1 esto es,( ) 0, 5 , 0, 5 Beta .Ejemplo.SeaplicaraelmtododeJeffreysparacalcularunadistribucinconjuntaaprioriparalosparmetros de un modelo normal.Sea ( )2, y N u , ambos parmetros desconocidos. Entonces:( )( )( )( )22221| exp2 21ln | ln ln2 2yf yyf yuu uuu u| |= | |\ .= y la matriz de informacin de Fisher estar dada por: ()( ) ( )( ) ( )2 2202 22ln | , ln | ,ln | , ln | ,f y f yEf y f yu u u u u u u = I()( )( ) ( )2 30 23 2 4212 31yEy yu u u = I10()2021020E = IAhora, segn la ecuacin [2], la distribucin a priori no informativa para( ) , u =ser:( )4 22 1Pr , u Ntese que aplicando las reglas anteriores, dado queues un parmetro de posicin yun parmetro deescala,lasdistribucionesaprioriparau y serian( ) Pr 1 u = y( )1Pr = ,porloquesisesuponeindependencia entre ambos parmetros se tendra( ) ( ) ( )1Pr , Pr Pr u u = =en vez de 2 .Jeffreysresolviesteproblemaestableciendoqueu y deberansertratadosaprioriindependientemente y por separado. As,cuandoelmtodo deJeffreysesaplicado almodelonormalcon fijo,resultaunaaprioriuniformeparau ycuandoesaplicadoconu fijo,seobtienelaapriori( )1Pr =lo cual conduce a:( )1Pr , u = , que es lo ms deseable.4.4. Distribucin a priori conjugadaEn este caso, la distribucin a priori es determinada completamente por una funcin de densidad conocida.Berger presenta la siguiente definicin para una familia conjugada: una clasePde distribuciones a priori esdenominada una familia conjugada para la clase de funciones de densidadF , si( ) Pr | y est en la clasePpara todo( ) | f y F y() Pr P .En este caso, la distribucin inicial dominar a la funcin de verosimilitud y( ) Pr | y tendr la misma formaque() Pr , con los parmetros corregidos por la informacin muestral.Ejemplo.Seaelparmetro queaprioritieneunadistribucinbetaconparmetros y lavariablealeatoriaY quetieneunadistribucindeprobabilidadbinomialconparmetrosmy ,mconocidoporconveniencia. Entonces se tienen las siguientes funciones de distribucin:()( )( ) ( )( ) ()( ) ( )110,1Pr 1Pr | 1 0,1, ,myyImy y my += | |= = |\ .Ahora para una muestra aleatoria de tamaonla funcin de verosimilitud estar dada por:( ) ( )1| 1 0,1, ,i inmn y yimly y m iy =| || | = = | |\ .\ .yalaplicarelteoremadeBayes,ladistribucinposteriorde dadalamuestrayquedaexpresadadelasiguiente manera:( ) ( )1 1Pr | 1i imn y yy + + quetienelaformadeunadistribucinbetaconparmetros ( )iy +y inm y +.Luego,ladistribucin tiene la misma forma que la distribucin a priori por lo que la clase de distribuciones a priori betaes una familia conjugada para la clase de funciones de densidad binomial.11Otro caso importante es el de la distribucin normalSeaelparmetro conunadistribucin ( )0 0, N u ,donde 0u y 0 sonparmetrosconocidosylavariableX conunadistribucin ( )2, N donde 2 esunparmetroconocido.Entoncestenemoslassiguientes funciones de distribucin:()( )( )( )2020 0221 1Pr exp2 21 1Pr | exp2 2xx u = = yalaplicarelteoremadeBayes,ladistribucinposteriorde dadalamuestraxquedaexpresadadelasiguiente manera:( )( )2121 01 1Pr | exp2 2x u = donde0 2 2012 201 11 1x u u +=+2 2 21 01 1 1 = +Luego( ) ( )21 1Pr | , x N u de donde se pueden sacar conclusiones:Precisiones de las distribuciones a priori y a posterioriPrecisin = 1/varianzaPrecisin a posteriori = precisin a priori + precisin de los datos2 2 21 01 1 1 = +Otro caso importante es el de la distribucin normal con mltiples observacionesSea { }1 2, , ,nx x x un vector denobservaciones, siendo ixobservaciones idnticamente distribuidas( )( )20 02,,Nx N u EntoncesalaplicarelteoremadeBayes,ladistribucinposteriorde dadalamuestra ix quedaexpresada de la siguiente manera:( ) () ( ) () ( ) ( ) ( )( ) () ( ) () ( )1 21Pr | Pr Pr | Pr Pr | Pr | Pr |Pr | Pr Pr | Pr Pr |nniix x x x xx x x = = =12( )( ) ( )( )( )( )2 202 21 02202 2101 1Pr | exp exp2 21Pr | exp2niiniixxnx x u u ==| | | | || ||\ . \ .| | | + |\ .( ) Pr | x depende nicamente deXa travs de 1niixxn==,esdecir,x esunestadstico suficientedelmodelo.Ya que, ( )2| , | x N n y considerando axcomo una simple observacin, se aplican los resultadosanteriores, luego:( ) ( ) ( )21 2Pr | , , , Pr | | ,n n nx x x x N u = donde0 2 202 2011nnxnu u +=+2 2 201 1nn = +NOTA: Si 2 20 =entonces la distribucin a priori tiene el mismo peso como una observacin extra con elvalor 0u . Es decir, si 0 connfijo, o conformen con 20fijo, entonces:( )2Pr | | , x N xn | | |\ .5. Inferencia bayesianaDadoqueladistribucinposterior,contienetodalainformacinconcernientealparmetrodeinters(informacin a priori y muestral), cualquier inferencia con respecto aconsistir en afirmaciones hechas apartir de dicha distribucin.5.1. Estimacin puntualLadistribucinposteriorreemplazalafuncindeverosimilitudcomounaexpresinqueincorporatodalainformacin.( ) | y esunresumencompletodelainformacinacercadelparmetro .Sinembargo,paraalgunasaplicacionesesdeseable(onecesario)resumirestainformacinenalgunaforma.Especialmente, si se desea proporcionar un simple mejor estimado del parmetro desconocido. (Ntese ladistincin con la estadstica clsica en que los estimados puntuales de los parmetros son la consecuencianatural de una inferencia).Por lo tanto, en el contexto bayesiano, cmo se puede reducir la informacin en una( ) Pr | y a un simplemejor estimado?, qu se debe entender por mejor?Existen dos formas de enfrentar el problema:(a)Estimador de Bayes posterior(b)Aproximacin de teora de decisin13Estimador de Bayes posteriorEl estimador de Bayes posterior se define de la siguiente manera:Sean { }1 2, , ,nx x x una muestra aleatoria de( ) | f x , dondees un valor de la variable aleatoriacon funcin de densidad( ) gi . El estimador de Bayes posterior de() con respecto a la priori( ) gies definida como() ( )1 2| , , ,nx x x E .Ejemplo.Sean { }1 2, , ,nx x x unamuestraaleatoriade( ) ( )1| 1xxf x = para1, 0 x = y()( )()0,1g I = . Cules son los estimadores de y( ) 1 ?( )() ( )() ( )( )( )( )()( )( )( )( )( )11 2 1100,11 2 10101 2 101 11 21|| , , ,|1| , , ,11| , , ,12 , 1| , , ,1 ,i ii ii ii iniinniin x xnn x xn x xnn x xn ni ii inni ii ig f xf x x xg f x dIf x x xddx x xdB x n xx x xB x n x === === = = | |+ + |\ .=+ EE( )111 211| , , ,2nniinxx x x ==| |+ |\ .+= ELuego el estimador a posteriori de Bayes de , 112niixn=++es un estimador sesgado. El estimador mximoverosmil de , 1niixn= es un estimador insesgado.( ) ( )( ) ( )( )101 2 101 11 | , , ,1i ii in x xnn x xdx x xd = E14( ) ( )( )( ) 1 11 21 12 221 | , , ,41 1n ni ii inn ni ii ix n xnx x xnx n x = == =| | | | + + || +\ . \ . = = + | | | | + + ||\ . \ . E( ) ( )( ) ( )1 11 21 11 | , , ,3 2n ni ii inx n xx x xn n = =| | | |+ + ||\ . \ . =+ + Eestimador de( ) 1 con respecto a la a priori uniforme.Aproximacion a la teora de la decisinPara los bayesianos, el problema de estimacin es un problema de decisin. Asociada con cada estimadora hay una prdida( ) , L a que refleja la diferencia entre ya .Se especifica una funcin de perdida( ) , L a que cuantifica las posibles penalidades en estimar pora .Hay muchas funciones prdida que se pueden usar. La eleccin en particular de una de ellas depender decontexto del problema. Las ms usadas son:1.Prdida cuadrtica:( ) ( )2, L a a = ;2.Prdida error absoluto o lineal absoluta:( ) , L a a = ;3.Prdida 0,1:( )0,1aL a sia = > 4.Prdida lineal: parag ,0 h> :( )( )( ),g a aL a sih a a >=