31
NAIVE BAYES Primer Parcial -> Tema 1 Minería de Datos Universidad del Cauca

Naive Bayes

Embed Size (px)

Citation preview

Page 1: Naive Bayes

NAIVE BAYESPrimer Parcial -gt Tema 1

Mineriacutea de Datos

Universidad del Cauca

APRENDIZAJE BAYESIANO

Enfoque probabiliacutestico al aprendizaje

Competitivo las hipoacutetesis compiten entre si venciendo la que tenga mayor probabilidad

Supervisado necesitamos conocer la clase de los ejemplos para estimar la probabilidad a posteriori de las observaciones

RAZONAMIENTO BAYESIANO

Supone que

Las hipoacutetesis estaacuten gobernadas por una distribucioacuten de probabilidad

Es posible tomar decisiones oacuteptimas razonando con estas probabilidades y las observaciones

MEacuteTODOS BAYESIANOS

Algunos meacutetodos bayesianos se encuentran entre los maacutes eficientes

Permiten interpretar el funcionamiento de otros meacutetodos en teacuterminos probabiliacutesticos

Incluso cuando no son aplicables proporcionan un estaacutendar de toma de decisioacuten oacuteptima frente al que comparar otros meacutetodos

TEOREMA DE BAYES Dado un conjunto de entrenamiento D

maacutes conocimiento a priori de la probabilidad de las distintas hipoacutetesis de H iquestCuaacutel es la hipoacutetesis maacutes probable

TEOREMA DE BAYES P(h|D)es la probabilidad a posteriori de h

Probabilidad de que h sea cierta despueacutes de observar D

P(D|h) es la probabilidad a posteriori de DEs la probabilidad de observar el conjunto de entrenamiento D en un universo donde se verifica la hipoacutetesis h

P(h) es la probabilidad a priori de la hipoacutetesis hProbabilidad de h sin ninguna observacioacuten

P(D)es la probabilidad a priori de DProbabilidad de observar D sin saber que hipoacutetesis se verifica

HIPOacuteTESIS HMAP

Hipoacutetesis hMAP maacutexima posteriori

Si queremos clasificar un nuevo caso (a1hellipan) y la variable clase C tiene k posibles categoriacuteas ΩC=c1hellipck lo que nos interesa es identificar la maacutes probable y devolverla como clasificacioacuten

Problema Hay que trabajar con la distribucioacuten conjunta y eso normalmente es inmanejable

HIPOacuteTESIS HMAP

Dado espacio de hipoacutetesis H y las observaciones D iquestCuaacutel es la hipoacutetesis h Hmaacutes probable

1 Para cada hipoacutetesis calcular la probabilidad a posteriori

2 Devolver la hipoacutetesis hMAP con la maacutexima probabilidad a posteriori

CLASIFICADOR NAIumlVE BAYES Es el modelo de red bayesiana orientada

a clasificacioacuten maacutes simple Supone que todos los atributos son

independientes conocida la variable clase

CLASIFICADOR NAIumlVE BAYES

En un Naiumlve Bayes (NB) la hipoacutetesis MAP queda como

A pesar de la suposicioacuten poco realista realizada en el NB este algoritmo se considera un estaacutendar y sus resultados son competitivos con la mayoriacutea de los clasificadores

VARIABLES DISCRETAS Se basa en frecuencia de aparicioacuten que obtendremos en la

base de datos asiacute n(XiPa(Xi)) es el numero de registros en la BD en que la variable Xi toma el valor Xi y los padres de Xi (Pa(Xi))

Estimacioacuten por maacutexima verisimilitud (EMV) el nuacutemero de veces que aparece Xi en la BD dividido por el numero de casos totales

Suavizando por la correccioacuten de Laplace nuacutemero de casos favorables mas uno dividido por el numero de casos totales mas el numero de valores posibles

VARIABLES NUMEacuteRICAS

P(x|ci) se estima mediante una funcioacuten de densidad gaussiana Se asume que los valores numeacutericos siguen una distribucioacuten normal es decir para cada categoriacutea de la variable clase se estima una distribucioacuten normal (de media μ y desviacioacuten estaacutendar σ )

ALGORITMO NAIVEBAYES

Aprendizaje_Bayesiano_Naive(instancia)Para cada posible valor del resultado vj

Obtener estimacioacuten prsquo(vj) de la probabilidad p(vj)

Para cada valor ai de cada atributo aObtener estimacioacuten prsquo(aivj) de

la probabilidad P(aivj)

Clasificar instancia(x)devolver

CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt

ESTIMACIOacuteN DE PROBABILIDADES

p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)

CLASIFICACIOacuteN

064 022 033 033 033

DISCUSIOacuteN NAIVE BAYES

Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN

Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente

independientes Aplicaciones

DiagnosisClasificacioacuten de texto

CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos

Desventajas Asumir que las variables tienen independencia condicional respecto a la

clase lleva a una falta de precisioacuten

En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios

1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc

Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias

Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos

EJEMPLO

Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de

lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y

seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris

Setosa Versicolor virginica

volver

volver

volver

volver

volver

volver

volver

volver

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 2: Naive Bayes

APRENDIZAJE BAYESIANO

Enfoque probabiliacutestico al aprendizaje

Competitivo las hipoacutetesis compiten entre si venciendo la que tenga mayor probabilidad

Supervisado necesitamos conocer la clase de los ejemplos para estimar la probabilidad a posteriori de las observaciones

RAZONAMIENTO BAYESIANO

Supone que

Las hipoacutetesis estaacuten gobernadas por una distribucioacuten de probabilidad

Es posible tomar decisiones oacuteptimas razonando con estas probabilidades y las observaciones

MEacuteTODOS BAYESIANOS

Algunos meacutetodos bayesianos se encuentran entre los maacutes eficientes

Permiten interpretar el funcionamiento de otros meacutetodos en teacuterminos probabiliacutesticos

Incluso cuando no son aplicables proporcionan un estaacutendar de toma de decisioacuten oacuteptima frente al que comparar otros meacutetodos

TEOREMA DE BAYES Dado un conjunto de entrenamiento D

maacutes conocimiento a priori de la probabilidad de las distintas hipoacutetesis de H iquestCuaacutel es la hipoacutetesis maacutes probable

TEOREMA DE BAYES P(h|D)es la probabilidad a posteriori de h

Probabilidad de que h sea cierta despueacutes de observar D

P(D|h) es la probabilidad a posteriori de DEs la probabilidad de observar el conjunto de entrenamiento D en un universo donde se verifica la hipoacutetesis h

P(h) es la probabilidad a priori de la hipoacutetesis hProbabilidad de h sin ninguna observacioacuten

P(D)es la probabilidad a priori de DProbabilidad de observar D sin saber que hipoacutetesis se verifica

HIPOacuteTESIS HMAP

Hipoacutetesis hMAP maacutexima posteriori

Si queremos clasificar un nuevo caso (a1hellipan) y la variable clase C tiene k posibles categoriacuteas ΩC=c1hellipck lo que nos interesa es identificar la maacutes probable y devolverla como clasificacioacuten

Problema Hay que trabajar con la distribucioacuten conjunta y eso normalmente es inmanejable

HIPOacuteTESIS HMAP

Dado espacio de hipoacutetesis H y las observaciones D iquestCuaacutel es la hipoacutetesis h Hmaacutes probable

1 Para cada hipoacutetesis calcular la probabilidad a posteriori

2 Devolver la hipoacutetesis hMAP con la maacutexima probabilidad a posteriori

CLASIFICADOR NAIumlVE BAYES Es el modelo de red bayesiana orientada

a clasificacioacuten maacutes simple Supone que todos los atributos son

independientes conocida la variable clase

CLASIFICADOR NAIumlVE BAYES

En un Naiumlve Bayes (NB) la hipoacutetesis MAP queda como

A pesar de la suposicioacuten poco realista realizada en el NB este algoritmo se considera un estaacutendar y sus resultados son competitivos con la mayoriacutea de los clasificadores

VARIABLES DISCRETAS Se basa en frecuencia de aparicioacuten que obtendremos en la

base de datos asiacute n(XiPa(Xi)) es el numero de registros en la BD en que la variable Xi toma el valor Xi y los padres de Xi (Pa(Xi))

Estimacioacuten por maacutexima verisimilitud (EMV) el nuacutemero de veces que aparece Xi en la BD dividido por el numero de casos totales

Suavizando por la correccioacuten de Laplace nuacutemero de casos favorables mas uno dividido por el numero de casos totales mas el numero de valores posibles

VARIABLES NUMEacuteRICAS

P(x|ci) se estima mediante una funcioacuten de densidad gaussiana Se asume que los valores numeacutericos siguen una distribucioacuten normal es decir para cada categoriacutea de la variable clase se estima una distribucioacuten normal (de media μ y desviacioacuten estaacutendar σ )

ALGORITMO NAIVEBAYES

Aprendizaje_Bayesiano_Naive(instancia)Para cada posible valor del resultado vj

Obtener estimacioacuten prsquo(vj) de la probabilidad p(vj)

Para cada valor ai de cada atributo aObtener estimacioacuten prsquo(aivj) de

la probabilidad P(aivj)

Clasificar instancia(x)devolver

CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt

ESTIMACIOacuteN DE PROBABILIDADES

p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)

CLASIFICACIOacuteN

064 022 033 033 033

DISCUSIOacuteN NAIVE BAYES

Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN

Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente

independientes Aplicaciones

DiagnosisClasificacioacuten de texto

CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos

Desventajas Asumir que las variables tienen independencia condicional respecto a la

clase lleva a una falta de precisioacuten

En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios

1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc

Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias

Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos

EJEMPLO

Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de

lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y

seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris

Setosa Versicolor virginica

volver

volver

volver

volver

volver

volver

volver

volver

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 3: Naive Bayes

RAZONAMIENTO BAYESIANO

Supone que

Las hipoacutetesis estaacuten gobernadas por una distribucioacuten de probabilidad

Es posible tomar decisiones oacuteptimas razonando con estas probabilidades y las observaciones

MEacuteTODOS BAYESIANOS

Algunos meacutetodos bayesianos se encuentran entre los maacutes eficientes

Permiten interpretar el funcionamiento de otros meacutetodos en teacuterminos probabiliacutesticos

Incluso cuando no son aplicables proporcionan un estaacutendar de toma de decisioacuten oacuteptima frente al que comparar otros meacutetodos

TEOREMA DE BAYES Dado un conjunto de entrenamiento D

maacutes conocimiento a priori de la probabilidad de las distintas hipoacutetesis de H iquestCuaacutel es la hipoacutetesis maacutes probable

TEOREMA DE BAYES P(h|D)es la probabilidad a posteriori de h

Probabilidad de que h sea cierta despueacutes de observar D

P(D|h) es la probabilidad a posteriori de DEs la probabilidad de observar el conjunto de entrenamiento D en un universo donde se verifica la hipoacutetesis h

P(h) es la probabilidad a priori de la hipoacutetesis hProbabilidad de h sin ninguna observacioacuten

P(D)es la probabilidad a priori de DProbabilidad de observar D sin saber que hipoacutetesis se verifica

HIPOacuteTESIS HMAP

Hipoacutetesis hMAP maacutexima posteriori

Si queremos clasificar un nuevo caso (a1hellipan) y la variable clase C tiene k posibles categoriacuteas ΩC=c1hellipck lo que nos interesa es identificar la maacutes probable y devolverla como clasificacioacuten

Problema Hay que trabajar con la distribucioacuten conjunta y eso normalmente es inmanejable

HIPOacuteTESIS HMAP

Dado espacio de hipoacutetesis H y las observaciones D iquestCuaacutel es la hipoacutetesis h Hmaacutes probable

1 Para cada hipoacutetesis calcular la probabilidad a posteriori

2 Devolver la hipoacutetesis hMAP con la maacutexima probabilidad a posteriori

CLASIFICADOR NAIumlVE BAYES Es el modelo de red bayesiana orientada

a clasificacioacuten maacutes simple Supone que todos los atributos son

independientes conocida la variable clase

CLASIFICADOR NAIumlVE BAYES

En un Naiumlve Bayes (NB) la hipoacutetesis MAP queda como

A pesar de la suposicioacuten poco realista realizada en el NB este algoritmo se considera un estaacutendar y sus resultados son competitivos con la mayoriacutea de los clasificadores

VARIABLES DISCRETAS Se basa en frecuencia de aparicioacuten que obtendremos en la

base de datos asiacute n(XiPa(Xi)) es el numero de registros en la BD en que la variable Xi toma el valor Xi y los padres de Xi (Pa(Xi))

Estimacioacuten por maacutexima verisimilitud (EMV) el nuacutemero de veces que aparece Xi en la BD dividido por el numero de casos totales

Suavizando por la correccioacuten de Laplace nuacutemero de casos favorables mas uno dividido por el numero de casos totales mas el numero de valores posibles

VARIABLES NUMEacuteRICAS

P(x|ci) se estima mediante una funcioacuten de densidad gaussiana Se asume que los valores numeacutericos siguen una distribucioacuten normal es decir para cada categoriacutea de la variable clase se estima una distribucioacuten normal (de media μ y desviacioacuten estaacutendar σ )

ALGORITMO NAIVEBAYES

Aprendizaje_Bayesiano_Naive(instancia)Para cada posible valor del resultado vj

Obtener estimacioacuten prsquo(vj) de la probabilidad p(vj)

Para cada valor ai de cada atributo aObtener estimacioacuten prsquo(aivj) de

la probabilidad P(aivj)

Clasificar instancia(x)devolver

CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt

ESTIMACIOacuteN DE PROBABILIDADES

p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)

CLASIFICACIOacuteN

064 022 033 033 033

DISCUSIOacuteN NAIVE BAYES

Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN

Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente

independientes Aplicaciones

DiagnosisClasificacioacuten de texto

CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos

Desventajas Asumir que las variables tienen independencia condicional respecto a la

clase lleva a una falta de precisioacuten

En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios

1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc

Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias

Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos

EJEMPLO

Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de

lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y

seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris

Setosa Versicolor virginica

volver

volver

volver

volver

volver

volver

volver

volver

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 4: Naive Bayes

MEacuteTODOS BAYESIANOS

Algunos meacutetodos bayesianos se encuentran entre los maacutes eficientes

Permiten interpretar el funcionamiento de otros meacutetodos en teacuterminos probabiliacutesticos

Incluso cuando no son aplicables proporcionan un estaacutendar de toma de decisioacuten oacuteptima frente al que comparar otros meacutetodos

TEOREMA DE BAYES Dado un conjunto de entrenamiento D

maacutes conocimiento a priori de la probabilidad de las distintas hipoacutetesis de H iquestCuaacutel es la hipoacutetesis maacutes probable

TEOREMA DE BAYES P(h|D)es la probabilidad a posteriori de h

Probabilidad de que h sea cierta despueacutes de observar D

P(D|h) es la probabilidad a posteriori de DEs la probabilidad de observar el conjunto de entrenamiento D en un universo donde se verifica la hipoacutetesis h

P(h) es la probabilidad a priori de la hipoacutetesis hProbabilidad de h sin ninguna observacioacuten

P(D)es la probabilidad a priori de DProbabilidad de observar D sin saber que hipoacutetesis se verifica

HIPOacuteTESIS HMAP

Hipoacutetesis hMAP maacutexima posteriori

Si queremos clasificar un nuevo caso (a1hellipan) y la variable clase C tiene k posibles categoriacuteas ΩC=c1hellipck lo que nos interesa es identificar la maacutes probable y devolverla como clasificacioacuten

Problema Hay que trabajar con la distribucioacuten conjunta y eso normalmente es inmanejable

HIPOacuteTESIS HMAP

Dado espacio de hipoacutetesis H y las observaciones D iquestCuaacutel es la hipoacutetesis h Hmaacutes probable

1 Para cada hipoacutetesis calcular la probabilidad a posteriori

2 Devolver la hipoacutetesis hMAP con la maacutexima probabilidad a posteriori

CLASIFICADOR NAIumlVE BAYES Es el modelo de red bayesiana orientada

a clasificacioacuten maacutes simple Supone que todos los atributos son

independientes conocida la variable clase

CLASIFICADOR NAIumlVE BAYES

En un Naiumlve Bayes (NB) la hipoacutetesis MAP queda como

A pesar de la suposicioacuten poco realista realizada en el NB este algoritmo se considera un estaacutendar y sus resultados son competitivos con la mayoriacutea de los clasificadores

VARIABLES DISCRETAS Se basa en frecuencia de aparicioacuten que obtendremos en la

base de datos asiacute n(XiPa(Xi)) es el numero de registros en la BD en que la variable Xi toma el valor Xi y los padres de Xi (Pa(Xi))

Estimacioacuten por maacutexima verisimilitud (EMV) el nuacutemero de veces que aparece Xi en la BD dividido por el numero de casos totales

Suavizando por la correccioacuten de Laplace nuacutemero de casos favorables mas uno dividido por el numero de casos totales mas el numero de valores posibles

VARIABLES NUMEacuteRICAS

P(x|ci) se estima mediante una funcioacuten de densidad gaussiana Se asume que los valores numeacutericos siguen una distribucioacuten normal es decir para cada categoriacutea de la variable clase se estima una distribucioacuten normal (de media μ y desviacioacuten estaacutendar σ )

ALGORITMO NAIVEBAYES

Aprendizaje_Bayesiano_Naive(instancia)Para cada posible valor del resultado vj

Obtener estimacioacuten prsquo(vj) de la probabilidad p(vj)

Para cada valor ai de cada atributo aObtener estimacioacuten prsquo(aivj) de

la probabilidad P(aivj)

Clasificar instancia(x)devolver

CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt

ESTIMACIOacuteN DE PROBABILIDADES

p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)

CLASIFICACIOacuteN

064 022 033 033 033

DISCUSIOacuteN NAIVE BAYES

Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN

Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente

independientes Aplicaciones

DiagnosisClasificacioacuten de texto

CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos

Desventajas Asumir que las variables tienen independencia condicional respecto a la

clase lleva a una falta de precisioacuten

En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios

1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc

Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias

Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos

EJEMPLO

Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de

lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y

seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris

Setosa Versicolor virginica

volver

volver

volver

volver

volver

volver

volver

volver

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 5: Naive Bayes

TEOREMA DE BAYES Dado un conjunto de entrenamiento D

maacutes conocimiento a priori de la probabilidad de las distintas hipoacutetesis de H iquestCuaacutel es la hipoacutetesis maacutes probable

TEOREMA DE BAYES P(h|D)es la probabilidad a posteriori de h

Probabilidad de que h sea cierta despueacutes de observar D

P(D|h) es la probabilidad a posteriori de DEs la probabilidad de observar el conjunto de entrenamiento D en un universo donde se verifica la hipoacutetesis h

P(h) es la probabilidad a priori de la hipoacutetesis hProbabilidad de h sin ninguna observacioacuten

P(D)es la probabilidad a priori de DProbabilidad de observar D sin saber que hipoacutetesis se verifica

HIPOacuteTESIS HMAP

Hipoacutetesis hMAP maacutexima posteriori

Si queremos clasificar un nuevo caso (a1hellipan) y la variable clase C tiene k posibles categoriacuteas ΩC=c1hellipck lo que nos interesa es identificar la maacutes probable y devolverla como clasificacioacuten

Problema Hay que trabajar con la distribucioacuten conjunta y eso normalmente es inmanejable

HIPOacuteTESIS HMAP

Dado espacio de hipoacutetesis H y las observaciones D iquestCuaacutel es la hipoacutetesis h Hmaacutes probable

1 Para cada hipoacutetesis calcular la probabilidad a posteriori

2 Devolver la hipoacutetesis hMAP con la maacutexima probabilidad a posteriori

CLASIFICADOR NAIumlVE BAYES Es el modelo de red bayesiana orientada

a clasificacioacuten maacutes simple Supone que todos los atributos son

independientes conocida la variable clase

CLASIFICADOR NAIumlVE BAYES

En un Naiumlve Bayes (NB) la hipoacutetesis MAP queda como

A pesar de la suposicioacuten poco realista realizada en el NB este algoritmo se considera un estaacutendar y sus resultados son competitivos con la mayoriacutea de los clasificadores

VARIABLES DISCRETAS Se basa en frecuencia de aparicioacuten que obtendremos en la

base de datos asiacute n(XiPa(Xi)) es el numero de registros en la BD en que la variable Xi toma el valor Xi y los padres de Xi (Pa(Xi))

Estimacioacuten por maacutexima verisimilitud (EMV) el nuacutemero de veces que aparece Xi en la BD dividido por el numero de casos totales

Suavizando por la correccioacuten de Laplace nuacutemero de casos favorables mas uno dividido por el numero de casos totales mas el numero de valores posibles

VARIABLES NUMEacuteRICAS

P(x|ci) se estima mediante una funcioacuten de densidad gaussiana Se asume que los valores numeacutericos siguen una distribucioacuten normal es decir para cada categoriacutea de la variable clase se estima una distribucioacuten normal (de media μ y desviacioacuten estaacutendar σ )

ALGORITMO NAIVEBAYES

Aprendizaje_Bayesiano_Naive(instancia)Para cada posible valor del resultado vj

Obtener estimacioacuten prsquo(vj) de la probabilidad p(vj)

Para cada valor ai de cada atributo aObtener estimacioacuten prsquo(aivj) de

la probabilidad P(aivj)

Clasificar instancia(x)devolver

CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt

ESTIMACIOacuteN DE PROBABILIDADES

p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)

CLASIFICACIOacuteN

064 022 033 033 033

DISCUSIOacuteN NAIVE BAYES

Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN

Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente

independientes Aplicaciones

DiagnosisClasificacioacuten de texto

CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos

Desventajas Asumir que las variables tienen independencia condicional respecto a la

clase lleva a una falta de precisioacuten

En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios

1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc

Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias

Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos

EJEMPLO

Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de

lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y

seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris

Setosa Versicolor virginica

volver

volver

volver

volver

volver

volver

volver

volver

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 6: Naive Bayes

TEOREMA DE BAYES P(h|D)es la probabilidad a posteriori de h

Probabilidad de que h sea cierta despueacutes de observar D

P(D|h) es la probabilidad a posteriori de DEs la probabilidad de observar el conjunto de entrenamiento D en un universo donde se verifica la hipoacutetesis h

P(h) es la probabilidad a priori de la hipoacutetesis hProbabilidad de h sin ninguna observacioacuten

P(D)es la probabilidad a priori de DProbabilidad de observar D sin saber que hipoacutetesis se verifica

HIPOacuteTESIS HMAP

Hipoacutetesis hMAP maacutexima posteriori

Si queremos clasificar un nuevo caso (a1hellipan) y la variable clase C tiene k posibles categoriacuteas ΩC=c1hellipck lo que nos interesa es identificar la maacutes probable y devolverla como clasificacioacuten

Problema Hay que trabajar con la distribucioacuten conjunta y eso normalmente es inmanejable

HIPOacuteTESIS HMAP

Dado espacio de hipoacutetesis H y las observaciones D iquestCuaacutel es la hipoacutetesis h Hmaacutes probable

1 Para cada hipoacutetesis calcular la probabilidad a posteriori

2 Devolver la hipoacutetesis hMAP con la maacutexima probabilidad a posteriori

CLASIFICADOR NAIumlVE BAYES Es el modelo de red bayesiana orientada

a clasificacioacuten maacutes simple Supone que todos los atributos son

independientes conocida la variable clase

CLASIFICADOR NAIumlVE BAYES

En un Naiumlve Bayes (NB) la hipoacutetesis MAP queda como

A pesar de la suposicioacuten poco realista realizada en el NB este algoritmo se considera un estaacutendar y sus resultados son competitivos con la mayoriacutea de los clasificadores

VARIABLES DISCRETAS Se basa en frecuencia de aparicioacuten que obtendremos en la

base de datos asiacute n(XiPa(Xi)) es el numero de registros en la BD en que la variable Xi toma el valor Xi y los padres de Xi (Pa(Xi))

Estimacioacuten por maacutexima verisimilitud (EMV) el nuacutemero de veces que aparece Xi en la BD dividido por el numero de casos totales

Suavizando por la correccioacuten de Laplace nuacutemero de casos favorables mas uno dividido por el numero de casos totales mas el numero de valores posibles

VARIABLES NUMEacuteRICAS

P(x|ci) se estima mediante una funcioacuten de densidad gaussiana Se asume que los valores numeacutericos siguen una distribucioacuten normal es decir para cada categoriacutea de la variable clase se estima una distribucioacuten normal (de media μ y desviacioacuten estaacutendar σ )

ALGORITMO NAIVEBAYES

Aprendizaje_Bayesiano_Naive(instancia)Para cada posible valor del resultado vj

Obtener estimacioacuten prsquo(vj) de la probabilidad p(vj)

Para cada valor ai de cada atributo aObtener estimacioacuten prsquo(aivj) de

la probabilidad P(aivj)

Clasificar instancia(x)devolver

CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt

ESTIMACIOacuteN DE PROBABILIDADES

p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)

CLASIFICACIOacuteN

064 022 033 033 033

DISCUSIOacuteN NAIVE BAYES

Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN

Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente

independientes Aplicaciones

DiagnosisClasificacioacuten de texto

CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos

Desventajas Asumir que las variables tienen independencia condicional respecto a la

clase lleva a una falta de precisioacuten

En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios

1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc

Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias

Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos

EJEMPLO

Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de

lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y

seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris

Setosa Versicolor virginica

volver

volver

volver

volver

volver

volver

volver

volver

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 7: Naive Bayes

HIPOacuteTESIS HMAP

Hipoacutetesis hMAP maacutexima posteriori

Si queremos clasificar un nuevo caso (a1hellipan) y la variable clase C tiene k posibles categoriacuteas ΩC=c1hellipck lo que nos interesa es identificar la maacutes probable y devolverla como clasificacioacuten

Problema Hay que trabajar con la distribucioacuten conjunta y eso normalmente es inmanejable

HIPOacuteTESIS HMAP

Dado espacio de hipoacutetesis H y las observaciones D iquestCuaacutel es la hipoacutetesis h Hmaacutes probable

1 Para cada hipoacutetesis calcular la probabilidad a posteriori

2 Devolver la hipoacutetesis hMAP con la maacutexima probabilidad a posteriori

CLASIFICADOR NAIumlVE BAYES Es el modelo de red bayesiana orientada

a clasificacioacuten maacutes simple Supone que todos los atributos son

independientes conocida la variable clase

CLASIFICADOR NAIumlVE BAYES

En un Naiumlve Bayes (NB) la hipoacutetesis MAP queda como

A pesar de la suposicioacuten poco realista realizada en el NB este algoritmo se considera un estaacutendar y sus resultados son competitivos con la mayoriacutea de los clasificadores

VARIABLES DISCRETAS Se basa en frecuencia de aparicioacuten que obtendremos en la

base de datos asiacute n(XiPa(Xi)) es el numero de registros en la BD en que la variable Xi toma el valor Xi y los padres de Xi (Pa(Xi))

Estimacioacuten por maacutexima verisimilitud (EMV) el nuacutemero de veces que aparece Xi en la BD dividido por el numero de casos totales

Suavizando por la correccioacuten de Laplace nuacutemero de casos favorables mas uno dividido por el numero de casos totales mas el numero de valores posibles

VARIABLES NUMEacuteRICAS

P(x|ci) se estima mediante una funcioacuten de densidad gaussiana Se asume que los valores numeacutericos siguen una distribucioacuten normal es decir para cada categoriacutea de la variable clase se estima una distribucioacuten normal (de media μ y desviacioacuten estaacutendar σ )

ALGORITMO NAIVEBAYES

Aprendizaje_Bayesiano_Naive(instancia)Para cada posible valor del resultado vj

Obtener estimacioacuten prsquo(vj) de la probabilidad p(vj)

Para cada valor ai de cada atributo aObtener estimacioacuten prsquo(aivj) de

la probabilidad P(aivj)

Clasificar instancia(x)devolver

CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt

ESTIMACIOacuteN DE PROBABILIDADES

p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)

CLASIFICACIOacuteN

064 022 033 033 033

DISCUSIOacuteN NAIVE BAYES

Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN

Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente

independientes Aplicaciones

DiagnosisClasificacioacuten de texto

CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos

Desventajas Asumir que las variables tienen independencia condicional respecto a la

clase lleva a una falta de precisioacuten

En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios

1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc

Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias

Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos

EJEMPLO

Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de

lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y

seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris

Setosa Versicolor virginica

volver

volver

volver

volver

volver

volver

volver

volver

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 8: Naive Bayes

HIPOacuteTESIS HMAP

Dado espacio de hipoacutetesis H y las observaciones D iquestCuaacutel es la hipoacutetesis h Hmaacutes probable

1 Para cada hipoacutetesis calcular la probabilidad a posteriori

2 Devolver la hipoacutetesis hMAP con la maacutexima probabilidad a posteriori

CLASIFICADOR NAIumlVE BAYES Es el modelo de red bayesiana orientada

a clasificacioacuten maacutes simple Supone que todos los atributos son

independientes conocida la variable clase

CLASIFICADOR NAIumlVE BAYES

En un Naiumlve Bayes (NB) la hipoacutetesis MAP queda como

A pesar de la suposicioacuten poco realista realizada en el NB este algoritmo se considera un estaacutendar y sus resultados son competitivos con la mayoriacutea de los clasificadores

VARIABLES DISCRETAS Se basa en frecuencia de aparicioacuten que obtendremos en la

base de datos asiacute n(XiPa(Xi)) es el numero de registros en la BD en que la variable Xi toma el valor Xi y los padres de Xi (Pa(Xi))

Estimacioacuten por maacutexima verisimilitud (EMV) el nuacutemero de veces que aparece Xi en la BD dividido por el numero de casos totales

Suavizando por la correccioacuten de Laplace nuacutemero de casos favorables mas uno dividido por el numero de casos totales mas el numero de valores posibles

VARIABLES NUMEacuteRICAS

P(x|ci) se estima mediante una funcioacuten de densidad gaussiana Se asume que los valores numeacutericos siguen una distribucioacuten normal es decir para cada categoriacutea de la variable clase se estima una distribucioacuten normal (de media μ y desviacioacuten estaacutendar σ )

ALGORITMO NAIVEBAYES

Aprendizaje_Bayesiano_Naive(instancia)Para cada posible valor del resultado vj

Obtener estimacioacuten prsquo(vj) de la probabilidad p(vj)

Para cada valor ai de cada atributo aObtener estimacioacuten prsquo(aivj) de

la probabilidad P(aivj)

Clasificar instancia(x)devolver

CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt

ESTIMACIOacuteN DE PROBABILIDADES

p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)

CLASIFICACIOacuteN

064 022 033 033 033

DISCUSIOacuteN NAIVE BAYES

Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN

Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente

independientes Aplicaciones

DiagnosisClasificacioacuten de texto

CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos

Desventajas Asumir que las variables tienen independencia condicional respecto a la

clase lleva a una falta de precisioacuten

En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios

1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc

Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias

Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos

EJEMPLO

Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de

lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y

seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris

Setosa Versicolor virginica

volver

volver

volver

volver

volver

volver

volver

volver

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 9: Naive Bayes

1 Para cada hipoacutetesis calcular la probabilidad a posteriori

2 Devolver la hipoacutetesis hMAP con la maacutexima probabilidad a posteriori

CLASIFICADOR NAIumlVE BAYES Es el modelo de red bayesiana orientada

a clasificacioacuten maacutes simple Supone que todos los atributos son

independientes conocida la variable clase

CLASIFICADOR NAIumlVE BAYES

En un Naiumlve Bayes (NB) la hipoacutetesis MAP queda como

A pesar de la suposicioacuten poco realista realizada en el NB este algoritmo se considera un estaacutendar y sus resultados son competitivos con la mayoriacutea de los clasificadores

VARIABLES DISCRETAS Se basa en frecuencia de aparicioacuten que obtendremos en la

base de datos asiacute n(XiPa(Xi)) es el numero de registros en la BD en que la variable Xi toma el valor Xi y los padres de Xi (Pa(Xi))

Estimacioacuten por maacutexima verisimilitud (EMV) el nuacutemero de veces que aparece Xi en la BD dividido por el numero de casos totales

Suavizando por la correccioacuten de Laplace nuacutemero de casos favorables mas uno dividido por el numero de casos totales mas el numero de valores posibles

VARIABLES NUMEacuteRICAS

P(x|ci) se estima mediante una funcioacuten de densidad gaussiana Se asume que los valores numeacutericos siguen una distribucioacuten normal es decir para cada categoriacutea de la variable clase se estima una distribucioacuten normal (de media μ y desviacioacuten estaacutendar σ )

ALGORITMO NAIVEBAYES

Aprendizaje_Bayesiano_Naive(instancia)Para cada posible valor del resultado vj

Obtener estimacioacuten prsquo(vj) de la probabilidad p(vj)

Para cada valor ai de cada atributo aObtener estimacioacuten prsquo(aivj) de

la probabilidad P(aivj)

Clasificar instancia(x)devolver

CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt

ESTIMACIOacuteN DE PROBABILIDADES

p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)

CLASIFICACIOacuteN

064 022 033 033 033

DISCUSIOacuteN NAIVE BAYES

Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN

Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente

independientes Aplicaciones

DiagnosisClasificacioacuten de texto

CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos

Desventajas Asumir que las variables tienen independencia condicional respecto a la

clase lleva a una falta de precisioacuten

En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios

1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc

Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias

Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos

EJEMPLO

Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de

lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y

seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris

Setosa Versicolor virginica

volver

volver

volver

volver

volver

volver

volver

volver

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 10: Naive Bayes

CLASIFICADOR NAIumlVE BAYES Es el modelo de red bayesiana orientada

a clasificacioacuten maacutes simple Supone que todos los atributos son

independientes conocida la variable clase

CLASIFICADOR NAIumlVE BAYES

En un Naiumlve Bayes (NB) la hipoacutetesis MAP queda como

A pesar de la suposicioacuten poco realista realizada en el NB este algoritmo se considera un estaacutendar y sus resultados son competitivos con la mayoriacutea de los clasificadores

VARIABLES DISCRETAS Se basa en frecuencia de aparicioacuten que obtendremos en la

base de datos asiacute n(XiPa(Xi)) es el numero de registros en la BD en que la variable Xi toma el valor Xi y los padres de Xi (Pa(Xi))

Estimacioacuten por maacutexima verisimilitud (EMV) el nuacutemero de veces que aparece Xi en la BD dividido por el numero de casos totales

Suavizando por la correccioacuten de Laplace nuacutemero de casos favorables mas uno dividido por el numero de casos totales mas el numero de valores posibles

VARIABLES NUMEacuteRICAS

P(x|ci) se estima mediante una funcioacuten de densidad gaussiana Se asume que los valores numeacutericos siguen una distribucioacuten normal es decir para cada categoriacutea de la variable clase se estima una distribucioacuten normal (de media μ y desviacioacuten estaacutendar σ )

ALGORITMO NAIVEBAYES

Aprendizaje_Bayesiano_Naive(instancia)Para cada posible valor del resultado vj

Obtener estimacioacuten prsquo(vj) de la probabilidad p(vj)

Para cada valor ai de cada atributo aObtener estimacioacuten prsquo(aivj) de

la probabilidad P(aivj)

Clasificar instancia(x)devolver

CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt

ESTIMACIOacuteN DE PROBABILIDADES

p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)

CLASIFICACIOacuteN

064 022 033 033 033

DISCUSIOacuteN NAIVE BAYES

Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN

Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente

independientes Aplicaciones

DiagnosisClasificacioacuten de texto

CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos

Desventajas Asumir que las variables tienen independencia condicional respecto a la

clase lleva a una falta de precisioacuten

En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios

1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc

Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias

Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos

EJEMPLO

Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de

lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y

seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris

Setosa Versicolor virginica

volver

volver

volver

volver

volver

volver

volver

volver

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 11: Naive Bayes

CLASIFICADOR NAIumlVE BAYES

En un Naiumlve Bayes (NB) la hipoacutetesis MAP queda como

A pesar de la suposicioacuten poco realista realizada en el NB este algoritmo se considera un estaacutendar y sus resultados son competitivos con la mayoriacutea de los clasificadores

VARIABLES DISCRETAS Se basa en frecuencia de aparicioacuten que obtendremos en la

base de datos asiacute n(XiPa(Xi)) es el numero de registros en la BD en que la variable Xi toma el valor Xi y los padres de Xi (Pa(Xi))

Estimacioacuten por maacutexima verisimilitud (EMV) el nuacutemero de veces que aparece Xi en la BD dividido por el numero de casos totales

Suavizando por la correccioacuten de Laplace nuacutemero de casos favorables mas uno dividido por el numero de casos totales mas el numero de valores posibles

VARIABLES NUMEacuteRICAS

P(x|ci) se estima mediante una funcioacuten de densidad gaussiana Se asume que los valores numeacutericos siguen una distribucioacuten normal es decir para cada categoriacutea de la variable clase se estima una distribucioacuten normal (de media μ y desviacioacuten estaacutendar σ )

ALGORITMO NAIVEBAYES

Aprendizaje_Bayesiano_Naive(instancia)Para cada posible valor del resultado vj

Obtener estimacioacuten prsquo(vj) de la probabilidad p(vj)

Para cada valor ai de cada atributo aObtener estimacioacuten prsquo(aivj) de

la probabilidad P(aivj)

Clasificar instancia(x)devolver

CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt

ESTIMACIOacuteN DE PROBABILIDADES

p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)

CLASIFICACIOacuteN

064 022 033 033 033

DISCUSIOacuteN NAIVE BAYES

Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN

Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente

independientes Aplicaciones

DiagnosisClasificacioacuten de texto

CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos

Desventajas Asumir que las variables tienen independencia condicional respecto a la

clase lleva a una falta de precisioacuten

En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios

1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc

Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias

Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos

EJEMPLO

Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de

lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y

seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris

Setosa Versicolor virginica

volver

volver

volver

volver

volver

volver

volver

volver

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 12: Naive Bayes

VARIABLES DISCRETAS Se basa en frecuencia de aparicioacuten que obtendremos en la

base de datos asiacute n(XiPa(Xi)) es el numero de registros en la BD en que la variable Xi toma el valor Xi y los padres de Xi (Pa(Xi))

Estimacioacuten por maacutexima verisimilitud (EMV) el nuacutemero de veces que aparece Xi en la BD dividido por el numero de casos totales

Suavizando por la correccioacuten de Laplace nuacutemero de casos favorables mas uno dividido por el numero de casos totales mas el numero de valores posibles

VARIABLES NUMEacuteRICAS

P(x|ci) se estima mediante una funcioacuten de densidad gaussiana Se asume que los valores numeacutericos siguen una distribucioacuten normal es decir para cada categoriacutea de la variable clase se estima una distribucioacuten normal (de media μ y desviacioacuten estaacutendar σ )

ALGORITMO NAIVEBAYES

Aprendizaje_Bayesiano_Naive(instancia)Para cada posible valor del resultado vj

Obtener estimacioacuten prsquo(vj) de la probabilidad p(vj)

Para cada valor ai de cada atributo aObtener estimacioacuten prsquo(aivj) de

la probabilidad P(aivj)

Clasificar instancia(x)devolver

CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt

ESTIMACIOacuteN DE PROBABILIDADES

p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)

CLASIFICACIOacuteN

064 022 033 033 033

DISCUSIOacuteN NAIVE BAYES

Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN

Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente

independientes Aplicaciones

DiagnosisClasificacioacuten de texto

CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos

Desventajas Asumir que las variables tienen independencia condicional respecto a la

clase lleva a una falta de precisioacuten

En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios

1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc

Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias

Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos

EJEMPLO

Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de

lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y

seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris

Setosa Versicolor virginica

volver

volver

volver

volver

volver

volver

volver

volver

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 13: Naive Bayes

VARIABLES NUMEacuteRICAS

P(x|ci) se estima mediante una funcioacuten de densidad gaussiana Se asume que los valores numeacutericos siguen una distribucioacuten normal es decir para cada categoriacutea de la variable clase se estima una distribucioacuten normal (de media μ y desviacioacuten estaacutendar σ )

ALGORITMO NAIVEBAYES

Aprendizaje_Bayesiano_Naive(instancia)Para cada posible valor del resultado vj

Obtener estimacioacuten prsquo(vj) de la probabilidad p(vj)

Para cada valor ai de cada atributo aObtener estimacioacuten prsquo(aivj) de

la probabilidad P(aivj)

Clasificar instancia(x)devolver

CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt

ESTIMACIOacuteN DE PROBABILIDADES

p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)

CLASIFICACIOacuteN

064 022 033 033 033

DISCUSIOacuteN NAIVE BAYES

Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN

Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente

independientes Aplicaciones

DiagnosisClasificacioacuten de texto

CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos

Desventajas Asumir que las variables tienen independencia condicional respecto a la

clase lleva a una falta de precisioacuten

En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios

1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc

Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias

Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos

EJEMPLO

Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de

lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y

seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris

Setosa Versicolor virginica

volver

volver

volver

volver

volver

volver

volver

volver

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 14: Naive Bayes

ALGORITMO NAIVEBAYES

Aprendizaje_Bayesiano_Naive(instancia)Para cada posible valor del resultado vj

Obtener estimacioacuten prsquo(vj) de la probabilidad p(vj)

Para cada valor ai de cada atributo aObtener estimacioacuten prsquo(aivj) de

la probabilidad P(aivj)

Clasificar instancia(x)devolver

CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt

ESTIMACIOacuteN DE PROBABILIDADES

p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)

CLASIFICACIOacuteN

064 022 033 033 033

DISCUSIOacuteN NAIVE BAYES

Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN

Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente

independientes Aplicaciones

DiagnosisClasificacioacuten de texto

CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos

Desventajas Asumir que las variables tienen independencia condicional respecto a la

clase lleva a una falta de precisioacuten

En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios

1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc

Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias

Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos

EJEMPLO

Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de

lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y

seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris

Setosa Versicolor virginica

volver

volver

volver

volver

volver

volver

volver

volver

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 15: Naive Bayes

CLASIFICACIOacuteN NUEVA INSTANCIA ltsoleado friacutea alta ciertogt

ESTIMACIOacuteN DE PROBABILIDADES

p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)

CLASIFICACIOacuteN

064 022 033 033 033

DISCUSIOacuteN NAIVE BAYES

Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN

Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente

independientes Aplicaciones

DiagnosisClasificacioacuten de texto

CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos

Desventajas Asumir que las variables tienen independencia condicional respecto a la

clase lleva a una falta de precisioacuten

En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios

1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc

Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias

Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos

EJEMPLO

Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de

lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y

seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris

Setosa Versicolor virginica

volver

volver

volver

volver

volver

volver

volver

volver

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 16: Naive Bayes

ESTIMACIOacuteN DE PROBABILIDADES

p(jugar=si) = 914 = 064 (ver) p(jugar=no) = 514 = 036 (ver) p(Cielo=soleado jugar=si) = 29 = 022 (ver) p(Cielo=soleado jugar=no) = 35 = 06 (ver) p(Temp=friacutea jugar=si) = 39 = 033 (ver) p(Temp=friacutea jugar=no) = 15 = 02 (ver) p(Humedad=alta jugar=si) = 39 = 033 (ver) p(humedad=alta jugar=no) = 45 = 08 (ver) p(Viento=cierto jugar=si) = 39 = 033 (ver) p(Viento=cierto jugar=no) = 35 = 06 (ver)

CLASIFICACIOacuteN

064 022 033 033 033

DISCUSIOacuteN NAIVE BAYES

Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN

Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente

independientes Aplicaciones

DiagnosisClasificacioacuten de texto

CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos

Desventajas Asumir que las variables tienen independencia condicional respecto a la

clase lleva a una falta de precisioacuten

En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios

1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc

Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias

Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos

EJEMPLO

Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de

lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y

seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris

Setosa Versicolor virginica

volver

volver

volver

volver

volver

volver

volver

volver

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 17: Naive Bayes

CLASIFICACIOacuteN

064 022 033 033 033

DISCUSIOacuteN NAIVE BAYES

Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN

Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente

independientes Aplicaciones

DiagnosisClasificacioacuten de texto

CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos

Desventajas Asumir que las variables tienen independencia condicional respecto a la

clase lleva a una falta de precisioacuten

En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios

1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc

Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias

Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos

EJEMPLO

Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de

lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y

seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris

Setosa Versicolor virginica

volver

volver

volver

volver

volver

volver

volver

volver

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 18: Naive Bayes

DISCUSIOacuteN NAIVE BAYES

Uno de los algoritmos de aprendizaje maacutes praacutecticos junto a aacuterboles redes de neuronas y K-NN

Condiciones de usoConjunto de entrenamiento grandeAtributos razonablemente

independientes Aplicaciones

DiagnosisClasificacioacuten de texto

CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos

Desventajas Asumir que las variables tienen independencia condicional respecto a la

clase lleva a una falta de precisioacuten

En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios

1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc

Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias

Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos

EJEMPLO

Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de

lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y

seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris

Setosa Versicolor virginica

volver

volver

volver

volver

volver

volver

volver

volver

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 19: Naive Bayes

CLASIFICADOR NAIumlVE BAYESVentajas Es faacutecil de implementar Obtiene buenos resultados en gran parte de los casos

Desventajas Asumir que las variables tienen independencia condicional respecto a la

clase lleva a una falta de precisioacuten

En la praacutectica existen dependencias entre las variablesejemplo en datos hospitalarios

1048707 Perfil edad historia familiar etc1048707 Siacutentomas fiebre tos etc1048707 Enfermedad caacutencer de pulmoacuten diabetes etc

Con un clasificador Naiumlve Bayes no se pueden modelar estas dependencias

Solucioacuten Redes de creencia bayesianas que combinan razonamiento bayesiano con relaciones causales entre los atributos

EJEMPLO

Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de

lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y

seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris

Setosa Versicolor virginica

volver

volver

volver

volver

volver

volver

volver

volver

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 20: Naive Bayes

EJEMPLO

Ejemplo Disentildeo de un Clasificador para Iris Problema simple muy conocido clasificacioacuten de

lirios Tres clases de lirios setosa versicolor y virginica Cuatro atributos longitud y anchura de peacutetalo y

seacutepalo respectivamente 150 ejemplos 50 de cada clase Disponible en httparchiveicsuciedumldatasetsIris

Setosa Versicolor virginica

volver

volver

volver

volver

volver

volver

volver

volver

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 21: Naive Bayes

volver

volver

volver

volver

volver

volver

volver

volver

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 22: Naive Bayes

volver

volver

volver

volver

volver

volver

volver

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 23: Naive Bayes

volver

volver

volver

volver

volver

volver

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 24: Naive Bayes

volver

volver

volver

volver

volver

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 25: Naive Bayes

volver

volver

volver

volver

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 26: Naive Bayes

volver

volver

volver

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 27: Naive Bayes

volver

volver

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 28: Naive Bayes

volver

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 29: Naive Bayes

volver

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31
Page 30: Naive Bayes

volver

  • NAIVE BAYES
  • Aprendizaje Bayesiano
  • Razonamiento bayesiano
  • Meacutetodos bayesianos
  • Teorema de Bayes
  • Teorema de Bayes (2)
  • Hipoacutetesis hMAP
  • Hipoacutetesis hMAP
  • Slide 9
  • Clasificador Naiumlve Bayes
  • Clasificador Naiumlve Bayes (2)
  • Variables discretas
  • Variables numeacutericas
  • Algoritmo NaiveBayes
  • Slide 15
  • Clasificacioacuten nueva instancia
  • Estimacioacuten de probabilidades
  • Clasificacioacuten
  • Discusioacuten Naive Bayes
  • Clasificador Naiumlve Bayes (3)
  • Ejemplo
  • Slide 22
  • Slide 23
  • Slide 24
  • Slide 25
  • Slide 26
  • Slide 27
  • Slide 28
  • Slide 29
  • Slide 30
  • Slide 31