handwriting recognition

  • View
    407

  • Download
    3

Embed Size (px)

Text of handwriting recognition

Le boosting

1

2011/2012

Plan2Ide gnraleDfinitionLe principe de boostingHistoriqueAdaBoostL'Algorithme de AdaBoostILLUSTRATIONLes avantages et les inconvnients pratiques de AdaBoostConclusion

Bonjour tous le monde ,

Notre expos sur le boosting : est divis en 6 parties:HistoriqueAlgorithmes et Conclusion

Ide gnrale3Mots termines par XMots termines par S Les mots au plurielMots termines par S et XExemple: dtecter des mots au plurielRgle faible 1Rgle faible 2Rgle ForteOn commence par un exemple trs simple : dtecter des mots au pluriel

Gnralement les mots au pluriel se termine par la lettre s mais ce nest pas toujours le cas.

Si on prend a comme Rgle faible 1 ,

Pour les mots o la rgle 1 ne fonctionne pas. Il y a u ne autre rgleRgle faible 2 : les mots se terminant par x sont au pluriel.La combinaison des deux rgle donner une:Rgle forte : les mots se terminant par s OU x sont au pluriel.

DfinitionLe mot boosting sapplique des mthodes gnrales capables de produire des dcisions trs prcises partir dun ensemble de rgles de dcision faibles .

Le boosting combine des hypothses dites faibles en une hypothse dite forte

4Le principe de boosting Faire simple pour faire compliqu il est facile de trouver des rgles simples, gnralement justes. il est trs difficile de trouver une rgle "fortes" qui est vrifie dans tous les cas.

Le principe est issu de la combinaison de classifieurs (appels galement hypothses).

5 1- Le boosting repose sur lobservation suivante :

Le principe du boosting est simple. Plutt que dutiliser un seul classificateur trs prcis mais trs lent, nous allons plutt utiliser plusieurs classificateurs faibles et rapides.

2- C-t-d combiner plusieurs classificateurs faible pour obtenir un classificateur fort

La catgorisation Dtection et classement dobjet dans des images Le filtrage de texte BioinformatiqueUtilisation6Le boosting a t employ avec succs dans plusieurs algorithmes dapprentissage

On lutilise par exemple pour la catgorisation et le filtrage de texte et dtection et classement dobjet dans des images , pour des problmes linguistiques ,On utilise Aussi dans la bioinformatique .

le boosting a t test sur des domaines dapplication varis. 7Historique 1989 1990 1992 1996Schapirealgorithme de weak learner Freund Algorithme optimal par votes pondrsDrucker & al Premires mises en uvres rellesFreund & Schapire

AdaboostSchapire en 89: a dvelopp le premier algorithme de boosting appel weak learner .

Freund & Schapire en 1996: a propos Adaboost.

Plus de dtails avec mon collgue

La vritable mergence du boosting a concid avec la sortie de adaBoost, les dtails sont donns par ...

AdaBoostAdaboost (Adaptive Boosting, R.Scharpire, Y.Freund, 1996) est une mthode de boosting (intelligence artificielle, apprentissage automatique) introduite par Yoav Freund et Robert Schapire.

Adaboost consiste transformer, dune manire efficace, un classifieur faible en un classifieur fort en rduisant les taux derreur.

88L'Algorithme AdaBoost

99

1010ILLUSTRATION

Exemple

Initialisation1111

::

::

tape 11212

tape 2Z = 0.8271313

tape 31414Classifieur Final

=

=1515Les avantages et les inconvnients de AdaBoostLes avantages:trs rapide.Simple et facile programmer.Une seul paramtre rgler.Permet de trouver les exemples aberrants.

Les inconvnients:Les performances dADABOOST sont influences par :

Le choix du weak learner.La nature des donnes dapprentissage.

1616ConclusionLe boosting est un outil efficace exprimentalement Bas sur une thorie mathmatique et trois principes essentiels:

1- Combiner les estimations de diffrents experts.2- Modifier, avant chaque ajout dun expert, la distribution des exemples.3- Au final, utiliser une moyenne des votes des experts, pondre par leurs fiabilits respectives.

Permet dobtenir un trs bon classifieur en associant des classifieurs faibles

1717Merci de votre attention18