149
Perfectionnement des algorithmes d’optimisation par essaim particulaire : applications en segmentation d’images et en ´ electronique Abbas El Dor To cite this version: Abbas El Dor. Perfectionnement des algorithmes d’optimisation par essaim particulaire : ap- plications en segmentation d’images et en ´ electronique. Other. Universit´ e Paris-Est, 2012. French. <NNT : 2012PEST1074>. <tel-00788961> HAL Id: tel-00788961 https://tel.archives-ouvertes.fr/tel-00788961 Submitted on 15 Feb 2013 HAL is a multi-disciplinary open access archive for the deposit and dissemination of sci- entific research documents, whether they are pub- lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ ee au d´ epˆ ot et ` a la diffusion de documents scientifiques de niveau recherche, publi´ es ou non, ´ emanant des ´ etablissements d’enseignement et de recherche fran¸cais ou ´ etrangers, des laboratoires publics ou priv´ es.

PSOMEM

Embed Size (px)

DESCRIPTION

pso method

Citation preview

  • Perfectionnement des algorithmes doptimisation par

    essaim particulaire : applications en segmentation

    dimages et en electronique

    Abbas El Dor

    To cite this version:

    Abbas El Dor. Perfectionnement des algorithmes doptimisation par essaim particulaire : ap-plications en segmentation dimages et en electronique. Other. Universite Paris-Est, 2012.French. .

    HAL Id: tel-00788961

    https://tel.archives-ouvertes.fr/tel-00788961

    Submitted on 15 Feb 2013

    HAL is a multi-disciplinary open accessarchive for the deposit and dissemination of sci-entific research documents, whether they are pub-lished or not. The documents may come fromteaching and research institutions in France orabroad, or from public or private research centers.

    Larchive ouverte pluridisciplinaire HAL, estdestinee au depot et a la diffusion de documentsscientifiques de niveau recherche, publies ou non,emanant des etablissements denseignement et derecherche francais ou etrangers, des laboratoirespublics ou prives.

    https://hal.archives-ouvertes.frhttps://tel.archives-ouvertes.fr/tel-00788961

  • UNIVERSIT PARIS-EST

    COLE DOCTORALE MATHEMATIQUES ET STIC

    (MSTIC, E.D. 532)

    THSE DE DOCTORATEN INFORMATIQUE

    par

    Abbas EL DORSujet de la thse

    Perfectionnement des algorithmes

    dOptimisation par Essaim Particulaire.Applications en segmentation dimages et en lectronique

    Thse soutenue le 5 dcembre 2012

    Jury :

    Damien TRENTESAUX Professeur des Universits Universit de Valenciennes Prsident

    Frdric SAUBION Professeur des Universits Universit dAngers Rapporteur

    Marc SEVAUX Professeur des Universits Universit de Bretagne-Sud Rapporteur

    Grard BERTHIAU Professeur des Universits Universit de Nantes Examinateur

    Laurent DEROUSSI Matre de Confrences Universit de Clermont-Ferrand Examinateur

    Maurice CLERC Ingnieur consultant Annecy Co-directeur de thse

    Patrick SIARRY Professeur des Universits Universit Paris-Est Crteil Directeur de thse

  • Remerciements

    Je voudrais tout dabord remercier Patrick Siarry, Directeur de lquipe Traitement de

    lImage et du Signal du Laboratoire Images, Signaux et Systmes Intelligents, et Directeur

    de cette thse, ainsi que Maurice Clerc, pour mavoir donn la possibilit de faire cette

    thse, et pour leur encadrement parfait. Ils ont toute ma gratitude pour mavoir laiss

    une grande libert dans mes recherches, aid et encourag dans les moments difficiles et

    mavoir consacr leur temps malgr leurs occupations.

    Je tiens exprimerma gratitude Frdric Saubion et Marc Sevaux pour avoir accept

    dtre les rapporteurs de cette thse. Je voudrais galement remercier Damien Trentesaux

    pour avoir accept de prsider mon jury. Je remercie aussi Grard Berthiau et Laurent

    Deroussi pour avoir accept dexaminer mes travaux. Jadresse un grand merci tous les

    membres de mon jury, pour avoir ainsi marqu leur intrt pour mon travail, et pour les

    remarques quils ont apportes durant la relecture et la soutenance de ma thse.

    Je souhaite galement exprimer ma reconnaissance envers tous les membres du LiSSi,

    pour mavoir accueilli chaleureusement, et pour toutes les conversations scientifiques ou

    non que lon a pu avoir. Un grand merci Patricia Jamin, Sandrine David et Frdric Du-

    mont, pour mavoir aid surmonter toutes sortes de problmes. Je remercie galement

    Brigitte David, de lancienne Ecole Doctorale SIMME, et Sylvie Cach, de la nouvelle ED

    MSTIC.

    Je remercie tous mes collgues doctorants, pour la bonne ambiance et leur amiti. Merci

    en particulier Kamel Aloui, Ilhem Boussad, Julien Lepagnot et Mustapha Dakkak.

    Jai eu la chance denseigner en tant que vacataire, pendant mes deux premires annes

    de thse, lUniversit Paris-Est Crteil. Jai beaucoup aim enseigner luniversit, et je

    souhaite remercier toute lquipe enseignante avec qui jai eu lhonneur de travailler. Merci

    notamment Eric Petit et Ahmed Raji.

    II

  • Remerciements

    Je suis trs reconnaissant envers les membres de lIUT de Crteil/Vitry qui mont cha-

    leureusement accueilli parmi eux. Un grand merci pour leur bienveillance, et pour tous les

    bons conseils quils mont prodigus.

    Ce travail naurait pas pu tre ralis sans le soutien de ma famille, que je remercie

    tout particulirement. Un grand merci mes parents, mes frres et mes surs, qui mont

    soutenu tout au long de mes tudes et dont je serai indfiniment redevable.

    Je tiens aussi remercier tous ceux qui ont, de prs ou de loin, aid rendre ce travail

    possible, que ce soit par des ides ou par des encouragements.

    Merci tous !

    III

  • Rsum

    La rsolution satisfaisante dun problme doptimisation difficile, qui comporte un

    grand nombre de solutions sous-optimales, justifie souvent le recours unemtaheuristique

    puissante. Lamajorit des algorithmes utiliss pour rsoudre ces problmes doptimisation

    sont les mtaheuristiques population. Parmi celles-ci, nous intressons lOptimisation

    par Essaim Particulaire (OEP, ou PSO en anglais) qui est apparue en 1995. PSO sinspire de

    la dynamique danimaux se dplaant en groupes compacts (essaims dabeilles, vols grou-

    ps doiseaux, bancs de poissons). Les particules dun mme essaim communiquent entre

    elles tout au long de la recherche pour construire une solution au problme pos, et ce en

    sappuyant sur leur exprience collective. Lalgorithme PSO, qui est simple comprendre,

    programmer et utiliser, se rvle particulirement efficace pour les problmes doptimi-

    sation variables continues. Cependant, comme toutes les mtaheuristiques, PSO possde

    des inconvnients, qui rebutent encore certains utilisateurs. Le problme de convergence

    prmature, qui peut conduire les algorithmes de ce type stagner dans un optimum lo-

    cal, est un de ces inconvnients. Lobjectif de cette thse est de proposer des mcanismes,

    incorporables PSO, qui permettent de remdier cet inconvnient et damliorer les per-

    formances et lefficacit de PSO.

    Nous proposons dans cette thse deux algorithmes, nomms PSO-2S et DEPSO-2S,

    pour remdier au problme de la convergence prmature. Ces algorithmes utilisent des

    ides innovantes et se caractrisent par de nouvelles stratgies dinitialisation dans plu-

    sieurs zones, afin dassurer une bonne couverture de lespace de recherche par les parti-

    cules. Toujours dans le cadre de lamlioration de PSO, nous avons labor une nouvelle

    topologie de voisinage, nomme Dcluster, qui organise le rseau de communication entre

    les particules. Les rsultats obtenus sur un jeu de fonctions de test montrent lefficacit

    des stratgies mises en uvre par les diffrents algorithmes proposs. Enfin, PSO-2S est

    appliqu des problmes pratiques, en segmentation dimages et en lectronique.

    Mots cls : Optimisation, optimisation continue, mtaheuristiques, optimisation par essaim

    particulaire, segmentation dimage.

    IV

  • Abstract

    The successful resolution of a difficult optimization problem, comprising a large num-

    ber of sub optimal solutions, often justifies the use of powerfulmetaheuristics. A wide range

    of algorithms used to solve these combinatorial problems belong to the class of population

    metaheuristics. Among them, Particle SwarmOptimization (PSO), appeared in 1995, is ins-

    pired by the movement of individuals in a swarm, like a bee swarm, a bird flock or a fish

    school. The particles of the same swarm communicate with each other to build a solution

    to the given problem. This is done by relying on their collective experience. This algorithm,

    which is easy to understand and implement, is particularly effective for optimization pro-

    blems with continuous variables. However, like several metaheuristics, PSO shows some

    drawbacks that make some users avoid it. The premature convergence problem, where the

    algorithm converges to some local optima and does not progress anymore in order to find

    better solutions, is one of them. This thesis aims at proposing alternative methods, that can

    be incorporated in PSO to overcome these problems, and to improve the performance and

    the efficiency of PSO.

    We propose two algorithms, called PSO-2S and DEPSO-2S, to cope with the prema-

    ture convergence problem. Both algorithms use innovative ideas and are characterized by

    new initialization strategies in several areas to ensure good coverage of the search space

    by particles. To improve the PSO algorithm, we have also developed a new neighborhood

    topology, called Dcluster, which can be seen as the communication network between the

    particles. The obtained experimental results for some benchmark cases show the effective-

    ness of the strategies implemented in the proposed algorithms. Finally, PSO-2S is applied

    to real world problems in both image segmentation and electronics fields.

    Keywords : Optimization, continuous optimization, metaheuristics, particle swarm optimiza-

    tion, image segmentation.

    V

  • Table des matires

    Introduction gnrale 1

    1 Mtaheuristiques doptimisation : tat de lart 41.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.2 Mtaheuristiques pour loptimisation mono-objectif difficile . . . . . . . . . 5

    1.2.1 Problme doptimisation . . . . . . . . . . . . . . . . . . . . . . . . . . 51.2.2 Optimisation difficile . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.2.3 Algorithmes doptimisation approche . . . . . . . . . . . . . . . . . 7

    1.2.3.1 Heuristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.2.3.2 Mtaheuristiques . . . . . . . . . . . . . . . . . . . . . . . . 7

    1.2.4 Diffrentes approches en optimisation statique . . . . . . . . . . . . . 91.2.4.1 Algorithme du recuit simul . . . . . . . . . . . . . . . . . . 91.2.4.2 Algorithme de recherche tabou . . . . . . . . . . . . . . . . 101.2.4.3 Les algorithmes volutionnaires . . . . . . . . . . . . . . . . 121.2.4.4 Les algorithmes de colonies de fourmis . . . . . . . . . . . . 151.2.4.5 Algorithme volution diffrentielle . . . . . . . . . . . . . 18

    1.3 Optimisation par Essaim Particulaire . . . . . . . . . . . . . . . . . . . . . . . 211.3.1 Principe gnral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211.3.2 Formalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221.3.3 Amliorations de PSO . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

    1.3.3.1 Confinement des particules . . . . . . . . . . . . . . . . . . . 241.3.3.2 Coefficient de constriction . . . . . . . . . . . . . . . . . . . 251.3.3.3 Topologie de voisinage . . . . . . . . . . . . . . . . . . . . . 261.3.3.4 Coefficient dinertie . . . . . . . . . . . . . . . . . . . . . . . 271.3.3.5 Stratgie FIPS . . . . . . . . . . . . . . . . . . . . . . . . . . . 271.3.3.6 Algorithme TRIBES . . . . . . . . . . . . . . . . . . . . . . . 281.3.3.7 PSO et hybridation . . . . . . . . . . . . . . . . . . . . . . . 291.3.3.8 PSO cooprative . . . . . . . . . . . . . . . . . . . . . . . . . 301.3.3.9 Autres variantes de PSO . . . . . . . . . . . . . . . . . . . . 31

    1.4 Validation des algorithmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321.4.1 Principales fonctions de test . . . . . . . . . . . . . . . . . . . . . . . . 321.4.2 Problmes rels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

    1.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

    VI

  • Table des matires

    2 laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S 352.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352.2 Description de lalgorithme PSO-2S . . . . . . . . . . . . . . . . . . . . . . . . 36

    2.2.1 Structure gnrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362.2.2 Utilisation de deux essaims . . . . . . . . . . . . . . . . . . . . . . . . 382.2.3 Partitionnement de lespace de recherche . . . . . . . . . . . . . . . . 392.2.4 Rpulsion lectrostatique des particules . . . . . . . . . . . . . . . . . 422.2.5 Recherche locale de PSO-2S . . . . . . . . . . . . . . . . . . . . . . . . 442.2.6 Rsultats et analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

    2.2.6.1 Paramtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . 492.2.6.2 Analyse de complexit . . . . . . . . . . . . . . . . . . . . . 502.2.6.3 Analyse de la sensibilit des paramtres . . . . . . . . . . . 512.2.6.4 Comparaison avec dautres algorithmes . . . . . . . . . . . 532.2.6.5 Comparaison de PSO-2S, avec et sans heuristique de rpul-

    sion, avec SPSO2007 . . . . . . . . . . . . . . . . . . . . . . . 552.3 DEPSO-2S : hybridation de PSO-2S avec un algorithme volution diffren-

    tielle DELG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 572.3.1 Prsentation de lalgorithme DELG . . . . . . . . . . . . . . . . . . . 592.3.2 Adaptation de DELG PSO-2S . . . . . . . . . . . . . . . . . . . . . . 612.3.3 Algorithme DEPSO-2S . . . . . . . . . . . . . . . . . . . . . . . . . . . 622.3.4 Rsultats et discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

    2.3.4.1 Paramtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . 642.3.4.2 Comparaison avec dautres algorithmes . . . . . . . . . . . 64

    2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

    3 Topologie de voisinage dans PSO : tude et perfectionnement 703.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 703.2 Notion de voisinage de PSO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

    3.2.1 Voisinage gographique et social . . . . . . . . . . . . . . . . . . . . . 723.2.1.1 Voisinage gographique . . . . . . . . . . . . . . . . . . . . 723.2.1.2 Voisinage social . . . . . . . . . . . . . . . . . . . . . . . . . 73

    3.2.2 change des informations entre les particules dans lalgorithme PSO 743.2.3 Diffrents modles de topologies . . . . . . . . . . . . . . . . . . . . . 75

    3.2.3.1 Topologies statiques . . . . . . . . . . . . . . . . . . . . . . . 763.2.3.2 Topologies dynamiques . . . . . . . . . . . . . . . . . . . . . 77

    3.3 laboration de la topologie Dcluster : une combinaison de deux topologies(statique et dynamique) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 813.3.1 Prsentation de la topologie propose . . . . . . . . . . . . . . . . . . 823.3.2 Rsultats et discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

    3.3.2.1 Paramtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . 833.3.2.2 Analyse exprimentale et comparaison avec dautres topo-

    logies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 853.3.2.3 Analyse de convergence . . . . . . . . . . . . . . . . . . . . 89

    3.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

    VII

  • Table des matires

    4 Application de PSO-2S en segmentation dimages et en lectronique 934.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 934.2 Application de PSO-2S en segmentation dimages . . . . . . . . . . . . . . . 93

    4.2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 934.2.2 Segmentation dimages par seuillage . . . . . . . . . . . . . . . . . . 95

    4.2.2.1 Formulation du problme . . . . . . . . . . . . . . . . . . . 954.2.2.2 Mthodes de seuillage . . . . . . . . . . . . . . . . . . . . . . 964.2.2.3 Seuillage par apprentissage . . . . . . . . . . . . . . . . . . 96

    4.2.3 Protocole exprimental et paramtrage . . . . . . . . . . . . . . . . . 984.2.4 Rsultats et discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . 994.2.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103

    4.3 Application de PSO-2S au dimensionnement de circuits lectroniques . . . . 1034.3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1034.3.2 Convoyeur de courant de seconde gnration . . . . . . . . . . . . . 1044.3.3 Les fonctions objectifs de composants . . . . . . . . . . . . . . . . . . 1074.3.4 Lvaluation des performances . . . . . . . . . . . . . . . . . . . . . . 1094.3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

    4.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

    Conclusion et perspectives 118

    Annexe 122

    Rfrences bibliographiques 140

    VIII

  • Introduction gnrale

    Les problmes doptimisation occupent actuellement une place importante dans la

    communaut des ingnieurs, des scientifiques et des dcideurs. En effet, ce genre de pro-

    blmes intervient dans leurs domaines dactivit qui sont trs divers, comme la conception

    de systmes mcaniques, le traitement dimages, llectronique ou la recherche opration-

    nelle.

    Un problme doptimisation est dfini par un ensemble de variables, une fonction ob-

    jectif et un ensemble de contraintes. Lespace de recherche est lensemble des solutions

    possibles du problme. Rsoudre un problme doptimisation consiste trouver la ou les

    meilleures solutions (en minimisant et/ou maximisant la/les fonctions objectifs du pro-

    blme pos), tout en satisfaisant un ensemble de contraintes dfinies par lutilisateur. Cer-

    tains problmes doptimisation sont qualifis de difficiles, et leur rsolution dans un temps

    raisonnable ncessite lutilisation dalgorithmes sophistiqus, comme les mthodes appro-

    ches (Les heuristiques et les mtaheuristiques). Parmi les mtaheuristiques destines

    rsoudre ces problmes, plus prcisment les problmes variables continues, loptimisa-

    tion par essaim particulaire (OEP, ou PSO en anglais) est apparue en 1995. Cest le sujet

    principal de ce travail de thse.

    PSO est une mthode doptimisation stochastique qui est inspir dun comportement

    social des animaux voluant en essaim. Ce comportement social est modlis par une

    quation mathmatique permettant de guider les particules durant le processus de d-

    placement. Le dplacement dune particule est influenc par trois composantes : la com-

    posante dinertie, la composante cognitive et la composante sociale. Chacune de ces com-

    posantes reflte une partie de lquation. PSO prsente lavantage dtre efficace sur une

    grande varit de problmes, sans pour autant que lutilisateur ait modifier la structure

    de base de lalgorithme. Cependant, comme toutes les mthodes stochastiques, PSO pr-

    sente des inconvnients, qui rebutent encore certains utilisateurs. Parmi ceux-ci, nous ci-

    tons le problme de convergence prmature, qui peut conduire les algorithmes de ce type

    stagner dans un optimum local. Lobjectif de cette thse est de proposer des mthodes

    1

  • Introduction gnrale

    alternatives, incorporables PSO, qui permettent de remdier ce problme et damliorer

    lefficacit de PSO.

    Cette thse a t prpare au sein de lUniversit Paris-Est Crteil (UPEC), dans le Labo-

    ratoire Images, Signaux et Systmes Intelligents (LiSSi, E.A. 3956). Elle a t finance par une

    bourse libanaise (2 ans), puis par un demi-poste dattach temporaire lenseignement et

    la recherche (ATER), partag entre le LiSSi et lIUT de Crteil-Vitry. Cette thse a t di-

    rige par le Professeur P. Siarry, Directeur de lquipe Traitement de lImage et du Signal, et

    co-encadre par Monsieur M. Clerc, spcialiste de la mthode PSO. Ont particip mon

    travail de doctorat Julien Lepagnot, Matre de Confrences lUniversit de Haute-Alsace,

    Mulhouse, et Mourad Fakhfakh, Matre de Confrences lcole Nationale dIngnieurs

    de Sfax, en Tunisie.

    Durant cette thse, nous avons tout dabord labor deux algorithmes, nomms PSO-

    2S et DEPSO-2S. Ces deux algorithmes utilisent des ides innovantes et se caractrisent

    par de nouvelles stratgies dinitialisation dans plusieurs zones de lespace de recherche.

    Les algorithmes proposs ont contribu remdier notablement au problme de la conver-

    gence prmature. Ensuite, toujours dans le cadre de lamlioration de lalgorithme PSO,

    nous nous sommes intresss la composante sociale de lquation modlisant le dpla-

    cement des particules, plus prcisment au rseau de communication entre les particules,

    appel aussi topologie de voisinage . En effet, nous avons propos une nouvelle topo-

    logie dynamique, appele Dcluster, qui est une combinaison de deux topologies (statique

    et dynamique). Enfin, les applications tudies ont port sur lutilisation de PSO-2S pour

    rsoudre des problmes de dimensionnement de circuits lectroniques et de traitement

    dimages.

    Le mmoire se divise en quatre chapitres. Le premier est consacr ltude bibliogra-

    phique des mthodes doptimisation, dont la plus grande partie concerne loptimisation

    par essaim particulaire. Le deuxime chapitre est ddi aux extensions que nous avons ap-

    portes la mthode PSO (PSO-2S et sa varianteDEPSO-2S, lhybridation de PSO avec un

    algorithme dvolution diffrentielle (ouDifferential Evolution en anglais). Le troisime cha-

    pitre porte sur la notion de voisinage dans PSO et la nouvelle topologie propose Dcluster.

    Enfin, le dernier chapitre correspond aux applications de PSO-2S des problmes rels .

    Dans le premier chapitre, nous dcrivons dabord le cadre de loptimisation difficile,

    puis nous prsentons un tat de lart des mtaheuristiques doptimisation pour les pro-

    blmes mono-objectifs : lalgorithme du recuit simul, la recherche tabou, les algorithmes

    2

  • Introduction gnrale

    volutionnaires, lalgorithme de colonies de fourmis et lalgorithme volution diffren-

    tielle. Ensuite, nous dtaillons lalgorithme dOptimisation par Essaim Particulaire (OEP,

    ou PSO en anglais). Enfin, nous prsentons des fonctions de test, qui sont utilises dans le

    deuxime et le troisime chapitre, pour mesurer les performances des algorithmes.

    Dans le deuxime chapitre, nous dcrivons lalgorithme PSO-2S, que nous avons la-

    bor durant cette thse. Il se caractrise par une nouvelle stratgie dinitialisation dans

    plusieurs zones de lespace de recherche. Cette stratgie est base sur lutilisation de deux

    types dessaims de particules (auxiliaire et principal), en considrant les particules comme

    des lectrons. Nous commenons par dcrire PSO-2S en dtail, puis nous en prsentons

    une analyse exprimentale. Une comparaison de ses performances avec celles des autres

    algorithmes doptimisation proposs dans la littrature est galement effectu. Ensuite,

    une variante amliore de PSO-2S, nomme DEPSO-2S, est dcrite et analyse.

    Dans le troisime chapitre, nous nous concentrons dabord sur le concept de voisinage,

    en tudiant les caractristiques des changes dinformations entre les particules. Ensuite,

    nous prsentons la topologie Dcluster, que nous avons labore durant cette thse. Enfin,

    nous effectuons une analyse exprimentale, ainsi quune comparaison de ses performances

    avec celles dautres algorithmes utilisant diffrentes topologies connues dans la littrature

    de PSO.

    Le quatrime chapitre est consacr lapplication de PSO-2S en segmentation dimages

    et en lectronique. Dans la premire partie de ce chapitre, nous prsentons la premire ap-

    plication de PSO-2S en segmentation dimages. Le but est de segmenter des images multi-

    classes dont le nombre de classes est connu a priori. Dans le cadre de nos travaux, nous

    nous sommes limits lapproche par seuillage dimages pour dterminer les seuils des

    diffrentes classes. PSO-2S est utilis comme mthode doptimisation pour minimiser un

    critre qui permet de dterminer ces seuils. La deuxime partie de ce chapitre porte sur

    lapplication de PSO-2S au dimensionnement de circuits lectroniques. Le but est de trou-

    ver les dimensions des transistors qui permettent de faire fonctionner de manire optimale

    les circuits tudis. PSO-2S est utilis pour minimiser la rsistance parasite et maximiser

    la frquence de coupure dun convoyeur de courant de seconde gnration CCII+.

    Enfin, dans la conclusion gnrale du manuscrit, nous rcapitulons nos principales

    contributions, puis nous exposons quelques perspectives pour amliorer les performances

    des algorithmes dj dvelopps.

    3

  • CHAPITRE UN

    MTAHEURISTIQUES DOPTIMISATION : TAT DE

    LART

    1.1 Introduction

    Lun des principes les plus fondamentaux de notre monde, qui occupe aussi une place

    importante dans le monde informatique, industriel, etc., est la recherche dun tat optimal.

    En effet, de nombreux problmes scientifiques, sociaux, conomiques et techniques ont

    des paramtres qui peuvent tre ajusts pour produire un rsultat plus souhaitable. Ceux-

    ci peuvent tre considrs comme des problmes doptimisation et leur rsolution est un

    sujet central en recherche oprationnelle. Des techniques ont t conues pour rsoudre

    ces problmes, notamment les problmes difficiles (par exemple ceux qui prsentent

    de nombreux extrema locaux pauvres), en dterminant des solutions qui ne sont pas ri-

    goureusement optimales, mais qui sen approchent. Ces mthodes, appeles heuristiques

    et mtaheuristiques, se basent gnralement sur des phnomnes physiques, biologiques,

    socio-psychologiques, et peuvent faire appel au hasard.

    Ce chapitre est structur comme suit. Dans la section 1.2, nous dcrivons dabord le

    cadre de loptimisation difficile, puis nous prsentons un tat de lart des mtaheuristiques

    doptimisation pour les problmesmono-objectifs, telles que lalgorithme du recuit simul,

    la recherche tabou, les algorithmes volutionnaires, lalgorithme de colonies de fourmis et

    lalgorithme volution diffrentielle.

    Dans la section 1.3, nous dtaillons lalgorithme dOptimisation par Essaim Particulaire

    (OEP, ou PSO en anglais), qui constitue le sujet principal de ce travail de thse. LOpti-

    misation par Essaim Particulaire est une mtaheuristiques invente par Kennedy et Ebe-

    rhart [Kenn 95] en 1995. Elle sinspire du comportement social des animaux voluant en

    essaim. Les diffrentes particules dun essaim communiquent directement avec leurs voi-

    sines et construisent ainsi une solution un problme, en sappuyant sur leur exprience

    collective.

    4

  • Mtaheuristiques doptimisation : tat de lart

    Enfin, dans la section 1.4, nous prsentons des fonctions analytiques (principales fonc-

    tions de test de CEC05 Congress on Evolutionary Computation et problmes rels) dont

    les minima globaux et locaux sont connus. Ces fonctions sont utilises dans le deuxime et

    le troisime chapitre pour mesurer les performances des algorithmes.

    1.2 Mtaheuristiques pour loptimisation mono-objectifdifficile

    1.2.1 Problme doptimisation

    Un problme doptimisation au sens gnral est dfini par un ensemble de variables,

    une fonction objectif f et un ensemble de contraintes dgalit (ou dingalit) que les va-

    riables doivent satisfaire. Lensemble des solutions possibles du problme forme lespace

    de recherche E, o chaque dimension correspond une variable. Lespace de recherche

    E est fini puisque le dcideur prcise exactement le domaine de dfinition de chaque va-

    riable entre autres pour des raisons de temps de calcul. Suivant le problme pos, nous

    cherchons minimiser ou maximiser la fonction objectif f . Un problme doptimisation

    peut tre statique ou dynamique (i.e. la fonction objectif change avec le temps), mono-

    objectif ou multi-objectif (i.e. plusieurs fonctions objectifs doivent tre optimises) et avec

    ou sans contraintes. Ainsi, un problme doptimisation peut tre, par exemple, la fois

    continu et dynamique.

    Il existe de nombreuses mthodes dterministes (ou exactes) permettant de rsoudre

    certains types de problmes doptimisation et dobtenir la solution optimale du problme,

    en un temps raisonnable. Ces mthodes ncessitent que la fonction objectif prsente un

    certain nombre de caractristiques telles que la convexit, la continuit ou la drivabi-

    lit. Nous pouvons citer, parmi les mthodes les plus connues, les mthodes de program-

    mation linaire [Schr 98], quadratique [Noce 00] et/ou dynamique [Bert 95], la mthode

    de Newton [Noce 00], la mthode du simplex [Neld 65] ou encore la mthode du gra-

    dient [Avri 76].

    1.2.2 Optimisation difficile

    Les mthodes de rsolution exacte ne sont pas adaptes toutes les problmatiques,

    et donc certains problmes sont trop complexes rsoudre par ces mthodes. Parmi ces

    5

  • Mtaheuristiques doptimisation : tat de lart

    problmatiques, nous pouvons citer lexistence de discontinuits, labsence de convexit

    stricte, la non-drivabilit, la prsence de bruit ou encore la fonction objectif peut ne pas

    tre dfinie prcisment (e.g. quand cest un cout). En outre, les mthodes de rsolution

    exacte peuvent avoir un temps de rsolution trop long. Dans ce cas, le problme doptimi-

    sation est dit difficile, car aucune mthode exacte nest capable de le rsoudre en un temps

    raisonnable. Il est alors ncessaire davoir recours des heuristiques de rsolution dites

    mthodes approches, qui fournissent un rsultat sans garantie de loptimalit.

    Loptimisation difficile peut se diviser en deux types de problmes : les problmes

    variables discrtes et les problmes variables continues :

    Un problme doptimisation variables discrtes consiste trouver, dans un en-

    semble discret, une solution ralisable. Le problme majeur rside ici dans le fait que

    le nombre de solutions ralisables est gnralement trs lev, donc il est trs difficile

    de trouver la meilleure solution dans un temps raisonnable . Les problmes va-

    riables discrtes rassemble les problmes de type NP-complets, tels que le problme

    du voyageur de commerce. Lutilisation dalgorithmes doptimisation stochastiques,

    tels que les mtaheuristiques, permettant de trouver une solution approche en un

    temps raisonnable est donc courante.

    Dans le deuxime type, les variables du problme doptimisation sont continues.

    Cest le cas par exemple des problmes didentification, o lon cherche minimiser

    lerreur entre le modle dun systme et des observations exprimentales. Ce type

    de problmes est moins formalis que le prcdent, mais un certain nombre de diffi-

    cults sont bien connues, comme lexistence de nombreuses variables prsentant des

    corrlations non identifies, la prsence de bruit ou plus gnralement une fonction

    objectif accessible par simulation uniquement. En effet, la grande majorit des mta-

    heuristiques existantes ont t cres pour rsoudre des problmes variables dis-

    crtes [Dro 03]. Cependant, la ncessit croissante de mthodes pouvant rsoudre ce

    type de problmes a pouss les chercheurs adapter leurs mthodes au cas continu.

    Il est noter quil existe des problmes variables mixtes (i.e. le problme prsente

    la fois des variables discrtes et continues).

    6

  • Mtaheuristiques doptimisation : tat de lart

    1.2.3 Algorithmes doptimisation approche

    1.2.3.1 Heuristiques

    Lutilisation demthodes exactes nest pas toujours possible pour un problme donn

    cause dun certain nombre de contraintes, telles que le temps de calcul souvent important

    ou bien la difficult, voire limpossibilit dans certains cas, dune dfinition spare du pro-

    blme. Pour faire face ces contraintes, nous utilisons des mthodes approches, appeles

    heuristiques. Le terme heuristique drive du grec ancien heuriskin et signifie trouver .

    Il qualifie tout ce qui sert la dcouverte et lexploitation. Il est souligner ici quune

    mthode heuristique peut tre dterministe ou stochastique.

    Une heuristique est un algorithme qui fournit rapidement (en un temps polynomial)

    une solution approche et ralisable, pas ncessairement optimale, pour un problme dop-

    timisation difficile. Cette mthode approximative est le contraire dun algorithme exact qui

    donne une solution optimale pour un problme donn.

    Il y a une multitude dheuristiques qui ont dj t proposes dans la littrature. Nous

    pouvons citer des heuristiques trs simples telles que les algorithmes gloutons [Corm 90,

    DeVo 96] ou les approches par amlioration itrative [Basi 75]. Le principe des mthodes

    gloutonnes est de faire une succession de choix optimaux localement, jusqu ce que lon

    ne puisse plus amliorer la solution, et ce, sans retour en arrire possible. Le fonctionne-

    ment dune heuristique gloutonne est similaire celui dun algorithme glouton exact. La

    diffrence rside dans le fait que nous nimposons plus que la solution obtenue soit opti-

    male, nous obtenons donc un algorithme dapproximation.

    1.2.3.2 Mtaheuristiques

    Des heuristiques plus pousses, adaptables un grand nombre de problmes diffrents,

    sans changementsmajeurs dans lalgorithme, ont tmises au point et ont donn naissance

    une nouvelle famille dalgorithmes doptimisation stochastiques : lesmta-heuristiques. Le

    terme mta-heuristique a t invent par Fred Glover en 1986, lors de la conception de la

    recherche tabou [Glov 86].

    Les mtaheuristiques forment une famille dalgorithmes doptimisation visant r-

    soudre des problmes doptimisation difficile, pour lesquels nous ne connaissons pas de

    mthodes classiques plus efficaces. Elles sont gnralement utilises comme des mthodes

    gnriques pouvant optimiser une large gamme de problmes diffrents, do le qualifica-

    tif mta. Leur capacit optimiser un problme partir dun nombre minimal dinforma-

    7

  • Mtaheuristiques doptimisation : tat de lart

    tions est contrebalance par le fait quelles noffrent aucune garantie quant loptimalit

    de la meilleure solution trouve. Cependant, du point de vue de la recherche opration-

    nelle, ce constat nest pas forcment un dsavantage, puisque lon prfre toujours une

    approximation de loptimum global trouve rapidement une valeur exacte trouve dans

    un temps rdhibitoire.

    Il existe un grand nombre demtaheuristiques diffrentes, allant de la simple recherche

    locale des algorithmes complexes de recherche globale. La plupart des mta-heuristiques

    utilisent des processus alatoires comme moyens de rcolter de linformation et de faire

    face des problmes comme lexplosion combinatoire. Les mtaheuristiques peuvent tre

    considres comme des algorithmes stochastiques itratifs, o elles manipulent une ou

    plusieurs solutions la recherche de loptimum. Les itrations successives doivent per-

    mettre de passer dune solution de mauvaise qualit la solution optimale. Lalgorithme

    sarrte aprs avoir atteint un critre darrt, consistant gnralement en latteinte du

    temps dexcution imparti ou en une prcision demande. Ces mthodes tirent leur in-

    trt de leur capacit viter les optima locaux, soit en acceptant des dgradations de la

    fonction objectif au cours du traitement, soit en utilisant une population de points comme

    mthode de recherche.

    Les mtaheuristiques sont souvent inspires de processus naturels qui relvent de la

    physique (lalgorithme du recuit simul), de la biologie de lvolution (les algorithmes g-

    ntiques) ou encore de lthologie (les algorithmes de colonies de fourmis ou loptimisation

    par essaim particulaire).

    Les mtaheuristiques se caractrisant par leur capacit rsoudre des problmes trs

    divers, elles se prtent naturellement des extensions. Pour illustrer celles-ci, nous pou-

    vons citer :

    Les mtaheuristiques pour loptimisation multiobjectif [Coll 02] : o il faut optimiser

    plusieurs objectifs contradictoires. Le but ne consiste pas ici trouver un optimum

    global, mais trouver un ensemble doptima, qui forment une surface de compromis

    pour les diffrents objectifs du problme ;

    Les mtaheuristiques pour loptimisation multimodale [Gold 87] : o lon ne cherche

    plus loptimum global, mais lensemble des meilleurs optima globaux et/ou locaux ;

    Les mtaheuristiques pour loptimisation de problmes bruits : o il existe une incerti-

    tude sur le calcul de la fonction objectif, dont il faut tenir compte dans la recherche

    de loptimum ;

    8

  • Mtaheuristiques doptimisation : tat de lart

    Les mtaheuristiques pour loptimisation dynamique [Bran 02] : o la fonction objectif

    varie dans le temps, ce qui ncessite dapprocher loptimum chaque pas de temps ;

    Les mtaheuristiques hybrides [Talb 02] : qui consistent combiner diffrentes mta-

    heuristiques, afin de tirer profit des avantages respectifs ;

    Les mtaheuristiques parallles [Alba 05] : o lon cherche acclrer le calcul, en

    rpartissant la charge de calcul sur des units fonctionnant de concert. Le problme

    revient alors adapter les mtaheuristiques pour quelles soient distribues.

    En gnral, lutilisateur demande des mthodes efficaces et rapides permettant dat-

    teindre un optimum avec une prcision acceptable dans un temps raisonnable, mais il a

    besoin aussi des mthodes simples utiliser. Un des enjeux des mtaheuristiques est donc

    de faciliter le choix dune mthode et de simplifier son rglage pour ladapter au mieux

    un problme pos. De nombreuses mthodes existent dans la littrature, certaines, parmi

    les plus courantes, seront prsentes plus en dtail dans la section 1.2.4.

    1.2.4 Diffrentes approches en optimisation statique

    1.2.4.1 Algorithme du recuit simul

    Le recuit simul est une mthode empirique inspire dun processus utilis en mtal-

    lurgie (appel le recuit) o, pour atteindre les tats de basse nergie dun solide, on chauffe

    celui-ci jusqu des tempratures leves, avant de le laisser refroidir lentement.

    Lalgorithme du recuit simul a t propos par Kirkpatrick et al. [Kirk 83] (et in-

    dpendamment, Cerny [Cern 85]). La description classique du recuit simul le prsente

    comme un algorithme probabiliste, o un point volue dans lespace de recherche. Le re-

    cuit simul sappuie sur lalgorithme de Metropolis [Metr 53, Hast 70] dcrit par lAlgo-

    rithme 1.1, qui permet de dcrire lvolution dun systme en thermodynamique. Cette

    procdure permet de sortir des minima locaux avec une probabilit leve si la tempra-

    ture T est leve et, quand lalgorithme atteint de basses tempratures, de conserver les

    tats les plus probables. Ici, la mthode de Metropolis (ou toute autre mthode dchan-

    tillonnage [Creu 83, Okam 95]) tient lieu de diversification, associe la dcroissance de

    temprature, qui contrle lintensification. Lalgorithme de recuit simul est rsum en Al-

    gorithme 1.2.

    9

  • Mtaheuristiques doptimisation : tat de lart

    Algorithme de Metropolis

    1 Initialiser un point de dpart x0 et une temprature T

    2 pour i=1 n faire3 tant que xi nest pas accept faire4 si f (xi) f (xi1) alors5 accepter xi6 fin

    7 si f (xi) > f (xi1) alors

    8 accepter xi avec la probabilit ef (xi) f (xi1)

    T

    9 fin

    10 fin

    11 fin

    ALGORITHME 1.1: Algorithme de Metropolis.

    Les inconvnients du recuit simul rsident dans :

    1. Les rglages , car lalgorithme dispose dun nombre lev de paramtres (temp-

    rature initiale, rgle de dcroissance de la temprature, dures des paliers de temp-

    rature, etc.) qui rendent les rglages de lalgorithme assez empiriques ;

    2. Les temps de calcul , qui peuvent devenir trs importants.

    Cependant, il existe des tudes qui sattachent rgler de manire optimale les paramtres

    de lalgorithme [Cour 94]. Par ailleurs, pour surmonter le problme de temps de calcul,

    plusieurs mthodes de paralllisation des calculs ont t introduites [Azen 92].

    Par contre, la mthode du recuit simul a lavantage dtre souple vis--vis des vo-

    lutions du problme et facile implmenter. Elle a donn dexcellents rsultats pour un

    certain nombre de problmes, le plus souvent de grande taille. Bien quinitialement cre

    pour fonctionner avec des variables discrtes, la mthode du recuit simul possde des

    versions continues [Cour 94].

    1.2.4.2 Algorithme de recherche tabou

    La recherche tabou est une mtaheuristique itrative qualifie de recherche locale

    au sens large. Lide de la recherche tabou consiste, partir dune position donne, en

    explorer le voisinage et choisir le voisin qui minimise la fonction objectif.

    10

  • Mtaheuristiques doptimisation : tat de lart

    Algorithme du recuit simul

    1 Dterminer une configuration alatoire S

    2 Choix des mcanismes de perturbation dune configuration

    3 Initialiser la temprature T

    4 tant que le critre darrt nest pas satisfait faire5 tant que lquilibre nest pas atteint faire6 Tirer une nouvelle configuration S

    7 Appliquer la rgle de Metropolis

    8 si f (S) < f (S) alors9 Smin = S

    10 fmin = f (S)

    11 fin

    12 fin

    13 Dcrotre la temprature

    14 fin

    ALGORITHME 1.2: Algorithme du recuit simul.

    Lalgorithme de recherche tabou a t introduit par Fred Glover en 1986 [Glov 86]. Le

    principe de base de cet algorithme est de pouvoir poursuivre la recherche de solutions

    mme lorsquun optimum local est rencontr et ce, en permettant des dplacements qui

    namliorent pas la solution, et en utilisant le principe de la mmoire pour viter les re-

    tours en arrire (mouvements cycliques). Il est essentiel de noter que cette opration peut

    conduire augmenter la valeur de la fonction (dans un problme de minimisation) ; cest

    le cas lorsque tous les points du voisinage ont une valeur plus leve. Cest partir de

    ce mcanisme que lon sort dun minimum local. En effet, comme lalgorithme de recuit

    simul, la mthode de recherche tabou fonctionne avec une seule configuration courante,

    qui est actualise au cours des itrations successives. La nouveaut ici est que, pour viter

    le risque de retour une configuration dj visite, on tient jour une liste de mouvements

    interdits (ou de solutions interdites), appele liste tabou . Le rle de cette dernire vo-

    lue au cours de la rsolution pour passer de lexploration (aussi appele diversification )

    lexploitation (galement appele intensification ). Cette liste contient m mouvements

    (t s) qui sont les inverses des m derniers mouvements (s t) effectus. Lalgorithmemodlise ainsi une forme primaire de mmoire court terme. Lalgorithme de recherche

    11

  • Mtaheuristiques doptimisation : tat de lart

    tabou peut tre rsum par lAlgorithme 1.3.

    Dans sa forme de base, lalgorithme de recherche tabou prsente lavantage de com-

    porter moins de paramtres que lalgorithme de recuit simul. Cependant, lalgorithme

    ntant pas toujours performant, il est souvent appropri de lui ajouter des processus

    dintensification et/ou de diversification, qui introduisent de nouveaux paramtres de

    contrle [Glov 97].

    Algorithme de recherche tabou

    1 Dterminer une configuration alatoire s

    2 Initialiser une liste tabou vide

    3 tant que le critre darrt nest pas satisfait faire4 Perturbation de s suivant N mouvements non tabous

    5 valuation des N voisins

    6 Slection du meilleur voisin t

    7 Actualisation de la meilleure position connue s

    8 Insertion du mouvement t s dans la liste tabou9 s = t

    10 fin

    ALGORITHME 1.3: Algorithme de recherche tabou.

    1.2.4.3 Les algorithmes volutionnaires

    Les algorithmes volutionnaires (AEs), labors au cours des annes 1950 [Fras 57],

    sont des techniques de recherche inspires par lvolution biologique des espces. Ils sins-

    pirent de lvolution des tres vivants (la thorie Darwinienne de la slection naturelle des

    espces) pour rsoudre des problmes doptimisation. Lide ici est que, les individus qui

    ont hrit des caractres bien adapts leur milieu ont tendance vivre assez longtemps

    pour se reproduire, alors que les plus faibles ont tendance disparatre.

    Au cours des annes 1970, avec lavnement des calculateurs de forte puissance, de

    nombreuses approches de modlisation de lvolution ont t ralises. Nous pouvons

    citer :

    Les statgies dvolution [Rech 65, Beye 01] qui ont t conues pour rsoudre des pro-

    blmes variables continues. Elles sont axes sur la modlisation des paramtres

    12

  • Mtaheuristiques doptimisation : tat de lart

    stratgiques qui contrlent la variation dans lvolution, autrement dit lvolution

    de lvolution ;

    La programmation volutionnaire [Foge 62, Foge 66], qui vise faire voluer les struc-

    tures dautomates tats finis par des successions de croisements et de mutations ;

    Les algorithmes gntiques [Holl 75], qui ont t conus pour rsoudre des problmes

    doptimisation variables discrtes, en modlisant lvolution gntique ;

    La programmation gntique [Koza 89, Koza 90], base sur les algorithmes gntiques,

    mais o les individus (ou chromosomes) sont des programmes informatiques, repr-

    sents en utilisant une structure darbre ;

    Lvolution diffrentielle [Stor 97, Pric 05], qui a t conue pour rsoudre des pro-

    blmes variables continues. Sa stratgie consiste biaiser un oprateur demutation,

    appliqu un individu, en fonction des diffrences calcules avec dautres individus

    slectionns alatoirement. Une description complte et dtaille de cet algorithme

    est donne dans la section 1.2.4.5.

    Les approches volutionnaires sappuient sur un modle commun prsent en Algo-

    rithme 1.4. Les individus soumis lvolution sont des solutions possibles du problme

    pos. Lensemble de ces individus constitue une population. Cette population volue du-

    rant une succession ditrations, appeles gnrations. Au cours de chaque gnration, une

    srie doprateurs est applique aux individus, pour crer la population de la gnration

    suivante. Chaque oprateur utilise un ou plusieurs individus, appels parents, pour engen-

    drer de nouveaux individus, appels enfants. A la fin de chaque gnration, une slection

    denfants crs durant la gnration remplace un sous-ensemble dindividus de la popu-

    lation.

    Un algorithme volutionnaire dispose de trois oprateurs principaux :

    1. Un oprateur de slection, qui favorise la propagation des meilleures solutions dans

    la population, tout enmaintenant une certaine diversit gntique au sein de celle-ci ;

    2. Un oprateur de croisement, mis en uvre lors de la phase de cration des enfants.

    Son but est dchanger les gnes des diffrents parents pour crer les enfants. Un

    exemple de croisement simple pour des individus cods en reprsentation binaire

    est prsent dans la figure 1.1 ;

    13

  • Mtaheuristiques doptimisation : tat de lart

    Algorithme volutionnaire gnrique

    1 Initialisation de la population de individus

    2 Evaluation des individus

    3 tant que le critre darrt nest pas satisfait faire4 Slection de individus en vue de la phase de reproduction

    5 Croisement des individus slectionns

    6 Mutation des enfants obtenus

    7 Evaluation des enfants obtenus

    8 Slection pour le remplacement

    9 fin

    ALGORITHME 1.4: Algorithme volutionnaire gnrique.

    3. Un oprateur de mutation, consistant tirer alatoirement une composante de lindi-

    vidu parent et la remplacer par une valeur alatoire. Lapport dun caractre ala-

    toire la cration de la descendance permet ainsi de maintenir une certaine diversit

    dans la population. La figure 1.2 montre un exemple de mutation, pour un individu

    cod en reprsentation binaire.

    Parent 1 Parent 2

    0 1 0 1 1 0 0 1 1 0 1 1 0 1 0 1 1 00 1 0 1 1 0 0 1 1 0 1 1 0 1 0 1 1 0

    0 1 0 1 1 0 1 1 1 00 1 0 1 1 1 0 0

    Enfant 1 Enfant 2

    FIGURE 1.1: Exemple doprateur de croisement en reprsentation binaire.

    Le principe dun algorithme volutionnaire se dcrit simplement (voir figure 1.3).

    14

  • Mtaheuristiques doptimisation : tat de lart

    0 1 0 1 0 0 1 1 1 0 1 0 0 1 1 1 0 0

    0 1 0 1 0 0 1 1 1 1 1 0 0 1 1 1 0 0

    FIGURE 1.2: Exemple doprateur de mutation en reprsentation binaire.

    valuation desperformancesdes individus

    Slectionpour la

    reproductionCroisements Mutations

    non

    valuation desperformances

    Slectionpour la

    Initialisationalatoire

    Stop ? performancesdes individus

    pour lareproduction

    dunepopulation

    Stop ?

    oui

    meilleur(s) individu(s)

    FIGURE 1.3: Principe dun algorithme volutionnaire standard.

    1.2.4.4 Les algorithmes de colonies de fourmis

    Les algorithmes de colonies de fourmis sont des algorithmes inspirs du comportement

    des fourmis et constituent une famille de mtaheuristiques doptimisation pour rsoudre

    naturellement des problmes complexes. Une telle aptitude savre possible en raison de

    la capacit des fourmis communiquer entre elles indirectement, par le dpt dans len-

    vironnement de substances chimiques, appeles phromones. Ce type de communication

    indirecte est appel stigmergie. En anglais, le terme consacr la principale classe dalgo-

    rithmes est Ant Colony Optimization (ACO).

    La principale illustration de ce phnomne est donne par la figure 1.4 : un obstacle est

    plac sur le trajet des fourmis qui, aprs une tape dexploration, finiront par emprunter

    le plus court chemin entre le nid et la source de nourriture [Goss 89]. Les fourmis qui sont

    retournes le plus rapidement au nid en passant par la source de nourriture sont celles

    qui ont emprunt le chemin le plus court. Il en dcoule que la quantit de phromones

    dposes par unit de temps sur ce trajet est plus importante que sur les autres. Par ailleurs,

    15

  • Mtaheuristiques doptimisation : tat de lart

    une fourmi est dautant plus attire un certain endroit que le taux de phromones y

    est important. De ce fait, le plus court chemin a une probabilit plus importante dtre

    emprunt par les fourmis que les autres chemins et sera donc, terme, emprunt par toutes

    les fourmis.

    Le premier algorithme doptimisation sinspirant de cette analogie a t propos par

    Colorni, Dorigo et Maniezzo [Colo 91, Dori 96], afin de rsoudre le problme du voyageur

    de commerce. LAlgorithme 1.5 rsume lapproche par colonies de fourmis propose par

    les auteurs. Si lon considre un problme de voyageur de commerce N villes, chaque

    fourmi k parcourt le graphe et construit un trajet de longueur n = N. Pour chaque fourmi,

    le trajet dune ville i une ville j dpend de :

    La liste des dplacements possibles Jki , quand la fourmi k est sur la ville i ;

    Linverse de la distance entre les villes ij = 1dij , appele visibilit. Cette information

    est utilise pour diriger les fourmis vers des villes proches et, ainsi, viter de trop

    longs dplacements ;

    La quantit de phromones dpose sur larte reliant deux villes ij(t), appele in-

    tensit de la piste. Cette quantit dfinit lattractivit dune piste et est modifie aprs

    le passage dune fourmi. Cest en quelque sorte la mmoire du systme.

    La rgle de dplacement est la suivante :

    pkij(t) =

    (ij(t))(ij)

    lJk

    i(il(t))(il)

    si j Jki

    0 sinon

    (1.2.1)

    o et sont deux paramtres contrlant limportance relative de lintensit de la piste et

    de la visibilit.

    Aprs un tour complet, chaque fourmi dpose une quantit de phromones kij(t) sur

    lensemble de son parcours. Cette quantit dpend de la qualit de la solution trouve et

    est dfinie par :

    kij(t) =

    QLk(t)

    si (i, j) Tk(t)

    0 sinon

    (1.2.2)

    16

  • Mtaheuristiques doptimisation : tat de lart

    nid nourriture nid nourritured ou u e d ou u e

    obstacle

    (a)

    obstacle

    (b)(a) (b)

    nid nourriture nid nourriturenid nourriture nid nourriture

    obstacle obstacle

    (c) (d)

    FIGURE 1.4: Illustration de la capacit des fourmis chercher de la nourriture en minimi-sant leur parcours. (a) Recherche sans obstacle, (b) Apparition dun obstacle, (c) Recherchedu chemin optimal, (d) Chemin optimal trouv.

    ACO

    1 t 12 tant que le critre darrt nest pas satisfait faire3 pour k = 1 m faire4 Choisir une ville au hasard

    5 pour chaque ville non visite i faire6 Choisir une ville j dans la liste Jki des villes restantes selon (1.2.1)

    7 fin

    8 Dposer une quantit de phromones kij(t) sur le trajet Tk(t) conformment

    (1.2.2)

    9 fin

    10 Evaporer les phromones selon (1.2.3)

    11 t t+ 112 fin

    ALGORITHME 1.5: Algorithme de colonies de fourmis pour le problme du voyageur decommerce.

    17

  • Mtaheuristiques doptimisation : tat de lart

    o Tk(t) est le trajet effectu par la fourmi k litration t, Lk(t) est la longueur de Tk(t) et

    Q est un paramtre de rglage.

    Enfin, il est ncessaire dintroduire un processus dvaporation des phromones. En

    effet, pour viter de rester pig dans des optima locaux, il est ncessaire quune fourmi

    oublie les mauvaises solutions. La rgle de mise jour est la suivante :

    ij(t+ 1) = (1 )ij(t) + ij(t) (1.2.3)

    o ij(t) = mk=1

    kij(t), m est le nombre de fourmis et est un paramtre de rglage.

    La dmarche initie par cette analogie a t tendue la rsolution dautres problmes

    doptimisation, discrets et continus [Dori 05, Dro 03]. ACO prsente plusieurs caractris-

    tiques intressantes, telles que le paralllisme intrinsque lev, la robustesse (une colonie

    peut maintenir une recherche efficace, mme si certains de ses individus sont dfaillants)

    ou encore la dcentralisation (les fourmis nobissent pas une autorit centralise).

    1.2.4.5 Algorithme volution diffrentielle

    Lvolution diffrentielle (Differential Evolution DE) est une mtaheuristique stochas-

    tique doptimisation qui a t inspire par les algorithmes gntiques et des stratgies

    volutionnaires combines avec une technique gomtrique de recherche. Les algorithmes

    gntiques changent la structure des individus en utilisant la mutation et le croisement,

    alors que les stratgies volutionnaires ralisent lauto-adaptation par une manipulation

    gomtrique des individus. Ces ides ont t mises en uvre grce une opration

    simple, mais puissante, de mutation de vecteurs, propose en 1995 par K. Price et R.

    Storn [Stor 97]. Mme si, lorigine, la mthode de lvolution diffrentielle tait conue

    pour les problmes doptimisation continus et sans contraintes, ses extensions actuelles

    peuvent permettre de traiter les problmes variables mixtes et grent les contraintes non

    linaires [Lamp].

    Dans la mthode DE, la population initiale est gnre par tirage alatoire uniforme

    sur lensemble des valeurs possibles de chaque variable. Les bornes infrieures et sup-

    rieures des variables sont spcifies par lutilisateur selon la nature du problme. Aprs

    linitialisation, lalgorithme effectue une srie de transformations sur les individus, dans

    un processus appel volution.

    18

  • Mtaheuristiques doptimisation : tat de lart

    La population contient N individus. Chaque individu xi,G est un vecteur de dimension

    D, o G dsigne la gnration :

    xi,G = (x1i,G, x2i,G, ..., xDi,G) avec i = 1, 2, ...,N (1.2.4)

    Le standard DE utilise trois techniques (mutation, croisement et slection) comme les

    algorithmes gntiques. A chaque gnration, lalgorithme applique successivement ces

    trois oprations sur chaque vecteur pour produire un vecteur dessai (trial vector) :

    ui,G+1 = (u1i,G+1, u2i,G+1, ..., uDi,G+1) avec i = 1, 2, ...,N (1.2.5)

    Une opration de slection permet de choisir les individus conserver pour la nouvelle

    gnration (G+ 1).

    a - Mutation

    Pour chaque vecteur courant xi,G, on gnre un vecteur mutant vi,G+1 qui peut tre cr en

    utilisant une des stratgies de mutation suivantes :

    - Rand/1 :

    vi,G+1 = xr1,G + F.(xr2,G xr3,G) (1.2.6)

    - Best/1 :

    vi,G+1 = xbest,G + F.(xr1,G xr2,G) (1.2.7)

    - Current to best/1 :

    vi,G+1 = xi,G + F.(xr1,G xr2,G) + F.(xbest,G xi,G) (1.2.8)

    - Best/2 :

    vi,G+1 = xbest,G + F.(xr1,G xr2,G) + F.(x3,G x4,G) (1.2.9)

    - Rand/2 :

    19

  • Mtaheuristiques doptimisation : tat de lart

    vi,G+1 = xr1,G + F.(xr2,G xr3,G) + F.(xr4,G xr5,G) (1.2.10)

    Les indices r1, r2, r3, r4 et r5 {1, 2, . . . ,N} sont des entiers alatoires et tous diffrents. Ilssont galement choisis diffrents de lindice courant i. xbest,G est le meilleur individu la

    Gme gnration. F [0, 2] est une valeur constante, appele differential weight, qui contrlelamplification de la variation diffrentielle de (xri,G xrj,G).

    b - Croisement

    Aprs la mutation, une opration de croisement binaire forme le vecteur dessai final

    ui,G+1, selon le vecteur xi,G et le vecteur mutant correspondant vi,G+1. Lopration de croi-

    sement est introduite pour augmenter la diversit des vecteurs de paramtres perturbs.

    Le nouveau vecteur ui,G+1 est donn par la formule suivante :

    uji,G+1 =

    v1i,G+1 si (randb(j) CR) ou j = rnbr(i)

    xji,G si (randb(j) > CR) et j 6= rnbr(i)pour tout j {1,2, . . . ,D}

    (1.2.11)

    o randb(j) est la jme valeur procure un gnrateur de nombre alatoire uniforme appar-

    tenant lintervalle [0,1]. CR est le coefficient de croisement qui appartient lintervalle

    [0,1] et est dtermin par lutilisateur. rnbr(i) est un indice choisi au hasard dans len-

    semble {1, 2, . . . ,N}.

    c - Slection

    Pour dcider quel vecteur, parmi ui,G+1 ou xi,G, doit tre choisi dans la gnration G + 1,

    on doit comparer les valeurs de fonction du cout de ces deux vecteurs. En effet, on garde le

    vecteur ayant la plus petite valeur de fonction du cout en cas de minimisation. Le nouveau

    vecteur xi,G+1 est choisi selon lexpression suivante :

    xi,G+1 =

    ui,G+1 si f (ui,G+1) < f (xi,G)

    xi,G sinon

    (1.2.12)

    Il est clair quun bon rglage des principaux paramtres de lalgorithme (taille de la popu-

    lation N, facteur demutation F et facteur de croisement CR) contribue de faon importante

    lefficacit de la mthode. Lauto-adaptation de ces paramtres parat donc intressante

    20

  • Mtaheuristiques doptimisation : tat de lart

    pour lamlioration de lalgorithme. Une comparaison des versions adaptatives et auto-

    adaptatives de lalgorithme volution diffrentielle (FADE [Liu 05], DESAP [Teo 06],

    SaDE [Qin 05] et jDE [Bres 06]) est prsente dans [Bres 07].

    1.3 Optimisation par Essaim Particulaire

    1.3.1 Principe gnral

    Loptimisation par essaim particulaire (OEP), ou Particle Swarm Optimization (PSO) en

    anglais, est un algorithme volutionnaire qui utilise une population de solutions candi-

    dates pour dvelopper une solution optimale au problme. Cet algorithme a t propos

    par Russel Eberhart (ingnieur en lectricit) et James Kennedy (socio-psychologue) en

    1995 [Kenn 95]. Il sinspire lorigine du monde du vivant, plus prcisment du compor-

    tement social des animaux voluant en essaim, tels que les bancs de poissons et les vols

    groups doiseaux. En effet, on peut observer chez ces animaux des dynamiques de dpla-

    cement relativement complexes, alors quindividuellement chaque individu a une intel-

    ligence limite, et ne dispose que dune connaissance locale de sa situation dans lessaim.

    Linformation locale et la mmoire de chaque individu sont utilises pour dcider de son

    dplacement. Des rgles simples, telles que rester proche des autres individus , aller

    dans une mme direction ou aller la mme vitesse , suffisent pour maintenir la coh-

    sion de lessaim, et permettent la mise en uvre de comportements collectifs complexes et

    adaptatifs.

    Lessaim de particules correspond une population dagents simples, appels parti-

    cules. Chaque particule est considre comme une solution du problme, o elle possde

    une position (le vecteur solution) et une vitesse. De plus, chaque particule possde une

    mmoire lui permettant de se souvenir de sa meilleure performance (en position et en va-

    leur) et de la meilleure performance atteinte par les particules voisines (informatrices) :

    chaque particule dispose en effet dun groupe dinformatrices, historiquement appel son

    voisinage.

    Un essaim de particules, qui sont des solutions potentielles au problme doptimisa-

    tion, survole lespace de recherche, la recherche de loptimum global. Le dplacement

    dune particule est influenc par les trois composantes suivantes :

    1. Une composante dinertie : la particule tend suivre sa direction courante de dpla-

    21

  • Mtaheuristiques doptimisation : tat de lart

    cement ;

    2. Une composante cognitive : la particule tend se diriger vers le meilleur site par

    lequel elle est dj passe ;

    3. Une composante sociale : la particule tend se fier lexprience de ses congnres

    et, ainsi, se diriger vers le meilleur site dj atteint par ses voisins.

    La stratgie de dplacement dune particule est illustre dans la figure 1.5.

    Vers sa meilleure

    performance

    Position

    actuelle

    p

    Nouvelle

    position Vers la meilleure

    f dactuelle performance des

    particules voisines

    Vers le point

    accessible avec sa

    vitesse courante

    FIGURE 1.5: Dplacement dune particule.

    1.3.2 Formalisation

    Dans un espace de recherche de dimension D, la particule i de lessaim est mod-

    lise par son vecteur position ~xi = (xi1, xi2, . . . , xiD) et par son vecteur vitesse ~vi =

    (vi1, vi2, . . . , viD). La qualit de sa position est dtermine par la valeur de la fonction ob-

    jectif en ce point. Cette particule garde en mmoire la meilleure position par laquelle elle

    est dj passe, que lon note ~Pbesti = (pbesti1, pbesti2, . . . , pbestiD). La meilleure position

    atteinte par les particules de lessaim est note ~Gbest = (gbest1, gbest2, . . . , gbestD). Nous

    nous rfrons la version globale de PSO, o toutes les particules de lessaim sont consid-

    res comme voisines de la particule i, do la notation ~Gbest (global best).

    Remarque : le terme de vitesse est ici abusif, car les vecteurs ~vi ne sont pas homognes une

    vitesse. Il serait plus appropri de parler de direction de dplacement . Cependant, pour respecter

    lanalogie avec le monde animal, les auteurs ont prfr utiliser le terme de vitesse .

    22

  • Mtaheuristiques doptimisation : tat de lart

    Au dpart de lalgorithme, les particules de lessaim sont initialises de manire

    alatoire/rgulire dans lespace de recherche du problme. Ensuite, chaque itration,

    chaque particule se dplace, en combinant linairement les trois composantes cites ci-

    dessus. En effet, litration t+ 1, le vecteur vitesse et le vecteur position sont calculs

    partir de lquation (1.3.1) et de lquation (1.3.2), respectivement.

    vt+1i,j = wvti,j + c1r

    t1i,j [pbest

    ti,j xti,j] + c2rt2i,j [gbest

    tj xti,j], j {1, 2, ...,D} (1.3.1)

    xt+1i,j = xti,j + v

    t+1i,j , j {1, 2, ...,D} (1.3.2)

    o w est une constante, appele coefficient dinertie ; c1 et c2 sont deux constantes, appeles

    coefficients dacclration ; r1 et r2 sont deux nombres alatoires tirs uniformment dans

    [0, 1], chaque itration t et pour chaque dimension j.

    Les trois composantes mentionnes ci-dessus (i.e. dinertie, cognitive et sociale) sont repr-

    sentes dans lquation (1.3.1) par les termes suivants :

    1. wvti,j correspond la composante dinertie du dplacement, o le paramtre w

    contrle linfluence de la direction de dplacement sur le dplacement futur ;

    2. c1rt1i,j [pbestti,j xti,j] correspond la composante cognitive du dplacement, o le

    paramtre c1 contrle le comportement cognitif de la particule ;

    3. c2rt2i,j [gbesttj xti,j] correspond la composante sociale du dplacement, o le para-

    mtre c2 contrle laptitude sociale de la particule.

    Une fois le dplacement des particules effectu, les nouvelles positions sont values et les

    deux vecteurs ~Pbesti et ~Gbest sont mis jour , litration t+ 1, suivant les deux quations

    (1.3.3) (dans le cas dune minimisation) et (1.3.4) (dans une version globale de PSO), res-

    pectivement. Cette procdure est prsente dans lAlgorithme 1.6, o N est le nombre de

    particules de lessaim.

    ~Pbesti(t+ 1) =

    {

    ~Pbesti(t), si f (~xi(t+ 1)) ~Pbesti(t)~xi(t+ 1), sinon

    (1.3.3)

    ~Gbest(t+ 1) = arg min~Pbesti

    f (~Pbesti(t+ 1)), 1 i N. (1.3.4)

    23

  • Mtaheuristiques doptimisation : tat de lart

    OEP

    1 Initialiser alatoirement N particules : position et vitesse.

    2 Evaluer les positions des particules

    3 Pour chaque particule i, ~Pbesti = ~xi

    4 Calculer ~Gbest selon (1.3.4)

    5 tant que le critre darrt nest pas satisfait faire6 Dplacer les particules selon (1.3.1) et (1.3.2)

    7 Evaluer les positions des particules

    8 Mettre jour ~Pbesti et ~Gbest selon (1.3.3) et (1.3.4)

    9 fin

    ALGORITHME 1.6: Algorithme doptimisation par essaim particulaire.

    1.3.3 Amliorations de PSO

    1.3.3.1 Confinement des particules

    Pour viter que le systme n explose en cas damplification trop grande doscilla-

    tions (il est possible que le dplacement dune particule soit trop rapide et la conduise

    sortir de lespace de recherche), nous pouvons introduire un nouveau paramtre Vmax, qui

    permet de limiter la vitesse sur chaque dimension et ainsi de contrler lexplosion du sys-

    tme [Eber 96]. Notons que cela ne restreint pas les valeurs de xi lintervalle [Vimin,Vimax],

    mais limite seulement la distance maximale quune particule va parcourir au cours dune

    itration. Cette mthode permet de contrler la divergence de lalgorithme et de raliser

    ainsi un compromis efficace entre intensification et diversification.

    De plus, une stratgie de confinement des particules peut tre introduite. Une telle

    stratgie permet de ramener une particule sortie de lespace de recherche lintrieur de

    celui-ci. Dans ce cadre, plusieurs mthodes peuvent tre employes :

    La particule est laisse lextrieur de lespace de recherche, mais on nvalue pas sa

    fonction objectif. Ainsi, elle ne pourra pas attirer les autres particules en dehors de

    lespace de recherche ;

    La particule est arrte la frontire et les composantes associes sa vitesse sont

    annules ;

    La particule rebondit sur la frontire. La particule est stoppe sur la frontire, mais

    24

  • Mtaheuristiques doptimisation : tat de lart

    les composantes correspondantes de la vitesse sont multiplies par un coefficient tir

    alatoirement dans lintervalle [-1,0].

    1.3.3.2 Coefficient de constriction

    Des amliorations ont t apportes lalgorithme de base, notamment du point de

    vue du contrle de la divergence : en particulier, lintroduction du paramtre Vmax que

    nous avons vu dans le paragraphe prcdent, et qui permet de limiter la divergence des

    particules. En outre, beaucoup dautres tudes ont t menes sur la dynamique des parti-

    cules et qui sattachent analyser sous quelles conditions une convergence de lessaim est

    assure [Kenn 98, Ozca 99, Van 01].

    La combinaison des paramtres w, c1 et c2 permet de rgler lquilibre entre les phases

    de diversification et dintensification du processus de recherche [Kenn 01]. Dans [Cler 02],

    Clerc et Kennedy ont dmontr quune bonne convergence peut tre obtenue en ren-

    dant dpendants ces paramtres. Lutilisation dun coefficient de constriction (ou facteur

    de constriction) permet de mieux contrler la divergence de lessaim et de saffranchir de la

    dfinition de Vmax [Cler 02]. Cette variante de PSO, qui a t largement utilise dans la lit-

    trature, est connue sous le nom de canonical PSO. En utilisant le coefficient de constriction,

    lquation (1.3.1) devient :

    vij(t+ 1) = (

    vi,j(t) + 1 r1(

    pbesti,j(t) xi,j(t))

    + 2 r2(

    gbestj(t) xi,j(t)))

    (1.3.5)

    avec :

    =2

    2+

    2 4(1.3.6)

    o : = 1 + 2, > 4.

    Les valeurs optimales de 1 et 2 ont t dtermines dans [Cler 02], en effectuant de

    nombreux tests. En gnral, on utilise = 4,1 et 1 = 2, ce qui donne un coefficient

    = 0,7298844.

    Dans [Eber 00], les auteurs ont indiqu que lutilisation dun coefficient de constric-

    tion donne gnralement un meilleur taux de convergence, sans avoir fixer de vitesse

    25

  • Mtaheuristiques doptimisation : tat de lart

    maximale Vmax. Cependant, dans certains cas, le coefficient de constriction seul ne per-

    met pas la convergence vers la solution optimale pour un nombre ditrations donn.

    Pour remdier ce problme, il pourrait tre intressant de fixer Vmax = (xmax xmin)/2en plus du coefficient de constriction, ce qui, selon les tudes de Shi et Eberhart, per-

    met damliorer les performances globales de lalgorithme. Ainsi, il est noter que PSO,

    utilisant un coefficient de constriction, nest pas la seule version de PSO qui garan-

    tisse la convergence vers un tat dquilibre. Dautres exemples peuvent tre trouvs

    dans [Van 01, Trel 03, Peer 03, Zhen 03], qui permettent aussi de provoquer la convergence

    de lalgorithme.

    1.3.3.3 Topologie de voisinage

    Comme nous lavons vu dans les deux sous-sections 1.3.1 et 1.3.2, PSO est une m-

    thode doptimisation stochastique inspire dun comportement social. Ce comportement

    a t modlis par les deux quations (1.3.1) et (1.3.2) pour guider les particules durant le

    processus de dplacement. Le choix dune topologie (le rseau de communication entre les

    particules) a donc une influence importante sur les performances de PSO.

    A lorigine, dans la version de PSO rsume dans lAlgorithme 1.6, les auteurs ont d-

    fini une topologie entirement connecte (i.e. chaque particule est relie toutes les autres).

    Cette version de PSO est appele version globale (Gbest), car la particule est informe par

    la totalit des autres, et linformation effectivement utilise est incarne par le terme ~Gbest

    de la troisime composante de lquation (1.3.1). Cette version a linconvnient majeur de

    ne pas donner lieu une exploration suffisante, ce qui peut conduire une stagnation

    dans un optimum local et donc une convergence prmature. De nombreuses variantes

    de la version originale, dites versions locales (Lbest), ont t proposes dans la littrature

    de PSO, afin damliorer sa convergence. Parmi ces variantes, nous pouvons citer celle

    propose dans [Eberhart et al., 1995] et qui utilise un graphe dinformation statique sous

    forme danneau (cette version est connue comme tant la version locale classique). Dans les

    versions locales, le terme ~Gbest est remplac par les termes~Lbesti, o, pour chaque parti-

    cule i, on dfinit un ensemble de voisinage (i.e. linformation qui doit tre partage est la

    meilleure solution trouve dans le voisinage de chaque particule (~Lbesti)). Cette partie sera

    traite et dtaille dans le chapitre 3, o nous prsenterons aussi une nouvelle topologie

    dynamique, nomme Dcluster.

    26

  • Mtaheuristiques doptimisation : tat de lart

    1.3.3.4 Coefficient dinertie

    Le coefficient dinertie w, introduit par Shi et Eberhart [Shi 99], contrle linfluence de

    la direction de la particule sur le dplacement futur. Le but de lintroduction de ce para-

    mtre est de raliser un quilibre entre la recherche locale (exploitation) et la recherche

    globale (exploration). Lintensit de lexploration de lespace de recherche dpend de la

    valeur du poids dinertie, une grande valeur de w facilitant une exploration globale, alors

    quune petite valeur facilite lexploration locale. Du fait de son influence sur les perfor-

    mances de lalgorithme PSO, le poids dinertie a suscit un grand intrt de la part de la

    communaut des chercheurs. Dans [Shi 99], les auteurs ont propos un coefficient diner-

    tie dynamique qui varie au cours du temps. Il commence par une valeur proche de 0,9 et

    descend linairement pour arriver 0,4. Cette stratgie a beaucoup amlior les perfor-

    mances de PSO pour plusieurs problmes doptimisation. Le coefficient dinertie w varie

    linairement avec le temps selon la formule suivante :

    w = wmin + (wmax wmin).(iter

    maxiter) (1.3.7)

    o iter est litration courante et maxiter est le nombre maximal ditrations. wmax et wmindsignent respectivement les valeurs maximum et minimum du coefficient w (gnrale-

    ment, wmin,wmax [0, 1]).

    Dans [Chat 06], Chatterjee et Siarry ont utilis une autre stratgie non-linaire pour

    dfinir un coefficient dinertie dynamique. Dans [Eber 01], Eberhart et Shi ont propos

    une autre variante, dans laquelle le coefficient dinertie est choisi au hasard, selon une

    distribution uniforme, dans lintervalle [0,5, 1]. Cet intervalle a t inspire du facteur de

    constriction propos par Clerc et Kennedy (la valeur attendue du coefficient dinertie, dans

    ce cas, est gale 0,75 0,729).

    1.3.3.5 Stratgie FIPS

    Kennedy et Mendes [Mend 04] ont propos une nouvelle manire dutiliser la topolo-

    gie Gbest, appele FIPS (Fully Informed Particle Swarm). FIPS utilise une partie des informa-

    tions de chaque voisine, au lieu de se baser seulement sur les informations de la meilleure

    voisine et la meilleure exprience propre la particule. Par consquent, lutilisation dune

    topologie entirement connecte ne signifie pas que linformation utilise soit seulement

    27

  • Mtaheuristiques doptimisation : tat de lart

    la meilleure solution trouve par lessaim. En effet, dans FIPS, elle est toujours utilise,

    mais elle nest pas la seule. Pour les algorithmes bass sur le principe de la topologie FIPS,

    linformation utilise pour dplacer les particules est issue de toutes les autres particules.

    Ainsi, toutes les voisines contribuent lajustement de la vitesse dune particule :

    vt+1i =

    (

    vti +Ni

    n=1

    U(0,)(ptnbr(n) xti)Ni

    )

    (1.3.8)

    o Ni est le nombre de voisins de la particule i, nbr(n) est la nime particule voisine de la

    particule i et est la constante dacclration, qui permet de contrler la convergence des

    particules. Cette dernire est fixe 4,1, suite lanalyse de Clerc et al [Cler 02].

    1.3.3.6 Algorithme TRIBES

    TRIBES est un algorithme doptimisation par essaim particulaire sans paramtres de

    contrle, qui a t propos par Clerc [Cler 03]. Cet algorithme prsente la particularit

    dtre totalement adaptatif, cest--dire que tous les paramtres de contrle sont calculs

    de manire autonome par lalgorithme. En effet, TRIBES est dfini comme une bote noire,

    pour laquelle lutilisateur na plus aucun paramtre rgler. Il doit seulement dfinir le

    problme rsoudre (i.e. la fonction objectif, lespace de recherche, les contraintes), ainsi

    que son critre darrt. Cependant, il est signaler que TRIBES ne peut pas rsoudre tous

    les problmes. De plus, ses rsultats sont probabilistes cause de son caractre stochas-

    tique. Le but de TRIBES, daprs son auteur, est dtre efficace dans la plupart des cas

    et de permettre ses utilisateurs de gagner du temps, en vitant ltape de rglage de la

    mtaheuristique.

    Dans TRIBES, lessaim particulaire est divis en plusieurs sous-essaims appels tri-

    bus . Les tribus sont de tailles diffrentes, qui voluent au cours du temps. Le but est

    dexplorer simultanment plusieurs rgions de lespace de recherche, gnralement des

    optima locaux, avant de prendre une dcision globale. Dans le but de prendre un telle

    dcision, les tribus changent leurs rsultats tout au long du traitement. Deux types de

    communications sont donc dfinir : la communication intra-tribu et la communication

    inter-tribus. Chaque tribu est compose dun nombre variable de particules. En effet, une

    tribu qui peine amliorer ses rsultats gnre des particules plus exploratrices . Les

    particules gnres par les diffrentes tribus forment une nouvelle tribu, qui reste en com-

    munication avec ses gnitrices. Inversement, une tribu efficace tendra supprimer celles

    28

  • Mtaheuristiques doptimisation : tat de lart

    de ses particules qui nont pas contribu sa bonne performance.

    TRIBES est un algorithme comptitif, qui permet de trouver rapidement des optima

    locaux (trs utile pour loptimisation dynamique). Cependant, les particules ont tendance

    rester dans ces optima locaux et ont du mal en sortir.

    La thse de Yann Cooren [Coor 08] sattache particulirement lalgorithme TRIBES,

    qui est en dtail. Cest ainsi que Cooren a propos deux ides qui permettent damliorer

    les performances de cet algorithme :

    La premire ide consiste utiliser un nouveau mode dinitialisation (initialisation

    rgulire) pour assurer une couverture plus uniforme de lespace de recherche par

    les particules. En pratique, les particules sont initialises de manire tre les plus

    loignes possible les unes des autres et les plus loignes possible des frontires de

    lespace de recherche.

    La deuxime ide consiste utiliser une nouvelle stratgie de dplacement, base sur

    une hybridation avec un algorithme estimation de distribution, pour maintenir la

    diversit au sein de lessaim, tout au long du traitement.

    Les rsultats obtenus montrent une relle amlioration apporte lalgorithme initial.

    Dans sa thse, Yann Cooren a propos aussi une version performante pour les problmes

    multi-objectifs, dnomme MO-TRIBES.

    1.3.3.7 PSO et hybridation

    Ces dernires annes, lhybridation des algorithmes a attir lattention de nombreux

    chercheurs afin damliorer leurs performances. Lobjectif de lhybridation est de combiner

    les caractristiques de plusieurs algorithmes pour tirer profit de leurs avantages [Talb 02].

    Mais lalgorithme rsultant risque dhriter galement de leurs faiblesses. De plus, un al-

    gorithme rsultant de lhybridation de plusieurs algorithmes peut avoir une complexit

    importante. Comme pour toutes les mtaheuristiques, lhybridation a aussi touch le do-

    maine de PSO dans le but damliorer ses performances. Dans ce qui suit, nous prsentons

    quelques exemples dhybridations entre PSO et dautres algorithmes.

    Dans [Ange 98], Angeline a propos la premire hybridation dun algorithme PSO. Il

    introduit un processus de slection et un processus de mutation inspirs des algorithmes

    volutionnaires. Le processus de slection est utilis pour choisir des bonnes parti-

    cules qui vont subir une mutation, et des mauvaises particules qui sont limines.

    29

  • Mtaheuristiques doptimisation : tat de lart

    Dans [Zhan 09], une approche originale dhybridation, qui est une combinaison de PSO et

    DE (DE-PSO), est propose. Cette approche consiste dfinir une stratgie de dplacement

    alatoire pour accrotre la capacit dexploration et en mme temps acclrer la conver-

    gence de lalgorithme, en utilisant des oprateurs de lalgorithme DE. Dans cette approche,

    trois stratgies demise jour de la particule ont t utilises :DEUpdating Strategy (DEUS),

    Random Updating Strategy (RUS) et PSO Updating Strategy (PSOUS). Dans [Mira 02], une

    hybridation entre PSO et les stratgies volutionnaires est propose. Les paramtres chi,

    1 et 2, ainsi que ~g, sont perturbs selon une distribution gaussienne. La variance de cette

    distribution est dtermine laide dun processus de slection. Dans [Robi 02], une hy-

    bridation entre PSO et les algorithmes gntiques est dveloppe. Il est dmontr dans cet

    article que PSO est favorable dans la phase de diversification, alors que les algorithmes g-

    ntiques sont plus efficaces dans la phase dintensification. Dans [Shel 07], un algorithme

    de PSO est hybrid avec un algorithme de colonies de fourmis. Lide sous-jacente consiste

    utiliser PSO comme mthode de recherche globale, alors que lalgorithme de colonies

    de fourmis est cens amliorer le processus dintensification, en tant utilis comme une

    recherche locale. Dans [Iqba 06], un algorithme de PSO utilisant des principes des algo-

    rithmes estimation de distribution est prsent. Les meilleures particules sont ici utili-

    ses pour attirer les autres particules de lessaim laide de lestimation dune distribution

    de probabilit. Enfin, il existe aussi plusieurs mthodes hybridant PSO avec une recherche

    locale. Parmi ces mthodes, nous citons NM-PSO, qui est une combinaison de la technique

    de Nelder-Mead (NM) et de PSO. Dans NM-PSO, le processus hybride ralise lexploration

    par lalgorithme PSO et lexploitation par lalgorithme NM [Fan 04].

    1.3.3.8 PSO cooprative

    Les algorithmes de recherche coopratifs, notamment ceux de PSO, ont t large-

    ment tudis ces dernires annes, surtout pour rsoudre les problmes doptimisation de

    grande tailles. Lapproche de base consiste avoir plus dun module de recherche en cours

    dexcution (peut-tre travers des sous-essaims) et un change dinformations entre eux,

    afin dexplorer plus efficacement lespace de recherche et datteindre de meilleures solu-

    tions.

    Dans [Berg 04], les auteurs proposent deux variantes de PSO : Cooperative PSO

    (CPSO-Sk) et Hybrid CPSO (CPSO-H). La premire variante CPSO-S divise lespace n-

    dimensionnel (vecteur de solutions de dimension n) en sous-espaces (de plus petits vec-

    30

  • Mtaheuristiques doptimisation : tat de lart

    teurs), o chaque sous-espace est optimis par un essaim spar. Le vecteur global de so-

    lutions est construit partir des solutions trouves par la meilleure particule de chaque

    essaim. Dans le cas particulier o n = k, lalgorithme est appel CPSO-S et utilise

    n essaims 1-dimensionnel pour effectuer la recherche dans chaque dimension spar-

    ment. La deuxime variante CPSO-H consiste en deux phases de recherche squentielle.

    Chaque phase sexcute seulement pour une itration et communique la meilleure solu-

    tion trouve la phase suivante. La premire phase utilise un CPSO-S (avec des essaims

    1-dimensionnel) et la seconde phase utilise lalgorithme de base de PSO.

    Dans [Bask 04], lalgorithme Concurrent PSO (CONPSO) considre deux essaims en

    concurrence qui sont gnrs laide de deux variantes de PSO : PSO de base et Fitness-

    to-Distance Ratio PSO (FDR-PSO) [Pera 03]. Ces deux essaims effectuent la recherche en

    mme temps avec un change frquent dinformations. Les informations changes sont

    les meilleures solutions globales gbest1 et gbest2 de deux essaims. Aprs chaque point

    dchange, les particules des essaims sont obliges de suivre la meilleure solution globale

    trouve entre les deux.

    Dans [Yen 08], les auteurs prsentent une autre mthode dchange dinformations

    entre les essaims, dans laquelle la population des particules est divise en m sous-essaims

    qui cooprent entre eux. Au moment de lchange, chaque sous-essaim prpare deux en-

    sembles de particules : les particules envoyer un autre sous-essaim et les particules

    remplacer par dautres particules venant dautres sous-essaims. Lchange dinformations

    se fait entre sous-essaims du mme voisinage, dtermin par une distance qui change au

    cours de lexcution de lalgorithme. Ceci fournit une configuration dynamique entre les

    sous-essaims, grce au changement de distance, qui permet chacun dentre eux de com-

    muniquer avec dautres groupes.

    Un autre algorithme de PSO cooprative a t propos dans [Niu 07], bas sur un mo-

    dle matre-esclave. Dans cet algorithme, la population se compose dun essaim matre

    et plusieurs essaims esclaves . Les essaims esclaves excutent un seul PSO indpen-

    damment pour maintenir la diversit des particules, tandis que lessaim matre volue en

    fonction de son information propre et de celle des essaims esclaves.

    1.3.3.9 Autres variantes de PSO

    Dans [Hsie 09], Hsieh et al. proposent un algorithme (EPU-PSO) bas sur une popu-

    lation de taille variable qui utilise trois ides principales pour amliorer les performances

    31

  • Mtaheuristiques doptimisation : tat de lart

    de PSO. La premire ide introduit un gestionnaire de la population o, selon ltat de

    la recherche, lalgorithme ajoute ou supprime des particules. Cette dynamicit affecte

    considrablement les performances et augmente la capacit trouver loptimum global.

    La deuxime ide est base sur la stratgie dite solution-sharing strategy, qui permet aux

    meilleures particules de partager leurs informations et de mettre jour leurs vitesses. La

    troisime ide porte sur la technique dite searching range sharing (SRS), qui empche les

    particules de tomber dans un optimum local. En outre, SRS tend lexploration de lespace

    de recherche des zones inexplores. CLPSO [Lian 06] est une variante de PSO qui utilise

    une nouvelle stratgie dapprentissage (learning strategy) pour mettre jour les vitesses des

    particules utilisant des informations historiques. UPSO [Pars 04] est un algorithme de PSO

    qui regroupe les variantes globale et locale de PSO, en combinant leurs capacits dexplo-

    ration et dexploitation.

    1.4 Validation des algorithmes

    Dans cette section, nous allons prsenter les fonctions et les problmes rels utiliss

    pour comparer les rsultats obtenus par les algorithmes que nous proposons dans ce ma-

    nuscrit ceux dautres algorithmes existants dans la littrature. Nous nous appuyons, pour

    comparer les algorithmes, sur la procdure de test dfinie dans le cadre de la confrence

    2005 IEEE Congress on Evolutionary Computation (CEC05) [Suga 05].

    Le critre darrt peut tre diffrent suivant le problme pos. Si loptimum global est

    connu a priori, on peut dfinir une erreur acceptable comme critre darrt. Sinon, il est

    habituel de fixer un nombre maximum dvaluations de la fonction objectif ou un nombre

    maximum ditrations comme critre darrt. Cependant, selon le problme pos et les

    exigences de lutilisateur, dautres critres darrt peuvent tre utiliss.

    1.4.1 Principales fonctions de test

    Les principales fonctions de test sont classes en quatre groupes (voir Tableau 1.1) en

    fonction de leurs proprits [Suga 05, Tu 04, Yao 99].

    Dans lannexe, nous dtaillons ces quatre groupes.

    32

  • Mtaheuristiques doptimisation : tat de lart

    Groupe Type de fonction Nom de fonction

    A Fonctions unimodalesf1. Sphere functionf2. Quadric function

    B Fonctions multimodales

    f3. Rosenbrocks functionf4. Ackleys functionf5. Rastrigins functionf6. Weierstrasss functionf7. Generalized penalized functionf8. Griewanks functionf9. Tripods function

    C Fonctions pivotes

    f10. Rotated Quadric functionf11. Rotated Rosenbrocks functionf12. Rotated Ackleys functionf13. Rotated Rastrigins functionf14. Rotated Weierstrasss functionf15. Rotated Generalized penalized function

    D Fonctions dcales

    f16. Shifted Rosenbrocks functionf17. Shifted Ackleys functionf18. Shifted Rastrigins functionf19. Shifted Griewanks functionf20. Shifted Sphere function

    TABLEAU 1.1: Les principales fonctions de test.

    1.4.2 Problmes rels

    Quelques problmes rels trs frquents dans le domaine doptimisation et utiliss

    pour mesurer les performances des algorithmes, sont prsents dans le tableau 1.2 et d-

    taills dans lannexe.

    1.5 Conclusion

    Dans ce chapitre, nous avons prsent un tat de lart sur les mthodes dopti