Upload
others
View
9
Download
0
Embed Size (px)
Citation preview
CONSTRUCTION ET OPTIMISATION
D’UNE MATRICE ORIGINE
DESTINATION POIDS LOURDS EN
ILE-DE-FRANCE
Rapport de Stage Alexandre Alexanian
Tuteur : Dany Nguyen-Luong
Directrice du Département : Elisabeth Gouvernal
JUIN-SEPTEMBRE 2014
1
Sommaire Remerciements ........................................................................................................................... 3
Introduction ................................................................................................................................ 4
1 Les Poids Lourds en IDF .................................................................................................... 5
2 Le modèle général .............................................................................................................. 7
2.1 Le modèle à 4 étapes ................................................................................................... 7
2.2 Cadre général ............................................................................................................... 7
2.3 Construction de la matrice a priori .............................................................................. 8
2.3.1 Le modèle gravitaire ............................................................................................. 8
2.3.2 Anciennes Matrices .............................................................................................. 9
3 Mise en œuvre du modèle gravitaire ................................................................................ 12
3.1 Le Zonage .................................................................................................................. 12
3.2 Le réseau routier ........................................................................................................ 12
3.3 La Matrice des Distances ........................................................................................... 13
3.4 Emissions et Attractions ............................................................................................ 13
3.4.1 Classement des entreprises ................................................................................. 13
3.5 Application du modèle gravitaire .............................................................................. 17
3.6 Finalisation ................................................................................................................ 20
3.6.1 Première étape .................................................................................................... 20
3.6.2 Deuxième étape .................................................................................................. 20
3.6.3 Troisième étape .................................................................................................. 21
3.6.4 Quatrième étape .................................................................................................. 21
3.7 Résultat final du modèle gravitaire ............................................................................ 22
3.8 Comparaison entre la matrice IAU a priori et la matrice Freturb .............................. 22
4 Méthodes d’optimisation .................................................................................................. 24
4.1 La maximisation de l’entropie/ minimisation de l’information ................................. 24
4.1.1 Avantages ........................................................................................................... 25
4.1.2 Inconvénients ..................................................................................................... 25
4.2 Le maximum de vraisemblance ................................................................................. 25
4.2.1 Avantages ........................................................................................................... 26
4.2.2 Inconvénients ..................................................................................................... 26
2
4.3 Les moindres carrés ................................................................................................... 26
4.3.1 Avantages ........................................................................................................... 26
4.3.2 Défauts ............................................................................................................... 26
4.4 L’inférence Bayésienne ............................................................................................. 26
4.4.1 Avantages ........................................................................................................... 27
4.4.2 Inconvénients ..................................................................................................... 27
5 Mise en œuvre de l’optimisation ...................................................................................... 28
5.1 Outils choisis ............................................................................................................. 28
5.2 L’algorithme .............................................................................................................. 28
5.3 La construction des contraintes ................................................................................. 29
5.3.1 Contraintes sur les comptages ............................................................................ 29
5.3.2 Autres Contraintes .............................................................................................. 31
5.4 La procédure Optmodel ............................................................................................. 31
5.5 Les résultats ............................................................................................................... 34
5.5.1 Matrice IAU a priori ........................................................................................... 34
5.5.2 Matrice Freturb ................................................................................................... 38
6 Conclusion ........................................................................................................................ 40
7 Bibliographie .................................................................................................................... 41
3
Remerciements
Toute ma gratitude va à Dany Nguyen-Luong, qui s’est montré disponible tout au long de mon stage et qui m’a donné de nombreux conseils pour ma vie professionnelle future.
Je remercie Robert Allio pour sa disponibilité, pour l’aide qu’il m’a apportée, et pour son accueil chaleureux.
Je remercie également Adrien Béziat pour sa collaboration et pour l’aide précieuse qu’il m’a apportée tout au long de mon stage.
Enfin, ma reconnaissance va à Elisabeth Gouvernal pour s’être souciée de mon bien-être pendant mon stage et pour avoir créé des conditions favorables à son déroulement. Je tiens également à remercier tout le DMT pour leur accueil et pour l’ambiance de travail agréable qu’ils ont entretenu.
4
Introduction
Les matrices de déplacements Origine Destination (OD) sont importantes. Elles permettent la simulation du trafic routier, d’estimer le nombre de véhicules qui vont circuler à un certain moment sur le réseau routier. Elles peuvent aussi avoir une application économique, puisqu’elles peuvent servir à évaluer l’intérêt socio-économique d’un nouveau projet routier. Il est donc intéressant de pouvoir construire une telle matrice.
Néanmoins, les enquêtes O-D sont difficiles à réaliser. Il est théoriquement possible de recueillir des données précises du nombre de véhicules qui partent d’une origine i à une destination j, mais cela nécessiterait des moyens très importants.
Pour cette raison, depuis 50 ans, de nombreuses tentatives de modélisation ont été faites. Le principe est d’inférer, à partir d’un nombre de mesures limité, la matrice entière. C’est ce que nous allons faire dans le cadre de la modélisation du trafic des poids-lourds (PL) en IDF.
Il existe de nombreuses méthodes et pour chaque méthode, un nombre conséquent de variantes. Nous allons décrire ces 4 méthodes principales puis les appliquer sur un découpage test de 27 zones. Mais d’abord, posons le cadre du problème.
Un site internet du projet a été mis en place : www.iau-idf.fr/wp/plestim
5
1 Les Poids Lourds en IDF
Avant tout, il est nécessaire de faire un état des lieux du trafic PL. L’IDF a généré en 2010 210 millions de tonnes de marchandise en moyenne. Plus de la moitié (53%) des échanges se fait en interne (Voir DRIEA-DOS Fret IDF Horizon 2025). Ce même document nous indique que parmi ces 210 millions de tonnes, 200 transitent par la route (par l’intermédiaire de PL)
Les axes majeurs en IDF pour les PL sont l’A1, l’A86, l’A6 et l’A10 et la Francilienne. Avant tout, il est important de savoir comment se distribue le trafic en IDF entre trafic interne, échange, et transit. (p°34 du DOS)
Nous avons les données suivantes concernant les tonnages en IDF. Le premier tableau montre les tonnages intra départementaux en IDF, le deuxième les tonnages*km. Nous retrouverons tous ces tableaux dans le document « Tonnages.xlsx ».
91 92 75 77 93 94 95 78 Total
91 7392173 567674 567340 1527444 385008 1114482 264714 595398 12414233
92 706459 2496957 490081 2164833 978948 275767 1477432 686654 9277131
75 204040 337700 1319532 1389944 555116 523326 229963 279074 4838695
77 2529569 781895 911759 18598428 2192867 2635404 767763 394244 28811929
93 330968 1284987 297941 2683354 3072375 1261386 843140 434874 10209025
94 754513 613443 1413176 3267483 593926 3949819 371714 425688 11389762
95 274479 1021834 462491 1028024 1163998 350067 7836574 930084 13067551
78 417974 776466 440241 237213 218468 456929 852520 10606317 14006128
Total 12610175 7880956 5902561 30896723 9160706 10567180 12643820 14352333 104014454
91 92 75 77 93 94 95 78 Total
91 188357680 21656116 23698202 78320503 39937895 37101963 16551761 39601868 445225988
92 28188283 42897721 12166136 119406347 11917913 7608706 33459829 36328176 291973111
75 5953314 5309748 24084235 56577328 8277956 8049631 5021876 24022918 137297006
77 159800486 57375079 49325849 622043307 126948063 181946380 33130159 39189737 1269759060
93 21065321 14108993 5405808 103095353 40813311 26158969 20435050 18950726 250033531
94 22169111 17354460 26344741 130476670 12981773 163678151 15840349 25983381 414828636
95 16765468 27299281 11939704 52860485 33251016 14957697 174145540 33802811 365022002
78 20324147 35945933 22235941 18086125 11785825 28149277 32099275 262941656 431568179
Total 462623810 221947331 175200616 1180866118 285913752 467650774 330683839 480821273 3605707513
6
Nous pouvons aussi donner des chiffres sur la circulation de PL en IDF. A première vue, et selon le DOS DRIEA, nous avons la matrice suivante :
Interne Externe Total
Interne 176000 25850 201850
Externe 25850 14300 40150
Total 201850 40150 242000
Par la suite, nous définissions Poids-Lourd comme 1 camion de plus de 3.5 tonnes et nous considérons à la fois les PL chargés et les PL à vide. Le tableau précédent ne concerne lui, que le PL chargés. Cette information nous a été donnée à une semaine de la fin de mon stage le 8/09/2014. Selon la DRIEA, 39% des déplacements PL internes à la région sont effectués à vide. Les données marchandises présentent plus d’incertitudes et de lacunes que les données de voyageurs.
7
2 Le modèle général
2.1 Le modèle à 4 étapes
En modélisation du trafic, on utilise généralement le modèle en 4 étapes. Ces quatre étapes sont :
• La génération : Détermination des émissions/attractions par zone
• Distribution : Quelle est la destination ? • Choix Modal : Choix du mode de transport • Affectation : Répartition des véhicules sur les itinéraires
Cette étude ne concerne pas le choix modal car dès la génération, nous ne considérons que les PL de plus de 3.5 tonnes.
Le but de mon stage est donc construire la matrice Origine Destination à l’issue de la distribution puis de l’optimiser. Je dispose pour ce faire de données diverses :
• Des comptages • Des enquêtes cordons
• Des distances • Des matrices agrégées • Des lignes Ecran
Ces données devront être utilisées en amont et non a posteriori pour comparer une situation simulée avec une situation observée.
2.2 Cadre général
On considère la région IDF découpée en N zones. Si on considère la zone i et la zone j avec �, � ∈ �1, �, le but est de calculer le nombre �� de véhicules qui vont de � à � et
d’obtenir la matrice = ( �) ,�∈[�,�].
Nous disposons d’informations de comptages PL à partir de � capteurs. Ils peuvent mesurer un certain débit qu’on note �� pour � ∈ [1, �]. Pour chacun de ces capteurs, nous nous devons de connaître la proportion ���� de véhicules qui vont de la zone i à la zone j en passant
par le capteur a. La relation qu’on peut alors établir est :
�� = � �����,�
∗ ��
C’est cette formule qu’il faut bien comprendre, parce c’est elle qui va permettre d’affiner au maximum notre modèle. Il s’agit juste de dire que le débit de véhicules sur un arc a est égal à la somme sur toutes les origines et destinations possibles des véhicules qui vont d’une zone i à une zone j et qui passent par l’arc a.
8
Ces contraintes sont faciles à exprimer une fois qu’on a les m matrices des � �� , qui ne
sont néanmoins pas évidentes à obtenir. On peut essayer plusieurs méthodes, comme par exemple considérer nulle la proportion de véhicules allant de i à j si l’arc a n’est pas sur le plus court chemin entre les zones i et j. On peut aussi utiliser un logiciel d’affectation. Pour finir, il est possible de faire une affectation à dires d’expert, ce que nous ferons par la suite. Dans ce cas, il est essentiel de garder une cohérence dans les � �� et c’est là que se situe la
grande difficulté.
Nous connaissons donc plus ou moins précisément m équations, quand il nous en
faudrait �2, ce qui donne lieu à de nombreuses possibilités.
Enfin, nous avons besoin d’une matrice, qu’on appellera matrice a priori, qui donne une première estimation des �� à un instant passé. On peut obtenir cette matrice de deux
façons : soit par un modèle simple de type gravitaire, soit en récupérant d’une ancienne matrice. On notera (� �) cette matrice.
2.3 Construction de la matrice a priori
2.3.1 Le modèle gravitaire
Le modèle gravitaire fonctionne bien pour les VP En effet, on pénalise des
déplacements en fonction de la distance, par exemple en �
�² . Ce modèle ne semble pas
approprié pour les poids lourds. En effet, si l’entreprise de fret est payée pour faire un certain trajet, elle le fera qu’il soit long ou court. Bien sûr, il peut y avoir une préférence pour les trajets courts (ou long d’ailleurs) et c’est pour cela qu’on ne veut pas écarter la distance de notre modèle. Néanmoins, l’importance accordée à la distance dans le modèle gravitaire est trop grande. Il s’agira d’utiliser la formule :
� = � �! ��
Avec :
� : ���##�$% !& '���$%# (�) *� +$%& � �: ,���$%# -.� #$%� ����)é# (�) *� +$%& �
�: ,���$%# -.� 0$%� !& *� +$%& � à *� +$%& � ! � ∶ !�#��%'& &%�)& *� +$%& � &� �
� ∶ (�)��è�)& à &#���&)
2.3.1.1 Avantages
On voit à quel point ce modèle est simple. A partir du moment où l’on dispose des émissions et des attractions de chaque zone considérée, il n’y a pas d’algorithmes, juste un calcul direct. C’est donc un modèle simple à implémenter.
9
2.3.1.2 Défauts
La distance ne semble pas, a priori, le critère le plus pertinent dans le milieu du transport de marchandises. De plus, le travail de recensement de données pour calculer � &� � est assez important.
2.3.2 Anciennes Matrices
Deux matrices ont été fournies par la DRIEA. La première date d’une quinzaine d’années et a été construite de manière simple et la DRIEA n’y accorde qu’une confiance très relative.
La deuxième est beaucoup plus récente. Livrée il y a plus ou moins 1 an à la DRIEA par les créateurs du logiciel FRETURB, c’est une actualisation de la précédente matrice. Pour comparaison, voici une agrégation de chacune des matrices dans le découpage départemental.
A l’origine, les 2 matrices fournies par la DRIEA sont en UVP/jour. Nous avons divisé par 2.5 pour convertir en PL. Le fichier qui contient ces matrices s’appelle « MatricesDRIEA.xlsx ».
2.3.2.1 Matrice DRIEA 2005
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Total
1 239 951 1409 274 1498 508 283 70 289 199 268 595 1027 415 235 141 330 8731
2 889 328 879 387 542 89 85 78 641 347 211 206 308 69 52 72 179 5363
3 1042 1118 1771 782 521 103 59 74 313 502 1926 308 733 241 159 395 185 10232
4 252 312 986 176 638 61 6 7 100 80 225 259 297 107 20 7 114 3646
5 1461 407 220 232 2554 1529 325 28 217 67 224 431 2027 1266 423 141 167 11720
6 640 73 152 117 1201 2773 316 15 62 36 393 540 798 1013 395 119 246 8890
7 286 123 41 15 262 323 1636 54 74 12 63 36 227 193 667 22 155 4190
8 49 59 71 6 43 17 123 0 125 55 6 18 20 83 106 7 100 887
9 387 658 204 207 357 251 92 195 1750 406 269 372 476 641 273 234 468 7241
10 151 554 480 73 117 28 18 231 440 1521 985 68 123 92 239 68 838 6027
11 153 361 1684 202 108 193 40 22 247 718 2518 768 430 377 156 241 256 8471
12 622 356 561 330 612 309 41 14 328 175 922 4174 679 812 666 860 395 11857
13 968 391 651 131 1259 654 73 13 298 137 391 500 4199 3198 374 272 382 13891
14 372 169 275 163 1228 920 349 30 229 95 288 1032 2098 7164 1646 377 278 16713
15 223 110 164 15 366 487 393 25 255 96 135 435 839 1846 1112 528 298 7328
16 116 32 98 5 192 132 11 25 269 85 81 484 498 585 1535 2755 1327 8231
17 329 129 130 64 162 184 111 63 306 808 195 281 273 392 417 1191 2331 7365
Total 8181 6130 9776 3178 11661 8561 3961 944 5943 5340 9101 10505 15051 18497 8474 7432 8050 140783
10
2.3.2.2 Matrice Freturb 2013
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Total
1 36273 2546 2801 2951 2413 1786 2369 1572 4537 1005 1127 2387 1983 2222 1799 1640 2923 72335
2 2546 1510 1109 529 319 357 227 154 1134 605 338 388 167 580 475 317 650 11404
3 2801 1109 2306 1314 545 328 186 200 544 548 1081 893 204 568 515 354 630 14128
4 2951 529 1314 2211 936 445 176 228 545 192 404 1407 384 516 380 268 502 13387
5 2413 319 545 936 2756 1067 525 284 437 213 324 1061 808 945 472 398 622 14124
6 1786 357 328 445 1067 2134 482 153 388 202 188 248 284 1109 715 239 291 10415
7 2369 227 186 176 525 482 458 361 606 110 103 150 109 329 480 330 317 7319
8 1572 154 200 228 284 153 361 621 1306 82 114 214 72 219 345 579 561 7066
9 4537 1134 544 545 437 388 606 1306 2937 420 309 570 246 736 596 968 1280 17558
10 1005 605 548 192 213 202 110 82 420 1033 642 121 18 173 106 147 815 6432
11 1127 338 1081 404 324 188 103 114 309 642 1038 705 61 228 142 127 361 7292
12 2387 388 893 1407 1061 248 150 214 570 121 705 4906 894 292 111 119 248 14715
13 1983 167 204 384 808 284 109 72 246 18 61 894 4807 2287 155 42 47 12566
14 2222 580 568 516 945 1109 329 219 736 173 228 292 2287 6141 1919 294 345 18903
15 1799 475 515 380 472 715 480 345 596 106 142 111 155 1919 5547 1936 513 16208
16 1640 317 354 268 398 239 330 579 968 147 127 119 42 294 1936 3516 2040 13316
17 2923 650 630 502 622 291 317 561 1280 815 361 248 47 345 513 2040 6974 19120
Total 72335 11404 14128 13387 14124 10415 7319 7066 17558 6432 7292 14715 12566 18903 16208 13316 19120 276289
2.3.2.3 Comparaisons
En erreur absolue :
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Total
1 36034 1596 1392 2677 915 1279 2085 1502 4248 806 859 1792 955 1807 1565 1499 2593 63604
2 1657 1182 230 142 -223 268 142 76 493 257 127 182 -141 511 423 245 470 6041
3 1759 -9 535 532 24 226 127 127 231 46 -845 586 -529 327 356 -40 445 3896
4 2700 217 327 2035 298 384 170 221 445 112 179 1148 87 410 360 261 388 9741
5 951 -88 325 704 202 -462 201 256 219 145 99 631
-
1219 -321 49 257 455 2404
6 1146 283 176 328 -133 -639 166 138 326 166 -205 -293 -514 95 320 120 45 1525
7 2082 105 145 161 263 159
-
1178 307 533 98 40 115 -118 136 -187 308 162 3130
8 1523 96 130 222 241 136 238 621 1181 27 109 196 52 135 240 573 461 6179
9 4150 475 340 338 80 137 514 1111 1187 13 40 198 -230 94 322 734 812 10317
10 854 50 68 120 95 174 92 -149 -21 -487 -343 53 -104 81 -133 79 -24 405
11 974 -23 -603 203 216 -4 63 93 62 -76
-
1481 -63 -369 -148 -13 -114 105 -1179
12 1765 32 332 1077 449 -62 109 200 242 -54 -217 732 215 -520 -555 -741 -147 2858
13 1014 -224 -447 253 -452 -370 37 59 -52 -118 -330 394 609 -912 -219 -230 -335 -1325
14 1850 411 293 353 -283 189 -20 189 506 78 -59 -740 188
-
1023 273 -83 67 2190
15 1576 365 351 365 106 228 87 320 341 11 7 -324 -684 73 4435 1408 216 8880
16 1524 285 256 262 206 106 319 554 699 63 46 -364 -456 -291 401 761 714 5085
17 2594 521 501 438 460 107 206 498 974 6 166 -33 -226 -47 97 849 4643 11755
Total 64154 5274 4352 10210 2464 1854 3358 6122 11616 1093
-
1809 4210
-
2484 406 7734 5884 11070 135506
11
Et en erreur relative :
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Total
1 99% 63% 50% 91% 38% 72% 88% 96% 94% 80% 76% 75% 48% 81% 87% 91% 89% 13
2 65% 78% 21% 27%
-
70% 75% 63% 49% 43% 43% 38% 47% -85% 88% 89% 77% 72% 7
3 63% -1% 23% 41% 4% 69% 68% 63% 43% 8% -78% 66% -260% 58% 69% -11% 71% 3
4 91% 41% 25% 92% 32% 86% 97% 97% 82% 58% 44% 82% 23% 79% 95% 97% 77% 12
5 39% -28% 60% 75% 7% -43% 38% 90% 50% 68% 31% 59% -151% -34% 10% 65% 73% 4
6 64% 79% 54% 74%
-
12% -30% 34% 90% 84% 82%
-
109%
-
118% -181% 9% 45% 50% 16% 2
7 88% 46% 78% 92% 50% 33%
-
257% 85% 88% 89% 39% 76% -107% 41% -39% 93% 51% 5
8 97% 62% 65% 97% 85% 89% 66% 100% 90% 33% 95% 92% 73% 62% 69% 99% 82% 14
9 91% 42% 62% 62% 18% 35% 85% 85% 40% 3% 13% 35% -93% 13% 54% 76% 63% 7
10 85% 8% 12% 62% 45% 86% 83%
-
181% -5% -47% -53% 44% -563% 47%
-
125% 54% -3% -5
11 86% -7% -56% 50% 67% -2% 61% 81% 20% -12%
-
143% -9% -606% -65% -9% -90% 29% -6
12 74% 8% 37% 77% 42% -25% 72% 93% 42% -44% -31% 15% 24%
-
178%
-
501%
-
620% -59% -10
13 51%
-
135%
-
219% 66%
-
56%
-
130% 34% 82%
-
21%
-
641%
-
542% 44% 13% -40%
-
142%
-
550%
-
710% -29
14 83% 71% 52% 68%
-
30% 17% -6% 86% 69% 45% -26%
-
254% 8% -17% 14% -28% 19% 2
15 88% 77% 68% 96% 22% 32% 18% 93% 57% 10% 5%
-
292% -442% 4% 80% 73% 42% 0
16 93% 90% 72% 98% 52% 45% 97% 96% 72% 43% 36%
-
305%
-
1089% -99% 21% 22% 35% -6
17 89% 80% 79% 87% 74% 37% 65% 89% 76% 1% 46% -13% -478% -14% 19% 42% 67% 3
Total 13 6 5 13 4 4 7 12 9 -2 -6 -4 -39 0 -2 -5 0 18
En observant ces tableaux, on voit que la Matrice Freturb présente globalement un nombre de PL beaucoup plus important. On ne peut donc pas faire des tests avec ces deux matrices qui sont beaucoup trop différentes. Nous choisissons de garder la matrice Freturb 2013 car elle est plus récente.
12
3 Mise en œuvre du modèle gravitaire
3.1 Le Zonage
Le zonage comporte 27 zones : 17 zones internes et 10 externes, pour prendre en compte les échanges, Paris constituant la zone 1.
3.2 Le réseau routier
Nous prenons en compte uniquement le réseau de voies rapides 2010. Voici les caractéristiques :
• Il comporte 139 arcs bidirectionnels et 114 nœuds. • Il comporte 17 centroïdes internes positionnés aux barycentres surfaciques et 10
centroïdes externes • Il est construit sur Arcgis
• La longueur des arcs est calculée automatiquement par Arcgis
Voici la carte obtenue, avec les zones et le réseau routier, on distingue
13
3.3 La Matrice des Distances
La Distance entre 2 zones est la distance la plus courte sur le réseau. Elle est calculée sur le logiciel de modélisation de trafic appelé Minitp. Voici un extrait de la matrice qui regroupe la distance entre les différentes zones de la zone 1 à la zone 10. On retrouvera cette matrice dans le document «Dist2727.xlsx ».
3.4 Emissions et Attractions
Nous nous inspirons de la méthode Freturb (LET).
3.4.1 Classement des entreprises
Les émissions/attractions des PL sont fonction de l’activité économique qui dépend à son tour du secteur d’activité des entreprises et de leur effectif. Nous avons utilisé la base Altares, qui regroupe l’ensemble des entreprises d’Ile de France.
Un travail fastidieux sur la base Altares a été effectué avec l’aide d’Adrien Béziat (thésard à l’IFSTAR et à l’IAU). Les entreprises sont classées grâce à leur code NAF. Nous avons trouvé une table de correspondance entre les activités considérées par Freturb et le code NAF, ce qui a permis de faire un classement. Par exemple, j’ai pu traiter les entreprises qui ne généraient pas de flux de PL.
Dans un souci de reproductibilité, je précise qu’il a été décidé qu’on utiliserait la catégorie juridique pour ce faire, en éliminant les catégories 1400, 1500, 1700, 1900, 2110/2120, 9150/9210/9220/9221/9222/9223/9224/9230/9240/9260, 9300.
Ensuite, les entreprises ont été classées par effectif et par zone. Le classement par effectif se fait directement à partir de la base de données. Le classement par zone s’appuie sur un fichier de correspondance entre un code INSEE et la zone où se situe la commune concernée.
3.4.1.1 Le classement en zones
C’est la première partie du travail : séparer cette immense base de données en plusieurs sous-parties, qui correspondent aux bases de données pour chacune des 17 zones. Pour ce faire, j’ai d’abord suivi le découpage en département adopté par Altares et j’ai élagué un bon nombre de lignes et de colonnes inutiles.
Distances 1 2 3 4 5 6 7 8 9 10
1 0 7626 15164 12347 14785 10469 9204 11145 8247 23727
2 7626 0 10321 14154 19704 17862 16383 15813 8531 16233
3 15164 10321 0 11609 19524 22644 24250 25531 18838 17412
4 12347 14154 11609 0 8001 13885 18707 23125 19997 27817
5 14785 19704 19524 8001 0 9851 16999 23253 23016 34901
6 10469 17862 22644 13885 9851 0 7663 14640 17237 34089
7 9204 16383 24250 18707 16999 7663 0 7183 12197 31677
8 11145 15813 25531 23125 23253 14640 7183 0 8402 28646
9 8247 8531 18838 19997 23016 17237 12197 8402 0 20307
10 23727 16233 17412 27817 34901 34089 31677 28646 20307 0
14
J’ai ainsi créé à partir d’Altares 1 fichier par département, fichiers qui étaient désormais exploitables. Ensuite, j’ai exploré un par un ces fichiers, et en utilisant une correspondance entre le code INSEE d’une commune et la zone dans laquelle elle se trouve, j’ai classé chacune des communes dans une des 17 zones. Un fichier a été créé pour chaque zone, de manière à rendre les tableaux plus intelligibles.
3.4.1.2 Le classement par activité
Le modèle Freturb distingue les entreprises par leur activité. Il existe plusieurs niveaux de précisions, qui s’échelonnent entre 8 et 100 activités différentes. Nous avons choisi un découpage simple pour notre premier test et nous avons pris celui en 8 activités, « STD8 ».
Adrien Béziat m’a été d’un grand secours à cette étape, en me fournissant une correspondance partielle mais assez complète entre le code NAF d’une entreprise, et son type d’activité au sens de FRETURB. On le retrouvera dans le document « CorrespondanceNAF.xlsx » Il s’agissait donc pour chacun des 17 fichiers précédemment crées de classer les entreprises par type d’activité.
A la fin du classement, il restait des entreprises à qui on n’avait pas attribué de type d’activité puisque le tableau des correspondances n’était pas complet. Il était donc nécessaire de remplir au fur et à mesure ce tableau.
On retrouve ci-dessous les 8 activités :
ST8 Libelle
1 Agriculture/Elevage/Pêche
2 Artisanat/Service
3 Industrie
4 Commerce de Gros
5 Grande Distribution
6 Petits Commerces
7 Tertiaire de Bureaux
8 Transport/Entreposage
15
Et ci-dessous un aperçu des correspondances :
Voici le tableau qui montre le nombre d’employés par zone et par secteur activité. On le retrouvera dans le document « Repartition.xlsx ».
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Par
activité
1 895 134 143 364 567 89 62 70 283 585 296 1467 1371 1392 990 1729 1311 11748
2 117647 19502 27363 22911 24324 13497 14355 16483 50102 8449 9431 32193 18145 27790 29540 16393 28480 476605
3 3163 15935 18907 14151 15925 11121 11858 28133 43770 4849 7942 20464 19816 29758 58010 33067 35068 371937
4 26507 12308 11586 8878 11608 13509 7396 6483 23167 2851 8191 12528 6240 14561 20239 8190 12256 206498
5 5863 2004 3740 5536 5487 2551 2078 1492 4162 2762 1339 5405 4613 8386 6011 5469 7421 74319
6 130934 10907 16108 18633 15625 10527 10254 9812 25250 7989 13323 17879 15246 23238 19744 22567 22930 390966
7 623151 46234 69215 63401 81751 61818 61130 65830 195029 17400 58923 36470 40659 64114 75252 51251 57521 1669149
8 628 4227 4949 387 6198 1540 1402 801 2939 1302 4466 3476 4079 4283 2369 3067 3153 49266
Par
zone 908788 111251 152011 134261 161485 114652 108535 129104 344702 46187 103911 129882 110169 173522 212155 141733 168140 3250488
3.4.1.3 Les taux de génération
Nous avons besoin d’un taux de génération par emploi et part type d’activité (émissions et attractions) selon les différents critères (effectif et type d’activité). Ces taux sont donnés par l’enquête TMV en Ile-de-France, qui tire des informations à partir de l’étude de 1200 entreprises dans la région. L’enquête a pris du retard, son exploitation n’est pas terminée.
Nous avons donc utilisé par défaut les résultats d’une autre enquête Freturb : celle pour la ville de Dijon. Les taux de génération sur Dijon sont donnés par type d’activité et par localisation spatiale en trois couronnes mais pas par tranche d’effectif. Nous avons considéré que ces taux hebdomadaires étaient uniformes sur l’ensemble de la région. Nous trouvons le tableau suivant dans le document Vers un Modèle Global de la Simulation de la Logistique Urbaine : Freturb, Version 2 (LET)
1052z Fabrication de glaces et sorbets 3
1061a Meunerie 3
1061b Autres activités du travail des grains 3
1071a Fabrication industrielle de pain et de pâtisserie fraîche 3
1071b Cuisson de produits de boulangerie 3
1071c Boulangerie et boulangerie-pâtisserie 6
1071d Pâtisserie 6
1072z Fabrication de biscuits, biscottes et pâtisseries de conservation 3
1073z Fabrication de pâtes alimentaires 3
1082z Fabrication de cacao, chocolat et de produits de confiserie 3
1083z Transformation du thé et du café 3
16
3.4.1.4 Le pourcentage émissions/attractions
Les taux donnés par Freturb dans la table précédente comprennent à la fois les attractions et les émissions de camions. La répartition entre émissions et attractions est susceptible de changer en fonction du type d’activité. C’est ce que nous constatons sur la table suivante, qui provient du même document que le tableau précédent :
3.4.1.5 Le pourcentage de poids lourds par activité
Les enquêtes de type TMV incluent les livraisons faites par des véhicules de moins de 3,5 tonnes. Nous avons choisi de prendre le chiffre moyen de 35% de PL de plus de 3.5 tonnes pour toutes les activités. Ce chiffre nous a été donné sans plus de précisions par Jésus Gonzalez-Feliu, chercheur spécialiste en modélisation de fret au LET.
17
3.4.1.6 Les émissions et attractions
A partir de toutes les données précédentes, l’on peut dorénavant donner les émissions et attractions pour chaque zone. Il a été décidé que l’on prendrait des émissions égales aux attractions plutôt que d’utiliser les données du tableau de 3.4.1.4 car nous prenons en compte les PL à vide. Evidemment, à partir des chiffres précédents et des données sur Dijon présentées en 3.4.1.4, il est possible de construire un nouveau modèle. Je laisse ce soin à mon successeur. Les taux hebdomadaires ont été amenés à la journée en divisant par 6.
Voici notre tableau, qu’on trouvera dans le fichier « Attractions.xlsx » :
Zone 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
Ei=Aj 33888 6892 8516 6510 8802 5959 5057 5906 15363 2708 5865 8260 6639 10310 12217 8379 9836
3.5 Application du modèle gravitaire
Pour estimer le paramètre a, nous avons pris en compte la matrice TRM des OD en tonnes entre les différents départements d’Ile de France. En effet, en prenant Paris comme origine qui correspond à notre zone 1, nous avons pu constater que la part des poids lourds qui
avaient pour destination Paris était de 27%. En partant d’une fonction du type 45! �6 =! �7� et en s’arrangeant pour tomber sur cette valeur de 27%, nous avons obtenu a=2. Ce calcul
peut être retrouvé dans la feuille « Denombrements.xslx » dans la feuille calcul de a.
Avec toutes ces données, nous pouvons enfin appliquer le modèle gravitaire sur les 17 zones internes. Nous avons en effet réuni les données nécessaires :
• Les émissions de chaque zone � • Les attractions de chaque zone �
• La matrice des distances entre les zones ! �
• a=2
Nous obtenons la matrice suivante, que nous trouverons aussi dans le fichier. Ce n’est qu’une matrice intermédiaire, qui ne servira pas plus tard, nous n’avons donc pas besoin d’un fichier particulier pour la stocker.
18
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
1 0,00 2,87 0,90 1,03 0,97 1,32 1,44 1,15 5,47 0,12 0,14 0,09 0,06 0,13 0,19 0,13 0,20
2 2,87 0,00 0,39 0,16 0,11 0,09 0,09 0,12 1,04 0,05 0,04 0,02 0,01 0,02 0,03 0,02 0,05
3 0,90 0,39 0,00 0,29 0,14 0,07 0,05 0,06 0,26 0,05 0,12 0,03 0,01 0,02 0,02 0,02 0,04
4 1,03 0,16 0,29 0,00 0,64 0,14 0,07 0,05 0,18 0,02 0,04 0,03 0,02 0,03 0,03 0,01 0,02
5 0,97 0,11 0,14 0,64 0,00 0,39 0,11 0,07 0,18 0,01 0,04 0,03 0,03 0,05 0,04 0,02 0,03
6 1,32 0,09 0,07 0,14 0,39 0,00 0,37 0,12 0,22 0,01 0,02 0,02 0,01 0,04 0,05 0,02 0,02
7 1,44 0,09 0,05 0,07 0,11 0,37 0,00 0,41 0,37 0,01 0,01 0,01 0,01 0,03 0,05 0,03 0,03
8 1,15 0,12 0,06 0,05 0,07 0,12 0,41 0,00 0,92 0,01 0,01 0,01 0,01 0,02 0,05 0,04 0,05
9 5,47 1,04 0,26 0,18 0,18 0,22 0,37 0,92 0,00 0,07 0,05 0,03 0,02 0,05 0,08 0,08 0,16
10 0,12 0,05 0,05 0,02 0,01 0,01 0,01 0,01 0,07 0,00 0,02 0,01 0,00 0,00 0,01 0,01 0,02
11 0,14 0,04 0,12 0,04 0,04 0,02 0,01 0,01 0,05 0,02 0,00 0,04 0,01 0,01 0,01 0,01 0,01
12 0,09 0,02 0,03 0,03 0,03 0,02 0,01 0,01 0,03 0,01 0,04 0,00 0,03 0,02 0,01 0,01 0,01
13 0,06 0,01 0,01 0,02 0,03 0,01 0,01 0,01 0,02 0,00 0,01 0,03 0,00 0,04 0,01 0,01 0,01
14 0,13 0,02 0,02 0,03 0,05 0,04 0,03 0,02 0,05 0,00 0,01 0,02 0,04 0,00 0,09 0,02 0,01
15 0,19 0,03 0,02 0,03 0,04 0,05 0,05 0,05 0,08 0,01 0,01 0,01 0,01 0,09 0,00 0,06 0,03
16 0,13 0,02 0,02 0,01 0,02 0,02 0,03 0,04 0,08 0,01 0,01 0,01 0,01 0,02 0,06 0,00 0,10
17 0,20 0,05 0,04 0,02 0,03 0,02 0,03 0,05 0,16 0,02 0,01 0,01 0,01 0,01 0,03 0,10 0,00
Il reste une contrainte à satisfaire : il faut que la somme des colonnes donne les émissions et la somme des lignes les attractions. Pour satisfaire à cette contrainte, j’ai développé sur Excel un algorithme en VBA. Il agit comme tel : tant que l’erreur entre les attractions produites par la matrice et les attractions vraies et entre les émissions produites par la matrice et les vraies émissions est supérieure à 5%, l’algorithme corrige les cases de la matrice.
C’est l’algorithme de Furness, qui procède comme suit. Nous écrivons que :
� = � �8 9�! �7:
Dans cette équation, 8 est le facteur correctif pour les lignes et 9� le facteur correctif
pour les colonnes, qui vont permettre de satisfaire la contrainte d’égalité mentionnée précédemment.
A partir de là, nous devons évidemment avoir :
� ��
= � = � ∗ 8 ∗ 9� ∗ � � ∗�
! �7:
19
D’où les valeurs pour les 8 :
8 = 1∑ � ∗ 9� ∗ ! �7:�
En procédant de même pour les 9�, nous obtenons directement
9� = 1∑ � ∗ ∗ ! �7:
L’algorithme prend comme point de départ 9� = 1 ∀ � , lance le calcul des 8 puis utilise ces
nouvelles valeurs pour calculer les 9� et ainsi de suite. On a donc un algorithme itératif avec
deux quantités interdépendantes.
L’algorithme se termine lorsque les valeurs des 8 et des 9� permettent d’avoir une
erreur de moins de 5% sur les contraintes mentionnées précédemment.
L’algorithme a été programmé dans la feuille Sheet4(Algorithme) du classeur « Denombrement.xslx » dans la macro tableau.
Nous obtenons la matrice suivante, que nous retrouverons dans le fichier « ResultatModeleGravitaire1717.xlsx »
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Total
1 19505 1795 987 905 897 1069 1054 912 3216 285 359 359 297 491 635 413 584 33766
2 1800 1748 569 215 165 129 119 151 910 163 143 112 78 113 145 114 200 6873
3 996 572 3291 536 298 154 108 119 421 258 555 289 155 184 196 139 237 8510
4 912 216 536 2119 878 228 109 91 246 75 195 202 143 176 162 90 125 6504
5 905 166 299 880 3847 551 173 121 261 69 170 245 240 336 266 122 148 8798
6 1077 130 153 228 550 1815 442 176 282 47 83 111 119 238 260 113 126 5951
7 1060 119 108 109 172 442 1269 468 402 42 58 71 73 155 242 125 134 5048
8 917 151 119 91 121 176 468 1820 907 60 65 74 70 143 273 207 234 5895
9 3223 909 419 245 259 281 401 904 6407 228 185 176 143 244 385 341 570 15319
10 289 164 258 75 69 48 43 61 230 585 171 103 60 79 103 103 267 2708
11 365 145 559 197 171 84 58 66 187 172 2394 641 190 174 165 115 193 5877
12 368 114 294 206 248 112 72 75 180 104 645 4155 719 378 271 150 205 8297
13 305 79 158 145 243 121 74 72 146 61 192 720 2665 988 384 151 166 6671
14 502 116 187 179 341 242 157 146 249 80 175 378 987 4532 1489 320 278 10357
15 650 148 199 164 269 264 246 278 392 104 166 271 384 1486 5749 965 530 12266
16 422 116 140 91 123 115 127 210 347 104 116 150 151 319 963 3654 1261 8407
17 594 203 239 126 149 127 136 237 579 269 193 203 164 276 528 1257 4577 9859
Total 33888 6892 8516 6510 8802 5959 5057 5906 15363 2708 5865 8260 6639 10310 12217 8379 9836 161107
20
Dans la feuille Algorithme, qui contient toutes les données nécessaires à son fonctionnement, nous avons un bouton « lancer l’algorithme de Furness ». En cliquant dessus, l’algorithme se lance et remplit directement le tableau qui se situe en haut de page.
3.6 Finalisation
Il reste à reconstituer les échanges entre les 17 zones internes de la région Ile-de-France et les 10 zones externes.
Cette reconstruction a été possible en utilisant une table qui nous a été transmise par la DRIEA. Dans cette table, nous disposions du nombre de tonnes qui circulaient par an entre les différentes régions et l’ile de France. Détaillons la procédure.
3.6.1 Première étape
La première étape consiste à transformer les régions extérieures en zones externes. Plus précisément, il s’agit d’identifier le pourcentage de poids lourds qui viennent d’une région donnée et qui arrivent en ile de France et qui passent par une des zones externes.
Par exemple, prenons la région Provence Alpes Côte d’Azur. Il est manifeste en regardant une carte, que la majorité du trafic entre cette région et l’IDF passe par l’A6 et une faible partie par l’A5. Pour cette raison, étant donné que l’A6 correspond dans notre découpage à la zone 22, nous avons estimé que 90% du trafic passerait par la zone 22, et le reste par l’A5 donc la zone 21.
Ce n’est certes pas une méthode très précise mais je n’avais pas à ma disposition de données plus précises.
3.6.2 Deuxième étape
Une fois cette distribution faite, il faut sommer l’ensemble des entrées ou sorties pour chaque zone externe. Ainsi, nous obtenons les émissions et les attractions de chaque zone externe. C’est ce qui va nous permettre de distribuer le trafic dans les zones internes.
A l’issue de la première et de la deuxième étape, nous avons le tableau suivant qui montre les pourcentages évoqués précédemment. On trouvera ce tableau dans le classeur « RépartitionTraficZonesExternes.xslx »
21
18 19 20 21 22 23 24 25 26 27
Alsace 0 0 50 30 20 0 0 0 0 0
Aquitaine 0 0 0 0 0 100 0 0 0 0
Auvergne 0 0 0 0 10 90 0 0 0 0
Basse-Normandie 0 0 0 0 0 0 20 80 0 0
Bourgogne 0 0 0 20 80 0 0 0 0 0
Bretagne 0 0 0 0 0 80 20 0 0 0
Centre 0 0 0 0 20 80 0 0 0 0
Champagne-Ardennes 0 0 60 40 0 0 0 0 0 0
Franche-Comté 0 0 0 40 60 0 0 0 0 0
Haute-Normandie 0 0 0 0 0 0 0 80 20 0
Languedoc-Roussillon 0 0 0 0 50 50 0 0 0 0
Limousin 0 0 0 0 0 100 0 0 0 0
Lorraine 0 0 80 20 0 0 0 0 0 0
Midi-Pyrénées 0 0 0 0 0 100 0 0 0 0
Nord-Pas-de-Clais 80 10 0 0 0 0 0 0 0 10
Pays de la Loire 0 0 0 0 0 100 0 0 0 0
Picardie 40 10 10 0 0 0 0 0 0 40
Poitou-Charentes 0 0 0 0 0 100 0 0 0 0
PAC 0 0 0 10 90 0 0 0 0 0
Rhône-Alpes 0 0 0 0 80 20 0 0 0 0
3.6.3 Troisième étape
Nous travaillons avec un découpage en 17 zones qui n’est pas exactement compatible avec le découpage départemental. Il a donc fallu faire une correspondance entre les départements et notre zonage. Nous avons retenu la correspondance suivante :
• 75 ↔ 1
• 93 ↔ 2+3+4 • 94 ↔ 5+6 • 92 ↔ 7+8+9
• 77 ↔ 11+12+13 • 91 ↔ 14
• 78 ↔ 15+16 • 95 ↔ 17+10
3.6.4 Quatrième étape
Une fois cette association faite, s’est posée la question de savoir comment il fallait attribuer le trafic dans ces zones. Par exemple, on voit que la Seine et Marne (77) est formé par les zones 11 12 et 13. Faut-il considérer que chacune de ces zones va attirer ou émettre un tiers des émissions/attractions du département 77 ?
22
Nous avons constaté que certaines zones paraissaient plus actives que d’autres. Ainsi, en comparant les émissions et les attractions de chaque zone, nous avons fait des pourcentages pour savoir qui de 11, de 12 ou de 13 attirait ou émettait le plus de poids-lourds. Nous avons donc créé le tableau suivant dans le fichier « Repartition17ZonesDepartements.xlsx »
75 93 94 92 77 91 78 95
1 100 0 0 0 0 0 0 0
2 0 31 0 0 0 0 0 0
3 0 39 0 0 0 0 0 0
4 0 30 0 0 0 0 0 0
5 0 0 60 0 0 0 0 0
6 0 0 40 0 0 0 0 0
7 0 0 0 19 0 0 0 0
8 0 0 0 23 0 0 0 0
9 0 0 0 58 0 0 0 0
10 0 0 0 0 0 0 0 22
11 0 0 0 0 28 0 0 0
12 0 0 0 0 40 0 0 0
13 0 0 0 0 32 0 0 0
14 0 0 0 0 0 100 0 0
15 0 0 0 0 0 0 59 0
16 0 0 0 0 0 0 41 0
17 0 0 0 0 0 0 0 78
3.7 Résultat final du modèle gravitaire
C’est la matrice IAU a priori, qu’on trouve dans le fichier « MatriceAPrioriFinale.xslx »
3.8 Comparaison entre la matrice IAU a priori et la matrice Freturb
J’utilise toujours ici le code couleur habituel que j’ai utilisé tout au long de ce rapport : le rouge signifie un écart positif important. Nous comparons seulement les flux internes (matrice
23
17*17). Rappelons que les totaux sont différents. Pour la matrice IAU a priori, nous avons un total de 161107 et pour la matrice Freturb, un total de 276289.
On voit donc clairement que les deux matrices sont totalement différentes, avec une matrice Freturb qui a un total beaucoup plus élevé de poids-lourds. Nous pouvons aussi voir la différence relative entre les deux matrices.
24
4 Méthodes d’optimisation
Nous allons ici exposer les 4 méthodes.
4.1 La maximisation de l’entropie/ minimisation de l’information
Cette méthode repose sur une assertion simple : nous n’avons finalement pas beaucoup d’information sur l’état microscopique de notre système constitué d’arcs et de nœuds. Nous savons juste accéder à l’état global, appelé macroscopique, de notre système, en ayant quelques informations macroscopiques sur les débits sur certains tronçons par exemple. A partir de ce constat, on peut se demander combien de combinaisons d’états microscopiques ont pu entraîner notre état macroscopique, et maximiser ce nombre. C’est cette étape qui est délicate, et qui est en fait du dénombrement. On obtient en notant W ce nombre
=5> �?6 = !∏ �! ,�
Avec = ∑ � ,�
Maximiser de si grands nombres est déjà difficile, mais en plus on a des produits, ce qui est couteux à maximiser. On prend alors le logarithme L de cette expression. On obtient :
B = log(!) − � log ( �!) �
On n’a pas résolu la présence des factoriels, qui ne sont pas désirables dans notre problème. Nous allons utiliser l’approximation de Stirling qui dit que pour N grand, nous avons :
�! = exp(−�) ∗ �� ∗ √2 ∗ �� ∗ �
D’où :
log(�!) = �*$K(�) − � + 12 ∗ log (2 ∗ �� ∗ �)
Le dernier terme est négligeable devant les deux autres et on écrit donc juste, généralement :
log(�!) = �*$K(�) − �
Ceci donne pour notre expression de L :
B = *$K() − − � � log5 �6 − � ,�
= *$K() − � � log5 �6 ,�
Ici, nous n’avons pris aucune mesure pour implémenter une matrice a priori en comparaison.
Si on introduit la matrice a priori 5� �6, on obtient :
B = *$K M� N − � � log O �� � P
,�
25
En pratique, nous minimiserons plutôt –L
4.1.1 Avantages
On a la possibilité de considérer le trafic routier comme étant constant lors de la mise à jour de la matrice a priori, ou de considérer qu’une modification engendrée par un comptage se propage à l’ensemble du réseau routier. Par ailleurs, c’est une méthode très étudiée, avec de nombreuses variantes.
4.1.2 Inconvénients
Cette méthode ne prend pas en compte les erreurs de mesure sur la matrice a priori et sur les comptages, ce qui peut fausser les données en sortie. De plus, une incompatibilité des contraintes peut entraîner de très longs calculs et fausser les résultats.
4.2 Le maximum de vraisemblance
C’est la méthode qui est utilisée par le logiciel MVESTM qui date du début des années 2000 et qui n’est plus commercialisé aujourd’hui. Le principe est celui-ci : on considère que les � �
sont des tirages possibles d’une certaine variable aléatoire Q �. On note R �le coefficient
d’échantillonnage des usagers du chemin (��). Le logiciel MVESTM apparente ces coefficients à des taux de fiabilité des mesures, ce qui semble en effet cohérent car plus l’échantillonnage est grand, plus la mesure est fiable. Avec ces notations, on considère que Q � suit une loi de Poisson de paramètre R � �.
( � = �5Q � = � �6 = (R � �)STU ∗ exp (R � �)� �!
Sachant que la quantité qui nous intéresse est
� = �(Q�� = ���, … , Q�� = ���)
on obtient en supposant chaque tirage indépendant :
� = W ( � ,�
Le but est de maximiser cette probabilité, pour que le tirage soit le plus vraisemblable possible. Maximiser P revient à minimiser log(�) on obtient comme fonction à minimiser, en retirant les termes constants :
log(�) = � −� �log ( ,�
�) + (R � �)
En ajoutant les contraintes liées aux comptages, aux enquêtes cordons, aux matrices agrégées, on obtient le modèle souhaité.
Puisque nous avons un système linéaire, et une fonction à minimiser qui est convexe, la théorie mathématique nous assure l’existence et l’unicité du minimum cherché.
26
4.2.1 Avantages
Méthode ancienne, très utilisée et bien connue. L’on peut être sûr qu’elle donne de bons résultats.
4.2.2 Inconvénients
Il faut faire des hypothèses sur la loi de θ.
4.3 Les moindres carrés
Historiquement, la méthode des moindres carrés est très utilisée dans toutes les méthodes de modélisation, aussi bien dans la régression linéaire que dans les séries chronologiques. C’est donc une méthode statistique qui va consister ici aussi à minimiser le carré de la somme des erreurs entre les � et les � � donc la fonction à minimiser est :
X = �( � − � �): ,�
Nous devons toujours ajouter les contraintes pour définir correctement le système, aussi bien les contraintes de comptages que les contraintes amenées par les enquêtes cordons ou les matrices agrégées.
4.3.1 Avantages
On trouve beaucoup de bibliographie pour cette méthode très utilisée dans tous les domaines. Il existe de nombreux ajustements qui permettent de remédier aux défauts qu’on peut trouver. Etant donné que l’on fait des différences au niveau de chaque source d’erreur (donc les mesures), on peut facilement prendre en compte beaucoup de sources d’informations. Les performances algorithmiques sont très élevées sur des petits réseaux, et peuvent être implémentées pour des calculs en temps réel.
4.3.2 Défauts
Cette méthode n’est pas très efficace lorsque le réseau devient trop grand, puisque les sources d’erreurs grandissent, ce qui cause un accroissement de l’erreur totale.
4.4 L’inférence Bayésienne
La dernière méthode est l’inférence Bayésienne qui consiste à prendre le problème dans le sens inverse du maximum de vraisemblance. C’est la méthode la plus compliquée, car elle implique des espérances conditionnelles, ce qui est toujours incommode. Globalement, elle repose sur la formule suivante, en supposant que θ est une variable aléatoire qui dépend de y :
�(Y|[) ∝ �([|Y) ∗ �(Y)
Cela signifie que le degré de confiance qu’on accorde à θ après avoir fait les observations est proportionnel au produit de la confiance qu’on accordait à θ avant l’observation (�(Y)) par la vraisemblance de l’observation y connaissant θ.
C’est une formule très puissante, utilisée dans tous les domaines scientifiques. Dans notre cas, nous obtenons donc à minimiser la fonction
27
Soit en passant au logarithme
]�% O*$K M� ^ = 5 �6_� = 5� �6`N + log 5�(0|�6P
4.4.1 Avantages
Méthode très robuste, qui s’accommode parfaitement du manque d’informations initiale et du manque de contraintes. Vieille de plusieurs dizaines d’années, elle est fiable est très connue. En particulier, elle fonctionne particulièrement bien en grande dimension.
4.4.2 Inconvénients
C’est une méthode difficile à mettre en œuvre, car elle suppose de faire des hypothèses sur les lois des observations et de manipuler des espérances conditionnelles, ce qui n’est généralement pas commode.
]�% M� ^ = 5 �6_� = 5� �6` ∗ ��0|�N
28
5 Mise en œuvre de l’optimisation
Il s’agit dans cette partie d’implémenter les différentes méthodes présentées.
5.1 Outils choisis
Il existe de nombreux outils utilisés en optimisation. Ainsi, rien n’empêchera, dans le futur, de passer sur un autre de ces outils comme MATLAB, SCILAB ou encore la version améliorée du solveur Excel. Nous avons commencé à implémenter des solutions sur Excel, qui s’est vite révélé inefficace dans notre situation au vu de sa limite de variables de 200.
Je me suis naturellement orienté vers SAS, disponible à l’IAU. J’ai choisi la procédure OPTMODEL, parfaitement adaptée pour modéliser le problème. En voici la syntaxe, assez simple :
Les premiers essais sur des matrices 6*6 ont été très concluants, et avec quelques contraintes, on s’approchait assez bien de la situation réelle. Cette dernière affirmation me conduit à détailler la procédure de test.
5.2 L’algorithme
On indique le nombre de variables, l’objectif (déterminé par la méthode d’optimisation utilisée) et les contraintes. SAS s’occupe d’effectuer le calcul numérique.
Néanmoins, pour simplifier l’utilisation de cet algorithme, de nombreux ajouts ont été faits. D’abord, il ne sert à rien de rentrer des matrices dans SAS, il suffit de les écrire dans Excel, et l’algorithme se charge de les importer. Ensuite, le résultat est directement exporté dans un fichier Excel.
Pour la matrice a priori comme pour les contraintes, les colonnes doivent être numérotées par c1, c2,…,cN et facultativement en ligne par 1,2,..,N. De plus, il ne doit y avoir aucune autre entrée que les données du tableau. Par exemple, les totaux ne doivent pas figurer.
Nous utiliserons deux programmes SAS : testFinal_Entropie.sas et testFinal_Vraissemblance.sas
29
Lecture de la matrice a priori dans SAS :
PROC IMPORT OUT= WORK.matriceapriori DATAFILE= "E:\Alexandre\Stage2014\MatriceAPrioriFinaleSAS.xls x" DBMS=EXCEL REPLACE; RANGE="Sheet1$" ; GETNAMES=YES; MIXED=NO; SCANTEXT=YES; USEDATE=YES; SCANTIME=YES; RUN;
5.3 La construction des contraintes
5.3.1 Contraintes sur les comptages
Nous avons donc maintenant la matrice a priori, qui sert, rappelons-le, de donnée d’entrée pour nos différents algorithmes d’optimisation. Il nous manque plus qu’à introduire les différentes contraintes. Mais, comme nous l’avons déjà expliqué, ce n’est pas une chose simple car on a besoin des ( �� . Plusieurs pistes peuvent être envisagées à ce stade.
D’abord, on peut procéder à la stratégie du tout ou rien : si on peut aller de i vers j par l’arc a, alors ( �� = 1, sinon ( �� = 0. Cette stratégie est assez évoquée dans la littérature.
Sinon, on peut procéder manuellement, en utilisant des données de comptage déjà disponibles, pour établir les chemins les plus probables et ceux qui le sont moins.
D’autre part, il existe des logiciels d’affectation, qui permettent, étant donné un réseau de routes et une matrice OD, d’affecter un trafic en utilisant des méthodes de plus court chemin. Il faut ensuite utiliser la fonction « Calcul d’arborescence » pour obtenir les ( �� .Cette
méthode requiert donc l’utilisation d’un logiciel de simulation, non disponible à l’IAU au moment de mon stage.
Nous avons choisi de procéder de manière empirique, en jugeant à dires d’expert les chemins que les PL sont le plus susceptibles d’emprunter pour aller d’une zone i à une zone j puis en répartissant les itinéraires en fonction des comptages disponibles. Notons que cette méthode n’est pas toujours précise, car l’appréciation de la situation peut varier.
Comment se présente une contrainte ? Il s’agira d’une matrice de taille 27*27 très creuse, puisque de nombreux axes ne seront clairement pas empruntés pour aller d’une zone à une autre, comprenant des valeurs entre 0 et 100.
Pour les autres contraintes, telles que les matrices agrégées, nous avons juste des systèmes linéaires qui sont assez simples à exprimer. Il s’agira toujours d’une matrice.
Par soucis de visibilité, pour ne pas ajouter des décimales sur Excel, nous avons décidé de mettre dans ces matrices des pourcentages et non pas des probabilités. Pour cette raison, une matrice de contrainte ressemble au tableau suivant, qui représente le comptage pour la N104 à Goussainville :
30
Les chiffres qu’on voit ici correspondent ainsi simplement à la proportion de poids-lourds qui vont de la zone i à la zone j. Par exemple, on peut voir que 52% des PL qui vont de la zone 1 à la zone 10 empruntent la N104 à proximité de Goussainville pour effectuer le trajet. Par contre, 0% des PL qui vont de la zone 2 à la zone 3 l’empruntent.
Voici les contraintes que nous utiliserons et la location et le total des comptages associés. Nous les retrouverons dans le fichier « ComptagesUtilises.xlsx »
Contraintes Total Comptage
1 4929 A15
2 2853 N104 Goussainville
3 7752 A1 Nord
4 1161 RN3
5 2295 N12
6 1828 N118
7 5245 A10
8 4108 A13
9 8000 A1 Blanc Mesnil
10 7500 A3 Aulnay
Exemple de lecture de la matrice de contrainte 1 :
PROC IMPORT OUT= WORK.contrainte1 DATAFILE= "E:\Alexandre\Stage2014\Contraintes\Contrainte1.xls x" DBMS=EXCEL REPLACE; RANGE="Feuil1$" ; GETNAMES=YES; MIXED=NO; SCANTEXT=YES; USEDATE=YES; SCANTIME=YES; RUN;
31
5.3.2 Autres Contraintes
Pendant mon stage, les données que j’ai pu trouver étaient uniquement des comptages. Mais comme nous l’avons vu dans la partie 2.1, nous aurions pu utiliser de nombreuses autres sources pour construire des contraintes, parmi lesquelles :
• Contraintes sur les franchissements de cordons : comme le périphérique (voir 5.9 dans la documentation de MVESTIM)
• Contraintes sur les franchissements de « lignes écran » comme la Seine • Contraintes sur des blocs de la matrice
• Contraintes sur les générateurs. Par exemple nous avons eu des données sur les flux générés par le port de Bonneuil
• Contrainte sur les distances
Pour ces deux derniers points, je n’ai pas eu le temps d’explorer les différentes sources possibles. Elles peuvent néanmoins fournir des informations intéressantes pour la construction du modèle et pour son amélioration.
5.4 La procédure Optmodel
Lancement de la procédure
proc optmodel; number n= 27; set lignes= 1..n; set colonnes= 1..n; number matriceapriori{lignes,colonnes}; read data matriceaprioriexcel into [i = _n_] {j in colonnes} <matriceapriori[i,j] = col( "c" ||j)>; number contrainte1{lignes,colonnes}; read data contrainte1excel into [i = _n_] {j in colonnes} <contrainte1[i,j] = col( "c" ||j)>; number contrainte2{lignes,colonnes}; read data contrainte2excel into [i = _n_] {j in colonnes} <contrainte2[i,j] = col( "c" ||j)>; …
Déclaration des comptages
number comptage1 = 4929* 100* 2;
number comptage2 = 2853* 100* 2; number comptage3 = 7752* 100; number comptage4 = 1161* 100* 2; number comptage5 = 2295* 100* 2; number comptage6 = 1828* 100* 2; number comptage7 = 5245* 100* 2; number comptage8 = 4108* 100* 2; number comptage9 = 8000* 100* 2; number comptage10 = 7500* 100* 2;
32
Déclaration de la variable
var inconnue {lignes,colonnes}>= 0 ; for{ i in 1..n, j in 1..n} inconnue [i,j]=matriceapriori[i,j];
Déclaration de l’objectif pour la méthode entropie (voir 4.1, minimisation de –L)
minimize obj=(- 1)*sum{i in 1..n,j in 1..n}inconnue[i,j]* log(sum{i in 1..n,j in 1..n}inconnue[i,j]/sum{i in 1..n,j in 1..n}matriceapriori[i,j]) +sum{i in 1..n,j in 1..n}(inconnue[i,j]*log(inconnue[i,j]/matriceapriori[i, j]));
Déclaration des contraintes
con c1 : sum{i in lignes,j in colonnes} inconnue[i,j]*contrainte1[i,j]=comptage1; con c2 : sum{i in lignes,j in colonnes}inconnue[i,j]*contrainte2[i,j]=comptage2;
…
Lancement de la procédure
solve with ipnlp ; print inconnue;
Critère d’arrêt de l’algorithme
Extrait de la documentation de SAS en anglais :
This section describes the options recognized by the IPNLP solver. These options can be specified
after a forward slash (/) in the SOLVE statement, provided that the IPNLP solver is explicitly specified
using a WITH clause.
Details of the currently available options are described as follows:
33
MAXITER=
specifies that the solver take at most major iterations to determine an optimum of the NLP problem. The value of is an integer between zero and the largest four-byte, signed integer,
which is . A major iteration in IPNLP consists of finding a descent direction and a step size along which the next approximation of the optimum will reside. The default value of is 5000 iterations.
MAXTIME=
specifies an upper limit of seconds of real time for the solver to find a local optimum. Note that the time specified by the MAXTIME= option is checked only once at the end of each major iteration. The default value is 7200 seconds (2 hours).
OPTTOL=
defines the measure by which the user can decide whether the current iterate is an acceptable approximation of a local minimum. The value of this option is a positive real number. The IPNLP solver determines that the current iterate is a local minimum when the norm of the scaled vector of the optimality conditions is less than . The default value is =1E - 6.
PRINTFREQ=
specifies how often the iterations are to be displayed in the SAS log. should be an integer
between zero and the largest four-byte, signed integer, which is . If , the solver prints only those iterations that are a multiple of . If , no iteration is displayed in the log. The default value is PRINTFREQ=1
Je n’ai pas eu le temps de tester ces critères.
Exportation de la matrice inconnue déformée dans une feuille Excel.
create data solutionvraissemblance2727 from [i]=( 1..27) {j in 1..27}<col( "c" ||j)=inconnue[i,j]>; quit; PROC EXPORT DATA= WORK.SOLUTIONVRAISSEMBLANCE2727 OUTFILE= "E:\Alexandre\Stage2014\solutionvraissemblance2727. xlsx" DBMS=EXCEL REPLACE; SHEET= "Solution" ; NEWFILE=YES; RUN;
34
5.5 Les résultats
Avec la matrice a priori et les contraintes, nous avons à disposition l’ensemble des données nécessaires pour lancer notre algorithme. Pour rappel, cet algorithme prend en entrée une matrice a priori, et un nombre quelconque de matrices de contraintes. En sortie, nous avons une matrice mise à jour, qui tient compte des contraintes que l’on a renseignées.
Nous n’avons pas de vraie matrice pour savoir si l’on s’approche ou si l’on s’éloigne de la réalité et c’est donc « à la main » que nous évaluons la pertinence de la matrice en sortie.
Nous ne retenons que 2 méthodes d’optimisation : Entropie et Maximum de vraisemblance. Nous n’avons pas utilisé l’inférence bayésienne car c’est une méthode compliquée à mettre en œuvre, et nous n’avons pas utilisé les moindres carrés car les résultats obtenus sur les tests n’étaient pas très bons.
Nous avons donc fourni à l’algorithme successivement 2, 4, 6, 8 et 10 contraintes dans un premier temps. Pour chaque expérience, la matrice de sortie a été stockée, traitée et comparée avec la matrice a priori. Ces fichiers s’appellent solutionN.xls et ComparaisonFinaleNContraintes.xlsx pour N=2, 4, 6, 8, 10.
Nous disposons de 2 matrices a priori (IAU et Freturb) et de 2 méthodes, ce qui fait pour un nombre de contraintes donné un ensemble de 4 tests à mener.
5.5.1 Matrice IAU a priori
5.5.1.1 Maximisation de l’entropie
Dans ce paragraphe, nous partons de la matrice fabriquée grâce à Altares et au modèle gravitaire : c’est notre matrice a priori. Nous allons montrer ici deux exemples pour ne pas multiplier les tableaux : nous prendrons une extraction de taille 10*10 des matrices avec 6 contraintes et 10 contraintes
5.5.1.1.1 6 Contraintes
1 2 3 4 5 6 7 8 9 10 Totaux
1 -1483 -140 -75 -69 -69 -81 -80 -70 -245 10 -2312
2 -140 -136 -44 -17 -13 -10 -9 -12 -70 6 -449
3 -76 -44 -250 -41 -23 -12 -8 -9 -33 9 -496
4 -70 -17 -41 -167 -67 -18 -8 -7 -19 3 -414
5 -69 -13 -23 -68 -290 -42 -13 -9 -20 2 -547
6 -82 -10 -12 -17 -42 -141 -34 -14 -22 2 -374
7 -80 -9 -8 -8 -13 -34 -96 -36 -31 2 -316
8 -70 -12 -9 -7 -9 -14 -36 -142 -70 2 -368
9 -245 -70 -32 -19 -20 -22 -31 -69 -517 8 -1026
10 10 6 9 3 2 2 2 2 8 -45 44
Totaux -2316 -449 -495 -413 -546 -373 -316 -368 -1026 44 -6303
35
On remarque que l’algorithme a tendance à baisser le nombre de poids lourds qui circulent. Cette impression se confirme très largement au niveau global, où l’on aperçoit que le nombre total de poids lourds a diminué de plus de 20000 unités.
Cette impression se confirme aussi lorsqu’on regarde le tableau des erreurs relatives où toutes les valeurs sont positives. Nous retrouverons les tableaux entiers dans le classeur « ComparaisonEntropie6ContraintesIAU.xslx ».
1 2 3 4 5 6 7 8 9 10
1 8% 8% 8% 8% 8% 8% 8% 8% 8% 4%
2 8% 8% 8% 8% 8% 8% 8% 8% 8% 4%
3 8% 8% 8% 8% 8% 8% 8% 8% 8% 4%
4 8% 8% 8% 8% 8% 8% 8% 8% 8% 4%
5 8% 8% 8% 8% 8% 8% 8% 8% 8% 4%
6 8% 8% 8% 8% 8% 8% 8% 8% 8% 4%
7 8% 8% 8% 8% 8% 8% 8% 8% 8% 4%
8 8% 8% 8% 8% 8% 8% 8% 8% 8% 4%
9 8% 8% 8% 8% 8% 8% 8% 8% 8% 4%
10 4% 4% 4% 4% 4% 4% 4% 4% 4% 8%
5.5.1.1.2 10 Contraintes
1 2 3 4 5 6 7 8 9 10 Total
1 1136 107 819 54 53 64 63 54 185 -36 2499
2 107 104 -56 13 10 8 7 9 54 -21 235
3 826 -56 189 444 247 127 90 -12 -42 122 1937
4 54 13 444 125 52 14 6 5 15 49 778
5 54 10 247 52 223 33 10 7 16 45 698
6 64 8 127 14 33 108 26 11 17 31 438
7 63 7 89 6 10 26 75 28 24 -5 325
8 55 9 -12 5 7 10 28 108 54 -8 258
9 185 54 -41 15 15 17 24 54 415 -29 709
10 -37 -21 123 49 45 31 -5 -8 -29 35 183
Total 2508 234 1930 778 697 438 325 257 708 184 8057
On voit ici que notre matrice est globalement sous-dimensionnée : l’algorithme a plutôt tendance à augmenter le nombre de poids lourds. Globalement, cette assertion se vérifie plutôt bien, et l’on constate une augmentation de 12000 poids lourds. Nous retrouverons les tableaux entiers dans le classeur « ComparaisonEntropie10ContraintesIAU.xslx ».
36
1 2 3 4 5 6 7 8 9 10
1 6% 6% 83% 6% 6% 6% 6% 6% 6% 13%
2 6% 6% 10% 6% 6% 6% 6% 6% 6% 13%
3 83% 10% 6% 83% 83% 83% 83% 10% 10% 48%
4 6% 6% 83% 6% 6% 6% 6% 6% 6% 65%
5 6% 6% 83% 6% 6% 6% 6% 6% 6% 65%
6 6% 6% 83% 6% 6% 6% 6% 6% 6% 65%
7 6% 6% 83% 6% 6% 6% 6% 6% 6% 13%
8 6% 6% 10% 6% 6% 6% 6% 6% 6% 13%
9 6% 6% 10% 6% 6% 6% 6% 6% 6% 13%
10 13% 13% 48% 65% 65% 65% 13% 13% 13% 6%
5.5.1.2 Maximum de Vraisemblance
Nous utilisons l’objectif :
minimize obj=sum{i in 1..n,j in 1..n}(inconnue[i,j]-
matriceapriori[i,j]*log(inconnue[i,j]));
5.5.1.2.1 6 Contraintes
Nous ne pouvons pas mettre ici une extraction car les modifications sont locales et donc difficilement visible sur une petite partie de la matrice. Voici donc la matrice complète, que nous retrouverons dans le classeur « ComparaisonVraissemblance6ContraintesIAU.xslx ».
Encore une fois, on peut confirmer que ces 6 contraintes font baisser le nombre global de poids-lourds. Cette information est confirmée par le fait que globalement, ce sont plus de 4000 poids-lourds que l’on perd.
37
5.5.1.2.2 10 Contraintes
De même, la tendance à la hausse est confirmée par le modèle du maximum de vraisemblance, avec une augmentation globale de 4000 unités de PL. Nous retrouverons ce tableau dans le classeur « ComparaisonVraissemblance10ContraintesIAU.xslx ».
5.5.1.3 Bilan
Il est important d’expliquer un certain nombre de résultats ici. D’abord, on voit que les écarts sont beaucoup plus importants avec le modèle entropique. Cela se justifie par le fait que ce modèle ne considère pas comme constant la somme de la matrice à priori. Si jamais on détecte une augmentation dans une contrainte, ce modèle prévoit que c’est une augmentation globale. Pour la méthode du maximum de vraisemblance au contraire, cette donnée doit rester plus ou moins constante et aucune proportionnalité n’est appliquée.
Ensuite, il peut paraître troublant d’avoir une baisse générale dans le cas de 6 contraintes et une augmentation générale dans le cas de 10 contraintes. L’explication est que parmi les 6 (et 10) contraintes, certaines ne peuvent pas du tout être respectées avec nos données : elles sont trop faibles. D’autres sont trop fortes. Le tout est de savoir lesquelles sont les plus susceptibles d’améliorer le modèle, et lesquelles le dégradent.
38
5.5.2 Matrice Freturb
5.5.2.1 Maximisation de l’entropie
5.5.2.1.1 6 Contraintes
1 2 3 4 5 6 7 8 9 10 Total
1 -4811 -913 -1028 -1098 -853 -601 -834 -528 -1807 -426 -12900
2 -913 -509 -390 -188 -112 -123 -83 -52 -397 -253 -3020
3 -1028 -390 -808 -449 -195 -115 -65 -72 -194 -229 -3545
4 -1098 -188 -449 -767 -339 -154 -61 -84 -195 -79 -3413
5 -853 -112 -195 -339 -1008 -378 -187 -102 -151 -88 -3412
6 -601 -123 -115 -154 -378 -735 -169 -52 -133 -83 -2543
7 -834 -83 -65 -61 -187 -169 -159 -124 -220 -46 -1948
8 -528 -52 -72 -84 -102 -52 -124 -226 -447 -35 -1722
9 -1807 -397 -194 -195 -151 -133 -220 -447 -1091 -169 -4803
10 -426 -253 -229 -79 -88 -83 -46 -35 -169 -368 -1776
Total -12900 -3020 -3545 -3413 -3412 -2543 -1948 -1722 -4803 -1776 -39083
Rien que sur cette petite extraction, la différence est énorme. On voit que pour le trafic interne entre les zones 1 et 10, l’algorithme prévoit 40000 PL en moins. En regardant le total de la matrice, ce sont plus de 100000 PL qui sont perdus.
5.5.2.1.2 10 Contraintes
1 2 3 4 5 6 7 8 9 10 Total
1 -3696 -770 -133 -923 -720 -502 -704 -438 -1484 -647 -10016
2 -770 -421 -702 -158 -92 -101 -68 -43 -325 -388 -3068
3 -133 -702 -681 -57 -24 -13 -10 -127 -348 -126 -2222
4 -923 -158 -57 -646 -278 -128 -50 -69 -163 -34 -2507
5 -720 -92 -24 -278 -849 -309 -156 -84 -126 -38 -2676
6 -502 -101 -13 -128 -309 -619 -141 -43 -110 -36 -2004
7 -704 -68 -10 -50 -156 -141 -133 -102 -184 -70 -1620
8 -438 -43 -127 -69 -84 -43 -102 -189 -367 -53 -1515
9 -1484 -325 -348 -163 -126 -110 -184 -367 -917 -269 -4293
10 -647 -388 -126 -34 -38 -36 -70 -53 -269 -301 -1962
Total -10016 -3068 -2222 -2507 -2676 -2004 -1620 -1515 -4293 -1962 -31882
De même que dans le paragraphe précédent, l’algorithme a tendance ici à faire baisser le nombre de PL en circulation. Nous retrouverons ce tableau (respectivement le précédent) dans le classeur « ComparaisonEntropie10ContraintesFreturb.xslx » (respectivement « ComparaisonEntropie6ContraintesFreturb.xslx »)
39
5.5.2.2 Maximum de vraisemblance
5.5.2.2.1 6 Contraintes
5.5.2.2.2 10 Contraintes
On peut faire les mêmes remarques que précédemment sur ces deux tableaux, que nous retrouverons dans les fichiers « ComparaisonVraissemblance6ContraintesFreturb.xslx ». et « ComparaisonVraissemblance10ContraintesFreturb.xslx ».
40
6 Conclusion
Il est reconnu dans le monde du transport que la modélisation du trafic PL est très complexe. Il faut pouvoir disposer de données, les analyser et enfin les utiliser à bon escient. C’est un travail très intéressant qui m’a permis de concilier les connaissances acquises durant ma formation d’ingénieur aux Mines de Nancy avec le milieu de l’aménagement et des transports au sein de l’IAU.
Du point de vue technique, les divers tests menés nous ont permis de tirer quelques conclusions intéressantes :
• Il faut évidemment utiliser le maximum de contraintes : plus le nombre de contraintes est élevé, moins on risque de faire d’erreurs et plus on s’approche de la réalité.
• Il est nécessaire de bien disperser les contraintes afin d’avoir des informations sur le plus grand nombre de variables
• Le modèle entropique permet de mettre à jour la matrice entière avec un coefficient de proportionnalité alors que le modèle du maximum de vraisemblance change les variables de manière locale
Il reste encore des pistes à explorer avec l’utilisation d’autre types de contraintes, d’autres jeux de donnés et d’autres méthodes. Nous espérons que ce document servira dans le cadre de ce projet de modélisation de trafic PL en IDF.
41
7 Bibliographie
Al-Battaineh, O. and Kaysi, B. (2005) “Commodity-Based Truck Origin-Destination Matric Estimation Using Input-Output Data and Genetic Algorithms”, Transportation Research Record 1923: 37-45
List, G., Konieczny, L., Durnford, C. and Papayanoulis, V. “Best-Practice Truck-Flow Estimation Model for the New York City Region”, Transportation Research Record 1790: 97-103
Savio, C. (2005) “Estimation de matrices origine-destination en temps-réel”, Travail de Fin d’Etudes
Sharminda, B., Rao, K. (2011) “Estimation of origin-destination matrix from traffic counts: the state of the art”, European Transport 49: 3-23
Van Zuylen, H., Willumsen L. (1979) “The most likely trip matrix estimated from traffic counts”, Transportation Research, Part B 148: 281-293
Yang, H. (1994) “Heuristic algorithms for the bilevel origin-destination matrix estimation problem”, Transportation Research Part B 29B: 231-242