11
SETIT 2005 3 rd International Conference: S ciences of Electronic, Technologies of I nformation and Telecommunications March 27-31, 2005 – TUNISIA Principe du Radar à Synthèse d’Ouverture RSO & Simulation d’une chaîne d’acquisition d’image Radar Hadj Sahraoui Omar Division de Télédétection Centre National des Techniques Spatiales, 1 Rue de la Palestine, B.P.13 Arzew 31 200 Oran Algérie Tel. : 00 213 71 59 74 16 – Fax :00 213 41 47 36 65 [email protected] / [email protected] Résumé : L’observation de la terre et le contrôle d’environnement prennent une importance accrue dés qu’on a pris conscience de la dégradation de notre planète provoqué par les activités humaine . La première mission qu’on doit confier a un satellite d’observation de la terre est de s’intéresser au richesses des données et l’imagerie optique. En télédétection par capteurs optiques, on a besoin de la lumière solaire réfléchie à la surface de la Terre pour prendre des images de celle-ci. Principal désavantage de cette technologie : l’obscurité, les nuages, le brouillard, la poussière, la grêle ou tout autre phénomène perturbateur de ce type qui gênerait n’importe quelle prise d’image , ce qui fait que les prises de vues optiques par moyens aériens deviennent tout simplement intraitables dans ce cas, et nécessite l’imagerie Radar . La vision radar, en revanche, permet de faire abstraction des couvertures nuageuses et des conditions d’éclairement. L’imagerie nocturne est un avantage crucial du radar dans les zones polaires, où l’obscurité règne pendant plusieurs mois, rendant inutilisables les capteurs optiques comme aide à la navigation dans les glaces de mer. Le radar permet d’imager les pôles toute l’année durant. Mots-clé : radar RSO, résolution, image SAR, phase, interférométrie. 1 Imagerie radar 1.1 Présentation du radar 1.1.1 Historique Le mot radar est le sigle de l'expression américaine RAdio Detection And Ranging, c'est à dire détection par radio et mesure de la distance. Jusqu'à la moitié des années 40 les Anglais utilisaient le terme de radiolocation et les Français celui de détection électromagnétique (DEM). C'est un système qui illumine une portion de l’espace avec une onde électromagnétique et reçoit les ondes réfléchies par les objets qui s’y trouvent. Ces ondes peuvent caractériser les objets: que ce soit leur position horizontale, leur altitude, leur vitesse et parfois leur forme. En 1886, Heinrich Hertz démontra la similitude entre ondes lumineuses et ondes «radio», toutes deux électromagnétiques. Leur différence essentielle est que la longueur d’onde de ces dernières est beaucoup plus grande que celle des ondes lumineuses. Hertz montra que les ondes «radio» pouvaient, elles aussi, être réfléchies par les corps métalliques et diélectriques. Dès 1904, l’Allemand Christian Hülsmeyer décrivait un «appareil de projection et de réception d’ondes hertziennes pour donner l’alarme en présence d’un corps métallique tel qu’un navire ou un train situé dans le faisceau du projecteur». Cette possibilité était vérifiée expérimentalement de façon plus ou moins complète de 1922 à 1927 par un certain nombre de chercheurs. En juin 1930, l’Américain L. A. Hyland obtint une détection accidentelle d’un avion passant dans un faisceau d’ondes «radio» de 9 mètres de longueur d’onde. Dès lors, le Naval Research Laboratory (N.R.L.) expérimenta de 1930 à 1934 un premier système de «détection d’objets par radio» en ondes métriques (environ 5 m de longueur d’onde) permettant des détections d’avions distants de quelque 80 kilomètres. Un radar est essentiellement constitué par un émetteur, une antenne et un récepteur muni d’un système de visualisation, ces deux éléments ne faisant la plupart du temps qu'un seul.

Principe du Radar à Synthèse d’Ouverture RSO & Simulation d’une chaîne d ... · 2008-03-01 · deux émissions d’impulsion, il est en effet possible de synthétiser à partir

Embed Size (px)

Citation preview

SETIT 2005 3rd International Conference: Sciences of Electronic,

Technologies of Information and Telecommunications March 27-31, 2005 – TUNISIA

Principe du Radar à Synthèse d’Ouverture RSO & Simulation d’une chaîne d’acquisition d’image

Radar Hadj Sahraoui Omar

Division de Télédétection Centre National des Techniques Spatiales, 1 Rue de la Palestine, B.P.13 Arzew 31 200 Oran Algérie

Tel. : 00 213 71 59 74 16 – Fax :00 213 41 47 36 65

[email protected] / [email protected]

Résumé : L’observation de la terre et le contrôle d’environnement prennent une importance accrue dés qu’on a pris conscience de la dégradation de notre planète provoqué par les activités humaine . La première mission qu’on doit confier a un satellite d’observation de la terre est de s’intéresser au richesses des données et l’imagerie optique. En télédétection par capteurs optiques, on a besoin de la lumière solaire réfléchie à la surface de la Terre pour prendre des images de celle-ci. Principal désavantage de cette technologie : l’obscurité, les nuages, le brouillard, la poussière, la grêle ou tout autre phénomène perturbateur de ce type qui gênerait n’importe quelle prise d’image , ce qui fait que les prises de vues optiques par moyens aériens deviennent tout simplement intraitables dans ce cas, et nécessite l’imagerie Radar . La vision radar, en revanche, permet de faire abstraction des couvertures nuageuses et des conditions d’éclairement. L’imagerie nocturne est un avantage crucial du radar dans les zones polaires, où l’obscurité règne pendant plusieurs mo is, rendant inutilisables les capteurs optiques comme aide à la navigation dans les glaces de mer. Le radar permet d’imager les pôles toute l’année durant. Mots-clé : radar RSO, résolution, image SAR, phase, interférométrie.

1 Imagerie radar

1.1 Présentation du radar

1.1.1 Historique

Le mot radar est le sigle de l'expression américaine RAdio Detection And Ranging, c'est à dire détection par radio et mesure de la distance. Jusqu'à la moitié des années 40 les Anglais utilisaient le terme de radiolocation et les Français celui de détection électromagnétique (DEM). C'est un système qui illumine une portion de l’espace avec une onde électromagnétique et reçoit les ondes réfléchies par les objets qui s’y trouvent. Ces ondes peuvent caractériser les objets: que ce soit leur position horizontale, leur altitude, leur vitesse et parfois leur forme.

En 1886, Heinrich Hertz démontra la similitude entre ondes lumineuses et ondes «radio», toutes deux électromagnétiques. Leur différence essentielle est que la longueur d’onde de ces dernières est beaucoup plus grande que celle des

ondes lumineuses. Hertz montra que les ondes «radio» pouvaient, elles aussi, être réfléchies par les corps métalliques et diélectriques. Dès 1904, l’Allemand Christian Hülsmeyer décrivait un «appareil de projection et de réception d’ondes hertziennes pour donner l’alarme en présence d’un corps métallique tel qu’un navire ou un train situé dans le faisceau du projecteur». Cette possibilité était vérifiée expérimentalement de façon plus ou moins complète de 1922 à 1927 par un certain nombre de chercheurs. En juin 1930, l’Américain L. A. Hyland obtint une détection accidentelle d’un avion passant dans un faisceau d’ondes «radio» de 9 mètres de longueur d’onde. Dès lors, le Naval Research Laboratory (N.R.L.) expérimenta de 1930 à 1934 un premier système de «détection d’objets par radio» en ondes métriques (environ 5 m de longueur d’onde) permettant des détections d’avions distants de quelque 80 kilomètres.

Un radar est essentiellement constitué par un émetteur, une antenne et un récepteur muni d’un système de visualisation, ces deux éléments ne faisant la plupart du temps qu'un seul.

SETIT2005

1.1.2 Principe du radar

L’émetteur lance à intervalles réguliers (par exemple, toutes les milli-secondes) des signaux très brefs (par exemple, de 1 microseconde de durée), à une fréquence donnée (correspondant à une longueur d’onde variant, selon les applications, entre quelques mètres et quelques millimètres). Le signal n’est pas émis dans toutes les directions: l’antenne du radar, qui agit comme un projecteur, concentre l’émission dans une zone très étroite de l’espace, soit dans un cône de faible ouverture horizontale (de l’ordre de 1 degré), soit dans un cône de faible ouverture verticale (également de l’ordre de 1 degré). C’est ainsi que sont illuminées, d’autant plus faiblement qu’elles sont d'autant plus loin, les cibles situées dans le champ de l’antenne. Ces cibles réfléchissent les signaux reçus, et l’antenne capte les échos avec un décalage par rapport à l’émission, décalage d’autant plus grand que les cibles sont d'autant plus lointaines.

Si deux cibles sont à égale distance de l'émetteur, le signal met le même temps pour parcourir cette distance et les deux cibles sont donc confondues pour le récepteur : le radar travaille en distance.

Fig.1.1 Ondes radar[13]

Avec un radar classique, on atteint des portées de 500 kilomètres sur des avions militaires, et l’on utilise pour ce faire des antennes dont la surface peut atteindre 100 mètres carrés, associées à des émetteurs produisant des signaux dont la puissance atteint 20 mégawatts.

1.2 Radar à Synthèse d’ouverture RSO

1.2.1 Principe [10]

Nous avons vu précédemment que l’amélioration de la résolution azimutale passe par l’augmentation de la longueur de l’antenne. Puisque ceci ne peut se faire concrètement, il faut le réaliser virtuellement. C’est l’américain Carl Wiley qui, le premier en 1951, a eu l’idée d’utiliser le déplacement du porteur et la cohérence des signaux afin de reconstituer, par calcul, une antenne de grande dimension[7]. Le radar se déplaçant entre deux émissions d’impulsion, il est en effet possible de synthétiser à partir d’une antenne physique

relativement courte en recombinant tous les échos en phase, une antenne réseau de très grande taille. C’est le principe du Radar à Synthèse d’Ouverture, RSO. La Figure 2.1 [9] illustre ce procédé. Puisque la position du radar change le long de la trajectoire, les points à partir desquels les impulsions successives sont transmises peuvent être vus comme les éléments d’une longue antenne virtuelle rangés en un réseau linéaire. A mesure que la plate-forme avance, tous les échos rétrodiffusés par la cible sont enregistrés pour la durée du passage de la cible devant le faisceau. Le moment où la cible quitte le champ du faisceau détermine la longueur de l’antenne synthétique simulée. Pour chaque impulsion, le radar reçoit une réponse (ou écho) résultant de l’interaction de l’onde avec tous les réflecteurs présents dans l’empreinte à cet instant. Ainsi, chaque écho est la combinaison des échos retournés par tous ces réflecteurs. La collecte des échos va constituer un signal cohérent qui va permettre de suivre l’historique de la phase et de l’amplitude de la rétrodiffusion le long de la trace. C’est l’exploitation de l’effet Doppler pour localiser la provenance des échos reçus par l’antenne qui fait la spécificité du RSO.

Fig.2.1 Principe de la synthèse d’ouverture : tout au long de la trajectoire, le radar prend une

succession d’images qui sont combinées par un traitement ultérieur. L’image obtenue semble

résulter d’une antenne qui serait la réunion de toutes les antennes élémentaires[9]

Chaque écho est décomposé temporelle ment en morceaux de signal, appelés cases distance correspondant à des réflecteurs situés à une même distance de l’antenne. L’ensemble des cases distance de même valeur constitue une porte radar. Ainsi, une image radar brute n’est qu’une matrice temps-distance comme c’est illustré sur la Figure 2.3 [6]. La dimension temps correspond à l’instant où l’impulsion a été émise, tandis que la dimension distance représente le temps de propagation du signal pour effectuer l’aller-retour entre l’antenne et le sol (qui est, rappelons-le, proportionnel à la distance qui sépare chaque point du sol du porteur).

SETIT2005

Fig.2.3 Matrice temps-distance [6]

En fonction de la fréquence de répétition des impulsions (FRI), de la vitesse de déplacement du porteur et de la dimension du lobe de l’antenne, un point au sol sera éclairé un nombre n de fois. Comme la distance entre ce point et le porteur demeure quasiment constante à chaque impulsion, il va renvoyer un signal qui sera reçu toujours dans la même porte radar. Mais, comme il traverse le champ d’éclairement de l’antenne, la phase et la fréquence du signal qu’il rétrodiffuse vont changer (effet Doppler). C’est cette variation entre les différentes impulsions qui va permettre de retrouver les différentes contributions de chaque réflecteur. En les additionnant, on forme de la sorte chaque pixel de l’image radar.

2.2.2 La résolution du Radar à Synthèse d’Ouverture

La résolution dans la direction transversale ou en distance est la même que celle des radars à ouverture réelle. La résolution dans la direction de vol ou en azimut, quant à elle, diffère de cette dernière. La Figure 2.4 schématise le principe de la simulation d’ouverture. Le faisceau d’ouverture βh illumine une cible se trouvant à une distance R et à une position x dans la direction azimutale.

Fig.2.4 Configuration de la résolution azimutale du RSO

La longueur totale de l’ouverture synthétisée correspond à la distance à travers laquelle la cible est illuminée par le faisceau du radar. Donc, c’est simplement Ls, la largeur de l’ouverture réelle du faisceau au sol qui correspond à la résolution azimutale d’un radar à ouverture réelle avec le même faisceau. Elle est donnée par

Ls = βh R.

Le porteur étant en mouvement, la cible est illuminée lorsque le radar est à la position x0-Ls/2, passant par x0 (correspondant à la distance radiale minimale R0), jusqu’à la position x0+Ls/2. l’antenne va occuper successivement des positions de x1 à xN sur le segment de longueur Ls. Tout se passe comme si l’antenne contenait des éléments qui sont rangés en un réseau linéaire qui permet d’accéder à l’amplitude et la phase associées à chaque élément.

Dans un système passif conventionnel (tel qu’un télescope optique), une résolution angulaire de

sLλβ ≈' peut être réalisée à partir d’une

ouverture réelle ou synthétique de longueur Ls. Comme le radar est un système actif, la propagation se fait dans les deux sens aller-retour. On peut montrer [6] que la résolution angulaire devient

sL2'' λβ = . La résolution dans la direction de vol raz

s’écrit alors raz = Rβ’’. Rappelons que : Ls = R βh = R(λ/L) où L est la longueur de l’antenne réelle. La borne inférieure de la résolution en azimut devient alors

2Lraz =

Ce résultat représente la base de la conception des systèmes RSO. La résolution azimutale obtenue théoriquement ne dépend que de la taille de l’antenne réelle. Elle est complètement indépendante de la longueur d’onde et de la distance d’observation.. Ce dernier point est part iculièrement intéressant pour les radars spatiaux.

Amplitude

L'amplitude dépend du coefficient de rétrodiffusion de la cible dans les conditions d'observation. Ce coefficient est fonction de nombreuses caractéristiques (pente locale, humidité du sol, ...), et est aléatoire. Le coefficient de rétrodiffusion σ0

peut être exprimé en fonction de l'amplitude A et d'un coefficient de normalisation k:

σ0=20log(kA)

Temps de propagation du

Séquence d’impulsio

Signal rétrodiffusé enregistré à

Signal rétrodiffusé enregistré à

Echo de l’impulsion

Echo de l’impulsion

Echo de l’impulsion

Echo de l’impulsion

LL

x xx x

RR

β

X0-L/2 x0 X X0+L/2

R0 R

RL hs β≈

SETIT2005

σ0 en décibel (dB) Type de surface

+50 Cibles ponctuelles, navires, véhicules

+20 Zones urbaines

0 Surface plane

-10 Forêt, végétation

-15 Herbe rase

-22 Goudron, béton

Phase

La phase du signal reçu est la somme de six phases:

φtotal = φtrajet + φmétéo + φconstruction + φrétrodiffusion + φinstrumentale + φbruit

L'information de phase n'est pas directement exploitable, toutefois c'est une riche source d'information qui nous servira dans notre traitement d'images. Nous n'utiliserons que la phase de trajet en supposant les cinq autres constantes.

Image radar

Une image radar est alors composée de deux images, une d'amplitude et une de phase.

1.1.4 Le SLAR

SLAR est le sigle de l'expression Side Looking Airborne Radar, c'est à dire radar aéroporté à vision latérale. Le temps de retour de l'onde fournit toujours la position en distance des éléments de la scène. C'est pourquoi, la visée se fait latéralement car les points situés à la verticale de l'antenne sont tous quasiment à la même distance et donc indiscernables.

Régulièrement, le radar émet un train d'onde qui correspond alors à une ligne image.

Fig.3.1 Principe du SLAR [11]

1.2 Interférométrie

1.2.1 Notion d'interférogramme

Un interférogramme correspond à une image de la différence de phase de deux signaux radars envoyé en même temps mais sous des angles différents. Cette différence, après traitement, est approximativement proportionnelle à l'élévation du point imagé[20].

Fig.3.2 Construction de l'interférogramme [11]

Ainsi, on peut retrouver cette élévation à un modulo 2π près. Le déroulement de phase consiste à reconstituer l'élévation dans sa continuité[16].

Déroulement de phase

Cette opération est délicate, car elle suppose une variation suffisamment lente de la phase pour que le déroulement soit convenable[19]. Nous pouvons définir l'altitude d'ambiguïté Ha qui représente le dénivelé associé à un déphasage de 2.π Pour que le sens de variation de la phase soit correctement interprété, il est indispensable qu'entre deux pixels consécutifs, le dénivelé soit inférieur à Ha.

On peut donc voir les interférogrammes comme des images de lignes de niveau, à partir desquels on peut réaliser des Modèles Numériques de Terrain (MNT); en particulier, des reconstructions de zones urbaines.

Aparté : Interférométrie différentielle

Si l'acquisition se fait sous le même angle mais à des moments décalés, on obtient un interférogramme différentiel. L' image correspondante est caractéristique des changements tridimensionnels qui sont intervenus entre les

SETIT2005

acquisitions. Les interférogrammes différentiels permettent d'étudier les modifications du relief causées par un tremblement de terre, une éruption volcanique, un glissement de terrain, une dérive glacière, etc.

1.2.2 Problèmes liés aux interférogrammes[20]

Les deux problèmes principaux sont dans le cadre des zones urbaines, le repliement et les discontinuités de terrain[20].

Le repliement

C'est un problème général en radar. Des points appartenant à des zones de relief distinctes sont confondues. Cela est dû au fait qu'un point sur le sommet de l'élévation, dans notre cas un bâtiment, est à égale distance de l'antenne qu'un point du sol .

Ici D1 et D2 sont les mêmes, par conséquent A et B seront représentés par le même pixel sur l'image.

Les discontinuités de phase

Elles sont liées aux discontinuités de terrain. L'ambiguïté due au modulo de la phase peut les faire disparaître.

Sur l'image de phase on distingue les deux problèmes : le repliement au bas des bâtiments, la discontinuité sur les côtés et la disparition de la discontinuité sur le bâtiment en bas à droite.

3. Traitement d'image

3.1 Lecture des fichiers

La première étape par laquelle nous avons dû passer est la lecture des fichiers contenant les données et leur conversion en images exploitables par un logiciel (Aphelion).

3.1.1 Description théorique

Le fichier fournit est de type .BDIR. Il consiste en - une en-tête de deux fois quatre octets ( deux données de type unsigned long ) : - le premier contient le nombre de données présentes dans le fichier - le second donne le nombre de colonnes de l'image à obtenir. - données image de type float ( quatre octets ) que l'on doit associer par paire: - un float correspondant à la partie réelle - l'autre à la partie imaginaire d'un même nombre complexe.

Au lieu de fournir en sortie de l'opérateur de lecture une image complexe ou deux images, réelle et imaginaire, nous avons préféré calculer l'amplitude et la phase, c'est à dire le module et l'argument du nombre complexe. En effet, en imagerie radar, ces informations sont beaucoup plus intéressantes.

Amplitude

Phase

Phase= Arctan(Im(z)/Re(z))

Cependant l'inverse de la tangente d'un angle n'est compris qu'entre -π/2 et +π/2, modulo 2π. On lève cette indétermination en examinant le signe de la partie réelle.

3.1.2 Description algorithmique

La création des fichiers .BDIR s'est faite sur des stations UNIX qui range les octets dans un sens alors que nous travaillions sur des PC qui utilisent la convention inverse. donc on doit créer une fonction, nommée "convert", qui inverse le sens des octets.

Toutes les images phase sont présentées sur un intervalle égal à [ 0 ; 2π] ainsi nous sommes certains qu'aucune image de départ n'a de niveaux de gris inférieurs à zéro.

3.1.3 Présentation des résultats obtenus

Pour créer chaque image radar, nous lisons deux fichiers: un d'amplitude et un d'interférogramme.

Fig.3.3 Problème du repliement[11]

Fig.3.4 Image optique de la zone urbaine[11]

Fig.3.5Image de phase[11]

SETIT2005

On obtient donc quatre images.

. Ci-dessous se trouve l'image synthétisée d'un seul et même bâtiment. Sur l'image d'amplitude et l'interférogramme on peut discerner trois parties:

- le sol où l'amplitude est homogène et les bandes de phase se discernent bien - la zone de recouvrement où rien n'est structuré - le toit plat du bâtiment qui a les mêmes caractéristiques que le sol.

On va chercher la région correspondante au recouvrement.

Ci-dessous, se trouve synthèse d'une zone urbaine. Elle peut être décomposer en plusieurs régions:

- le sol où les caractéristiques sont les mêmes que précédemment - les zones de recouvrement correspondant aux pixels négatifs - quatre bâtiments mais dont le toit n'est pas forcément horizontal. Ici le but sera de repérer les lignes de discontinuité.

3.2 Image d'amplitude

Tout d'abord, le caractère très bruité de l'image d'amplitude radar va obliger à mettre en place un filtrage.

Ensuite les images d'amp litude à traiter sont énormément texturées. Une texture répond aux mêmes propriétés statistiques : sur une zone limitée, les densités sont étudiées selon les règles de la statistique ainsi l'homogénéité ou l'hétérogénéité d'une zone peuvent être quantifiée ou distribuée en une ou plusieurs populations.

En se fondant sur ces remarques, nous avons commencé par explorer les différentes possibilités qu'offre la statistique. Nous avons donc étudié une segmentation basée sur le calcul de la disparité puis sur celui de la variance.

3.2.1 Disparité

Description théorique

Cette méthode consiste à comparer, dans une fenêtre se déplaçant sur l'image, la moyenne des niveaux de gris sur cette fenêtre et la valeur du niveau de gris du pixel central. On obtient alors:

- un résultat élevé si le pixel central n'a pas une valeur caractéristique de la région où il se trouve - un résultat faible si le pixel appartient bien à la région.

On doit cependant adapter cette méthode, en effet les images sont trop texturées pour l'appliquer telle quelle et la valeur du pixel central n'est pas représentative.

Nous avons donc essayé deux formes améliorées:

- deux fenêtres de même taille placées de chaque côté de la ligne image du pixel traité. La différence se fait alors entre la moyenne des deux fenêtres.

- trois fenêtres de même taille : une fenêtre centrée sur le pixel à traiter et les deux autres au-dessus et en dessous. On calcule alors la différence entre la moyenne du centre et celle du dessus puis du dessous. On conserve la valeur la plus forte.

Image Radar d’Amplitude Image Radar de Phase

Amplitude de l’Interférogramme Phase de l’Interférogramme

Fig .4.1

Image Radar d’Amplitude Image Radar de Phase

Phase de l’Interférogramme Amplitude de l’Interférogramme Fig .4.2

SETIT2005

Remarque algorithmique

L'utilisation de fenêtres a certaines conséquences fâcheuses sur l'image résultat. En effet, la taille des fenêtres va avoir un impact sur le nombre de pixels manipulés et donc sur la taille de l'image de sortie.

On affiche directement l'histogramme pour pouvoir dire rapidement si l'on peut discerner des partitions différentes. Si on peut voir deux gaussiennes dont les moyennes sont éloignées alors le procédé est discriminant. Sinon la segmentation a échoué.

Présentation des résultats

Les résultats obtenus ne conviennent pas. Ceci est dû au fait que l'image d'amplitude traitée est beaucoup trop texturée pour cette méthode. De plus la faible taille de certaines des images limite la dimension des fenêtres. On commence à distinguer la frontière entre les zones planes et la zone de repliement sur l'image de gauche. Cela reste toutefois insuffisant.

image de disparité pour le bâtiment

image de disparité pour la zone urbaine

3.2.2 Variance

Description théorique

Le calcul de la variance s'effectue sur une fenêtre centrée sur le pixel traité :

Présentation des résultats obtenus

Nous n'aboutissons pas aux résultats escomptés. Comme pour la disparité, l'exploitation de ces résultats n'est pas réalisable. Si on distingue la zone de recouvrement sur l'image de gauche, cela n'est pas utilisable pour extraire les frontières.

image de variance sur le bâtiment

image de variance sur la zone urbaine

3.2.3 Méthode basée sur Isodata

Cette méthode consiste en la combinaison de plusieurs traitements[5] :

- on applique à deux reprises, l'une à la suite de l'autre, le filtre médian de taille 5x5;

- puis on classe les pixels afin de segmenter en régions grâce à la méthode Isodata.

Description théorique

Le filtre médian réalise un lissage de l'image en gardant les contours. Pour renforcer cette action, on emploie deux fois ce filtre.

Le but ensuite est de repérer les frontières des régions, c'est à dire les lignes de discontinuité. Pour résoudre cela on va classer l'image en deux partie :

- le fond qui symbolise le sol, et où l'amplitude est homogène car il n'y a pas d'aspérités perturbatrices

- les régions correspondant soit à des zones de recouvrement, soit aux immeubles.

Dans cette optique nous nous servons d'une méthode de classification non supervisée[5], c'est à dire qu'aucun échantillon définissant les classes n'est fournit. Le nombre de classes étant fixé, la méthode des nuées dynamiques, sur laquelle est basé l'algorithme Isodata, est tout à fait désignée. Elle consiste à choisir un critère global de différenciation. On définit des noyaux initiaux, c'est à dire une valeur de critère représentative de chaque partition. On va alors calculer la distance de chaque élément de l'image par rapport à tous les noyaux. On affecte le point à la classe dont le noyau est le plus proche. Une fois tous les pixels répartis, on recalcule les noyaux qui génèrera une meilleur partition. On itère le processus jusqu'à la stationnarité.

Fig .5.2

Fig .5.1

SETIT2005

Une fois la classification finie, on a une image binarisée, puisqu'il y a deux classes. On a différencié le fond des bâtiments. Cependant ce n'est pas encore le résultat final. Effectivement , on doit repérer les frontières de passage entre les deux partitions. Elles représentent les zones de discontinuité. Pour cela il suffit de ne garder que les pixels dont les voisins à droite et à gauche ont un niveau de gris différent. Nous justifierons, lors du chapitre consacré à la fusion, les valeurs des pixels affectées aux deux classes.

Présentation des résultats

L'application des deux filtres médian 5*5 permet d'uniformiser les niveaux de gris de pixels formant les régions du sols et des toits. Les éléments formant le sol ont tendance à avoir des valeurs faibles, alors que les partitions représentant les toits convergent vers des valeurs fortes. Ceci autorise à penser qu' une classification basée sur la moyenne des niveaux de gris permettra de séparer le sol des bâtiments. En effet si on a des valeurs faibles pour le sol alors la moyenne sera faible par contre les toits auront une moyenne élevées.

après deux convolutions du filtre médian, image

du bâtiment

après deux convolutions du filtre médian, image

de zone urbaine

Sur l'image de gauche, on a bien isolé la zone de recouvrement. Sur l'image de droite, l'application du procédé de classification amélioré aboutit à l'obtention des frontières des bâtiments. On peut remarquer qu'ils ne sont pas rectilignes contrairement à ce que l'on voit à l'oeil sur l'image d'amplitude. On peut alors supposer que certains des pixels formant la discontinuité seront oubliés. Mais l'épaisseur de la frontière corrigera certainement en grande partie cette erreur.

On observe aussi un problème au niveau du bâtiment en bas à gauche. La partie inférieur de la région n'était pas bien défini, ce qui entraîne une mauvaise classification. L'importance de cette erreur sera réduite comme nous le verrons lors de la fusion.

bâtiment après Isodata zone urbaine après Isodata

3.3 image interférométrique

3.3.1 distance

Description théorique

Deux pixels appartenant à la même bande et ayant un niveau de gris égal, c'est à dire de phase similaire, sont à la même altitude. On calcule donc la différence en niveau de gris entre un pixel et son voisin horizontal à droite. On dit alors qu'il s'agit de la distance les séparant.

Comme la phase est définie modulo 2π, on doit en tenir compte lors du calcul de distance.

Présentation des résultats

image de distance sur le bâtiment

image de distance sur la zone urbaine

3.3.2 cohérence

description théorique

Fig .5.3.2

Fig .5.3.1

Fig .5.3.3

SETIT2005

La méthode de cohérence est encore une façon de définir si un pixel appartient à la même région que ces voisins. C'est un estimateur de la stationnarité de la phase interphérométrique très utilisé en imagerie radar. Ici on calcule la cohérence entre les pixels des deux images complexes de phase. L'opération alors à effectuer est:

< , > l'opérateur moyenne appliqué sur une fenêtre

x1 et x2 les échantillons complexes des images 1 et 2

a* conjugué du complexe a

Nous n'allons pas nous servir de cette fonction telle quelle puisque nous travaillons sur une seule image, l'interférogramme.

On va d'abord définir une fenêtre carrée centrée sur le pixel à traiter et sur laquelle on va appliquer les opérations.

zcomp valeur complexe de l'image de phase Or, avec zcomp = zreel + i.zimag zreel , la partie réelle de l'image de phase zimag, la partie imaginaire de l'image de phase

on a:

Les bornes de variation de la cohérence sont 0 et 1. Plus elle est proche de 1, plus la phase est stable, c'est à dire le pixel a une phase qui correspond avec la valeur de ses voisins. Si elle proche de 0 alors soit la phase est bruitée, soit il y a des discontinuités.

présentation des résultats

On obtient les mêmes résultats que pour la distance. Le bord noir est du à l'utilisation de fenêtre.

image de cohérence du bâtiment

image de cohérence de la zone urbaine

On peut vérifier que cet opérateur fonctionne même si l'image est bruitée. On applique un bruit uniforme d'amplitude 60% de l'amplitude de l'image initiale

Fig .6.1 image de cohérence de la zone urbaine bruitée [11]

3.4 Fusion

3.4.1 description théorique

La fusion va nous permettre d'exploiter les informations contenues dans le résultat du traitement de l'image radar d'amplitude et celui de l'interférogramme. Notre opérateur est simple, il applique un "ET" entre les pixels des deux images, c'est à dire une multiplication membres à membres des images éventuellement pondérée.

Ensuite pour obtenir une probabilité, on ramène les résultats sur l'intervalle [ 0 ; 1 ]. Il sera alors facile d'interpréter la carte de probabilité:

- si la valeur est proche de 0 alors au moment du déroulement de phase les deux pixels adjacents n'appartiendront pas à la même région. On ne pourra pas avoir confiance en l'information donnée par l'interférogramme. - si la valeur tend vers 1, le déroulement de phase ne sera pas entâché d'erreur.

3.4.2 présentation des résultats

Les cartes de probabilités obtenues sont bien concordantes avec les objectifs fixés pour le projet. En effet les pixels, où la phase de l'interférogramme

Fig .5.3.4

SETIT2005

se déroule sans aucune ambiguïté, ont une probabilité élevée. Cette valeur de confiance diminue avec l'augmentation de la difficulté du déroulement.

fusion pour le bâtiment fusion pour la zone urbaine

Il n'y a en fait qu'une image, mais celle de droite est plus lumineuse afin de montrer que les valeurs dans la zone de recouvrement ne sont pas nulles

On peut vérifier que le procédé est valable même si l'image est bruitée:

fusion sur image bruitée

Comparaison

Les résultats obtenus pour cette méthode sont comparable aux résultats réalisés sur la thèse ‘Stéréovision par ordinateur’ de Mr Bernard COUAPEL le 11 mars 1994 [21].

Conclusion

Les conditions climatiques difficiles interdisant l’idée même de cartographier l’Antarctique par des méthodes terrestres, et les conditions géographiques et météorologiques celle de le cartographier par observations spatiales optiques, il semble que le seul outil restant pour accomplir cette tâche soit le radar, embarqué sur une plate-forme spatiale. C’est très bien ainsi, car, comme nous l’avons vu, et nous y reviendrons plus loin, c’est un outil très approprié et efficace.

Remerciement :

Mes premiers remerciements vont naturellement a tout membre de l’équipe ‘imagerie Radar’ de la Division Télédétection du Centre National des Techniques Spatiales.

Je remercie Monsieur IFTEN Taher Chef de la Division de Télédétection et le Chef d’équipe ‘Imagerie Radar’ et Monsieur Ben Ali de son aide.

Référence :

[1] Henri Maître, Traitement des Images de RSO. HERMES Science Publications., Paris, 2001.

[2] S.R. Cloude and K.P. Papathanassiou, “Polarimetric Optimization in Radar Interferometry,” Electronics Letters, vol. 33, no. 13, pp. 1176-1178, October, 1997.

[3] Konstantinos P. Papathanassiou, «Polarimetric SAR Interferometry,» Ph. D. Thesis, The Faculty of Natural Sciences, Department of Physics at the Technical University Graz, January 1999.

[4] Irena Hajnsek, «Inversion of Surface Parameters Using Polarimetric SAR,» Ph. D. Thesis, Universitat Jena, DLR-Forschungsbericht, December 2001.

[5] « Notions fondamentales de télédétection, » Cours Tutoriel

http://www.ccrs.nrcan.gc.ca/ccrs/learn/tutorials/fundam/fundam_f.html

[6] Robert N. Colwell, Manuel of Remote Sensing, Second Edition, Volume I: Theory, Instruments and Techniques. American Society of Photogrammetry, The Sheridan Press. USA, 1983.

[7] Chris Oliver and Shaun Quegan, Understanding Synthetic Aperture Radar Images. ARTECH House. Boston-London, 1998.

[8] Olivier Germain, « Segmentation d’Images Radar : Caractérisation des Détecteurs de Bord et Apport des contours Actifs Statistiques, » Thèse de Doctorat en Sciences, Ecole Nationale Supérieure de Physique de Marseille. Janvier, 2001.

[9] « Principes du radar et traitement d’une image SAR »

http://www.irit.fr/ACTIVITES/DESS_IIN/Cours/radar/Synopsis2.html

[10] Andreas Reigber, « Synthetic Aperture Radar: Basic Concepts and Image Formation, » Tutorial, Version 1.0, May 2001. http://epsilon.nought.de

[11] Weber Hoen, « A Correlation-based approach to modeling interferometric radar observations of the Greenland Ice sheet, » Ph. D.

SETIT2005

Thesis, Department of Applied Physics, Stanford University, March 2001.

[12] « Imagerie radar et Interférométrie » .

http://irrmalin1.epfl.ch/~pasquarello/physgen/complements/interferometrie.pdf

[13] Roger Fjφrtoft, « Segmentation d’Images Radar par Détection de Contours ,» Thèse de Doctorat, CESBIO, LIMA et ENSEEIHT. Mars, 1999.

[14] H. A. Zebker et al., “Accuracy of topographic maps derived from ERS-1 interferometric radar,” IEEE Transactions on Geoscience and Remote Sensing, vol. 32, no. 4, pp. 823–836, July 1994.

[15] A. Ferretti, C. Prati, and F. Rocca, “Nonlinear subsidence rate estimation using permanent scatterers in di.erential SAR interferometry,” IEEE Transactions on Geoscience and Remote Sensing, vol. 38, no. 5, pp. 2202–2212, September 2000.

[16] Jorn Hoffmann, « The application of satellite radar interferometry to the study of land subsidence over developed aquifer systems, » Ph. D. Thesis, Department of Geophysics, Stanford University, January 2003.

[17] R. Abdelfattah, J. Nicolas, M. Boussema, « Topography Optimisation for Accurate Interferometric Phase Generation, » EUROPTO, 251-256, Barcelone, Espagne, 1998.

[18] « SAR Interferometry »: http://earth.esa.int/rootcollection/eeo4.10075/002cb.html

[19] Sigurjon Jonsson, « Modeling volcano and earthquake deformation from satellite radar interferometric observations, » Ph. D. Thesis, Stanford University, June 2002.

[20] Ramon F. Hanssen, Radar Interferometry – Data Interpretation and Error Analysis. Kluwer Academic Publishers, 2001.

[21] Bernard Couapel, « Stéréovision par ordinateur » Ph. D. Thesis, Université de Rennes1,1994