34
Frank Schnitzer Ein Systemansatz zur bildbasierten Navigation und Geometrierekonstruktion für RaumfahrtRendezvousmanöver

I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w

  • Upload
    others

  • View
    4

  • Download
    0

Embed Size (px)

Citation preview

Page 1: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w

Frank Schnitzer

Ein Systemansatz zur bildbasierten Navigation undGeometrierekonstruktion für Raumfahrt­Rendezvousmanöver

Page 2: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w
Page 3: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w

Ein Systemansatz zur bildbasiertenNavigation und Geometrierekonstruktion für

Raumfahrt­Rendezvousmanöver

Frank Schnitzer

Beiträge aus der Automatisierungstechnik

Dresden 2013

Page 4: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w

Bibliografische Information der Deutschen BibliothekDie Deutsche Bibliothek verzeichnet diese Publikation in der DeutschenNationalbibliografie; detaillierte bibliografische Daten sind im Internet überhttp://dnb.ddb.de abrufbar.

Bibliographic Information published by the Deutsche BibliothekThe Deutsche Bibliothek lists this publication in the DeutscheNationalbibliografie; detailed bibiograpic data is available in the internet athttp://dnb.ddb.de.

Zugl.: Dresden, Techn. Univ., Diss., 2013

Die vorliegende Arbeit stimmt mit dem Original der Dissertation„Ein Systemansatz zur bildbasierten Navigation und Geometrierekonstruk­tion für Raumfahrt­Rendezvousmanöver“ von Frank Schnitzer überein.

© Jörg Vogt Verlag 2013Alle Rechte vorbehalten. All rights reserved.

Gesetzt vom Autor

ISBN 978­3­938860­68­7

Jörg Vogt VerlagNiederwaldstr. 3601277 DresdenGermany

Phone: +49­(0)351­31403921Telefax: +49­(0)351­31403918e­mail: [email protected] : www.vogtverlag.de

Page 5: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w

Fakultät Elektrotechnik und Informationstechnik

Institut für Automatisierungstechnik

Ein Systemansatz zur bildbasiertenNavigation und Geometrierekonstruktion für

Raumfahrt-RendezvousmanöverA Systems Approach for Image-based Navigation and

Geometry Reconstruction for Spacecraft On-OrbitRendezvous Maneuvers

Frank Schnitzer

von der Fakultät Elektrotechnik und Informationstechnikder Technischen Universität Dresden

zur Erlangung des akademischen Grades eines

Doktoringenieurs(Dr.-Ing.)

genehmigte Dissertation

Vorsitzender: Prof. Dr.-Ing. habil. K. Röbenack (TU Dresden)Gutachter: Prof. Dr. techn. K. Janschek (TU Dresden)

Prof. Dr.-Ing. C. Stiller (KIT, Karlsruhe)

Tag der Einreichung: 05.04.2013Tag der Verteidigung: 02.10.2013

Page 6: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w
Page 7: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w

Vorwort

Diese Arbeit entstand zwischen Dezember 2009 und April 2013 im Rahmendes Graduiertenkollegs Aspekte zukünftiger Satelliten-Erkundungsmissionen,das gemeinsam von der Technischen Universität Dresden und der AstriumGmbH, Friedrichshafen organisiert wurde. Für die Möglichkeit der Teilnahmean diesem Graduiertenkolleg danke ich Herrn Prof. Dr. techn. Klaus Janschekund Herrn Dr.-Ing. Georg Willich.

Großer Dank gebührt auch den Betreuern meiner wissenschaftlichen Arbeit.Sowohl Herr Prof. Dr. techn. Klaus Janschek als auch Herr Hartmut Jörckstanden mir bei Fragen jederzeit zur Verfügung und gaben viele wertvolleHinweise und Anregungen, die ich gern aufgegriffen und verwertet habe.

Für die bereitwillige Übernahme des Zweitgutachtens und nützliche Ratschlä-ge zur Verbesserung der einen oder anderen Stelle dieser Dissertation möchteich Herrn Prof. Dr.-Ing. Christoph Stiller danken.

In den vergangenen Jahren wurde ich am Institut für Automatisierungstech-nik an der TU Dresden stets von Kollegen und Freunden unterstützt, wofürich mich bei diesen herzlich bedanken möchte. Nicht nur auf inspirierendewissenschaftliche Diskussionen und Gespräche mit viel oder wenig Tiefgang,sondern auch auf Unternehmungen jenseits des Arbeitsplatzes werde ich gernzurückblicken. Viele schöne Erinnerungen verbinde ich außerdem mit denviel zu seltenen morgendlichen Besuchen der Cafeteria, die mich dennochunablässig dazu anspornten, den Arbeitstag früh zu beginnen und von denenich mit etlichen, meist ganz nebenbei entstandenen, hilfreichen Tipps und Er-mutigungen zurückkam. Nicht unerwähnt bleiben sollen weiterhin Frau PetraMöge und Herr Matthias Werner, die am Institut immer wieder bürokratischeund technische Hindernisse aus dem Weg räumten.Ebenso sei an dieser Stelle all jenen Studenten gedankt, die unter meiner

Verantwortung ihre Seminar-, Studien- und Diplomarbeiten absolvierten undauf diese Weise einen Beitrag zu der vorliegenden Arbeit geleistet haben.

Einen ganz entscheidenden Anteil an meiner Entwicklung und dem erfolg-reichen Abschluß dieser Arbeit haben meine Eltern, die unentwegt nur dasBeste für mich wollten. Nicht nur während meiner Schulzeit und dem Studium,sondern auch in meiner Zeit als Doktorand hatte ich dadurch das große Glück,mich, wann immer es notwendig war, auf meine Arbeit konzentrieren zukönnen und nicht durch zusätzliche – für Andere unvermeidliche – Aufgabenabgelenkt zu werden. Dankeschön!

Frank Schnitzer

vii

Page 8: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w
Page 9: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w

Ein Systemansatz zur bildbasierten Navigation undGeometrierekonstruktion fürRaumfahrt-Rendezvousmanöver

Zukünftige Raumfahrtprogramme setzen vermehrt auf das sogenannte On-Orbit Servicing: ein im Erdorbit befindlicher Satellit wird in einem Rendezvous-und Dockingmanöver eingefangen und dann gewartet, repariert, aufgetanktoder neu positioniert. Trotz ungünstigen Beleuchtungsbedingungen und ein-geschränkten Möglichkeiten für Beobachtungstrajektorien sind während derAnnäherung genaue Angaben über Position, Lage, Geschwindigkeit und Formdes Zieles notwendig, um eine Kollision mit diesem zu verhindern. Im Kontexteines autonomen Manövers kann der Zielsatellit allerdings nicht als a prioribekannt vorausgesetzt werden.

In dieser Arbeit wird ein Systemkonzept für die kamerabasierte Rendezvous-Navigation mit einem unbekannten, unkooperativen Zielobjekt entwickelt.Geeignete Algorithmen für Bildauswertung, Zustandsschätzung und Geome-trierekonstruktion werden systematisch durch Informationsrückführungenerweitert und durch eine metrikbasierte Modellierung abgebildet, um einequantitative Bewertung unterschiedlicher Konzeptvarianten zu ermöglichen.Eine Verifikation der entwickelten Algorithmen erfolgt in verschiedenen Ex-perimenten mit synthetischen und realen Bilddaten.

ix

Page 10: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w
Page 11: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w

A Systems Approach for Image-based Navigation andGeometry Reconstruction for Spacecraft On-OrbitRendezvous Maneuvers

Future space programs are increasingly focusing on on-orbit servicing: asatellite in Earth orbit is caught in a rendezvous and docking maneuver andis thereafter maintained, repaired, refueled or repositioned. Despite unfavo-rable lighting conditions and restricted mobility for exploration during theapproach, details of position, orientation, velocity and shape of the targetare necessary while approaching and preventing any collision. In the contextof an autonomous maneuver the target satellite can not be assumed to beknown a priori.

In this thesis a system design for a camera-based rendezvous navigation withan unknown and non-cooperative target is developed. Suitable algorithms forimage processing, state estimation and geometry reconstruction are integratedat system level and are systematically enhanced by information feedback.The algorithms are mapped to a metrics model permitting a quantitativeassessment of concept variants. A verification of the developed algorithms isperformed by experiments with synthetic and real image data.

xi

Page 12: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w
Page 13: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w

Inhaltsverzeichnis

1 Einleitung 11.1 Motivation: Autonome Rendezvous-Navigation . . . . . . . . 11.2 Übersicht über den Inhalt der Arbeit . . . . . . . . . . . . . 3

2 Stand der Technik und eigene Beiträge 52.1 Kamerabasierte Navigation . . . . . . . . . . . . . . . . . . . 52.2 Kamerabasierte Navigation und Geometrierekonstruktion . . 11

2.2.1 Bildauswertung . . . . . . . . . . . . . . . . . . . . . 122.2.2 Zustandsschätzung . . . . . . . . . . . . . . . . . . . 162.2.3 Geometrierekonstruktion . . . . . . . . . . . . . . . . 172.2.4 Informationsrückführungen . . . . . . . . . . . . . . . 23

2.3 Defizite bisheriger Ansätze und eigene Beiträge . . . . . . . 25

3 Systemkonzept 293.1 Bildauswertung . . . . . . . . . . . . . . . . . . . . . . . . . 303.2 Geometrierekonstruktion . . . . . . . . . . . . . . . . . . . . 333.3 Zustandsschätzung . . . . . . . . . . . . . . . . . . . . . . . 35

4 Algorithmen für Navigation und Geometrierekonstruktion 374.1 Bildauswertung . . . . . . . . . . . . . . . . . . . . . . . . . 37

4.1.1 Bildvorfilter . . . . . . . . . . . . . . . . . . . . . . . 404.1.2 Integralbilderstellung . . . . . . . . . . . . . . . . . . 424.1.3 Merkmalsdetektion und -deskription . . . . . . . . . 434.1.4 Korrespondenzsuche . . . . . . . . . . . . . . . . . . 454.1.5 Ausreißererkennung . . . . . . . . . . . . . . . . . . . 534.1.6 Merkmalsverwaltung . . . . . . . . . . . . . . . . . . 54

4.2 Zustandsschätzung . . . . . . . . . . . . . . . . . . . . . . . 594.3 Geometrierekonstruktion . . . . . . . . . . . . . . . . . . . . 61

4.3.1 Stereorekonstruktion . . . . . . . . . . . . . . . . . . 634.3.2 Triangulation . . . . . . . . . . . . . . . . . . . . . . 654.3.3 Normalenbestimmung . . . . . . . . . . . . . . . . . 664.3.4 Segmentierung . . . . . . . . . . . . . . . . . . . . . 684.3.5 Oberflächenrekonstruktion . . . . . . . . . . . . . . . 70

Page 14: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w

Inhaltsverzeichnis

5 Metrikbasierte Modellierung 775.1 Modellbildung mittels Metriken . . . . . . . . . . . . . . . . 775.2 Bildauswertung . . . . . . . . . . . . . . . . . . . . . . . . . 78

5.2.1 Bildvorfilter . . . . . . . . . . . . . . . . . . . . . . . 795.2.2 Integralbilderstellung . . . . . . . . . . . . . . . . . . 805.2.3 Merkmalsdetektion . . . . . . . . . . . . . . . . . . . 805.2.4 Merkmalsdeskription . . . . . . . . . . . . . . . . . . 825.2.5 Stereo-Korrespondenzsuche . . . . . . . . . . . . . . 835.2.6 Datenbank-Korrespondenzsuche . . . . . . . . . . . . 845.2.7 Ausreißererkennung . . . . . . . . . . . . . . . . . . . 865.2.8 Merkmalsverwaltung . . . . . . . . . . . . . . . . . . 875.2.9 Modell der Bildauswertung . . . . . . . . . . . . . . . 91

5.3 Zustandsschätzung . . . . . . . . . . . . . . . . . . . . . . . 995.4 Geometrierekonstruktion . . . . . . . . . . . . . . . . . . . . 99

5.4.1 Stereorekonstruktion . . . . . . . . . . . . . . . . . . 1005.4.2 Triangulation . . . . . . . . . . . . . . . . . . . . . . 1025.4.3 Normalenbestimmung . . . . . . . . . . . . . . . . . 1035.4.4 Segmentierung . . . . . . . . . . . . . . . . . . . . . 1045.4.5 Oberflächenrekonstruktion . . . . . . . . . . . . . . . 1055.4.6 Modell der Geometrierekonstruktion . . . . . . . . . 107

5.5 Modulübergreifende Abhängigkeiten . . . . . . . . . . . . . . 114

6 Test und Verifikation 1156.1 Implementierung . . . . . . . . . . . . . . . . . . . . . . . . 1156.2 Simulationsexperimente . . . . . . . . . . . . . . . . . . . . 118

6.2.1 Inhalt der Simulationsexperimente . . . . . . . . . . 1196.2.2 Ergebnisse der Simulationsexperimente . . . . . . . . 123

6.3 Laborexperimente . . . . . . . . . . . . . . . . . . . . . . . . 1386.3.1 Spacecraft Rendezvous Simulator MiPOS . . . . . . . 1386.3.2 Inhalt der Laborexperimente . . . . . . . . . . . . . . 1406.3.3 Ergebnisse der Laborexperimente . . . . . . . . . . . 141

6.4 Fazit der Verifikation . . . . . . . . . . . . . . . . . . . . . . 144

7 Zusammenfassung 1457.1 Erreichte Ziele . . . . . . . . . . . . . . . . . . . . . . . . . . 1457.2 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1477.3 Abschluss und Fazit . . . . . . . . . . . . . . . . . . . . . . . 149

xiv

Page 15: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w

Inhaltsverzeichnis

Anhang A Algorithmische Abläufe 153A.1 Bildauswertung . . . . . . . . . . . . . . . . . . . . . . . . . 153

A.1.1 Bildvorfilterung . . . . . . . . . . . . . . . . . . . . . 153A.1.2 Integralbilderstellung . . . . . . . . . . . . . . . . . . 155A.1.3 Merkmalsdetektion . . . . . . . . . . . . . . . . . . . 155A.1.4 Merkmalsdeskription . . . . . . . . . . . . . . . . . . 157A.1.5 Stereo-Korrespondenzsuche . . . . . . . . . . . . . . 158A.1.6 Datenbank-Korrespondenzsuche . . . . . . . . . . . . 159A.1.7 Ausreißererkennung . . . . . . . . . . . . . . . . . . . 162A.1.8 Merkmalsverwaltung . . . . . . . . . . . . . . . . . . 163

A.2 Geometrierekonstruktion . . . . . . . . . . . . . . . . . . . . 168A.2.1 Stereorekonstruktion . . . . . . . . . . . . . . . . . . 168A.2.2 Triangulation . . . . . . . . . . . . . . . . . . . . . . 171A.2.3 Normalenbestimmung . . . . . . . . . . . . . . . . . 172A.2.4 Segmentierung . . . . . . . . . . . . . . . . . . . . . 173A.2.5 Oberflächenrekonstruktion . . . . . . . . . . . . . . . 177

Anhang B Experimentdaten 179B.1 Simulationsexperimente . . . . . . . . . . . . . . . . . . . . 179B.2 Laborexperimente . . . . . . . . . . . . . . . . . . . . . . . . 192B.3 Experimentelle Ermittlung der Modellkennwerte . . . . . . . 194

Literaturverzeichnis 195

xv

Page 16: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w
Page 17: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w

Abbildungsverzeichnis

1.1 Projektbeispiele für Satellitenservicing . . . . . . . . . . . . 2

2.1 Bekannte Ziele mit künstlichen Landmarken . . . . . . . . . 72.2 Navigationskonzept bei bekannten Zielen . . . . . . . . . . . 82.3 Modellbasierte Objekterkennung bei unkooperativen Zielen . 92.4 Navigationskonzept bei unkooperativen, unbekannten Zielen 102.5 Unbekannte, unkooperative Ziele . . . . . . . . . . . . . . . 112.6 Kamerabasierte Navigation und Rekonstruktion . . . . . . . 132.7 Dreidimensionale Rekonstruktion eines Zielobjektes . . . . . 192.8 Segmentierung einer Punktwolke . . . . . . . . . . . . . . . . 202.9 Rekonstruktionsmöglichkeiten für Oberflächen . . . . . . . . 222.10 Zusammenfügen geometrischer Flächen . . . . . . . . . . . . 232.11 Informationsrückführung der Zustandsschätzung . . . . . . . 24

3.1 Übersicht über das Systemkonzept . . . . . . . . . . . . . . 293.2 Systemgruppe Bildauswertung . . . . . . . . . . . . . . . . . 313.3 Systemgruppe Geometrierekonstruktion . . . . . . . . . . . . 333.4 Systemgruppe Zustandsschätzung . . . . . . . . . . . . . . . 35

4.1 Module der Bildauswertung . . . . . . . . . . . . . . . . . . 394.2 Extraktion interessanter Bildbereiche . . . . . . . . . . . . . 414.3 Erstellung und Auswertung des Integralbildes . . . . . . . . 424.4 Merkmalsdetektion und -deskription durch SURF . . . . . . 434.5 Allgemeiner Ablauf der Korrespondenzsuche . . . . . . . . . 474.6 Stereo-Korrespondenzsuche . . . . . . . . . . . . . . . . . . . 484.7 Landmarken-Korrespondenzsuche . . . . . . . . . . . . . . . 514.8 Ablauf der Datenbank-Korrespondenzsuche . . . . . . . . . . 524.9 Aufbau und Ablauf der Merkmalsverwaltung . . . . . . . . . 574.10 Einfluss der Merkmalsverwaltung . . . . . . . . . . . . . . . 584.11 Module der Zustandsschätzung . . . . . . . . . . . . . . . . 594.12 Konzept des SLAM-Filters . . . . . . . . . . . . . . . . . . . 614.13 Module der Geometrierekonstruktion . . . . . . . . . . . . . 624.14 Dichte Stereorekonstruktion . . . . . . . . . . . . . . . . . . 64

Page 18: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w

Abbildungsverzeichnis

4.15 Berechnung der Punktposition . . . . . . . . . . . . . . . . . 654.16 Schätzung der Oberflächennormalen eines Punktes . . . . . . 684.17 Parameter der geometrischen Primitive . . . . . . . . . . . . 704.18 Punktuell bestimmte Flächenbegrenzungen . . . . . . . . . . 714.19 Ablauf der Oberflächenrekonstruktion . . . . . . . . . . . . . 734.20 Fusion überlappender Flächen . . . . . . . . . . . . . . . . . 744.21 Benachbarte Flächen . . . . . . . . . . . . . . . . . . . . . . 754.22 Einhüllende Flächen eines Zielobjektes . . . . . . . . . . . . 76

5.1 Datenflüsse der Bildvorverarbeitung . . . . . . . . . . . . . . 795.2 Datenflüsse der Integralbilderstellung . . . . . . . . . . . . . 805.3 Datenflüsse der Merkmalsdetektion . . . . . . . . . . . . . . 815.4 Datenflüsse der Merkmalsdeskription . . . . . . . . . . . . . 825.5 Datenflüsse der Stereo-Korrespondenzsuche . . . . . . . . . . 835.6 Datenflüsse der Datenbank-Korrespondenzsuche . . . . . . . 845.7 Datenflüsse der Ausreißererkennung . . . . . . . . . . . . . . 865.8 Datenflüsse der Merkmalsverwaltung . . . . . . . . . . . . . 875.9 Einfluss von Flächenmodell und Bildausschnitt . . . . . . . . 945.10 Einfluss von Landmarken und Datenbanken . . . . . . . . . 965.11 Datenflüsse der Zustandsschätzung . . . . . . . . . . . . . . 995.12 Datenflüsse der Stereorekonstruktion . . . . . . . . . . . . . 1005.13 Datenflüsse der Triangulation . . . . . . . . . . . . . . . . . 1025.14 Datenflüsse der Normalenbestimmung . . . . . . . . . . . . . 1035.15 Datenflüsse der Segmentierung . . . . . . . . . . . . . . . . . 1045.16 Datenflüsse der Oberflächenrekonstruktion . . . . . . . . . . 1065.17 Einfluss von Bilddaten und Punktwolke . . . . . . . . . . . . 1115.18 Einfluss von Flächenmodell und Landmarken . . . . . . . . . 113

6.1 Aufbau der Software-Realisierung (1) . . . . . . . . . . . . . 1176.2 Aufbau der Software-Realisierung (2) . . . . . . . . . . . . . 1186.3 Experimentreihen der Simulationsexperimente . . . . . . . . 1206.4 Bilder der Simulationsszenarien und Ausgangssituation . . . 1226.5 Experiment 1A: Rechendauer der Bildauswertung . . . . . . 1236.6 Experiment 1A: Erkennung und Anzahl von Bildmerkmalen 1246.7 Experiment 1A: Modellrekonstruktion . . . . . . . . . . . . . 1256.8 Experiment 1A: Abweichungen vom Referenzmodell . . . . . 1276.9 Auswertung des Experiments 1B . . . . . . . . . . . . . . . . 1286.10 Auswertung des Experiments 1C . . . . . . . . . . . . . . . . 1306.11 Auswertung des Experiments 1D . . . . . . . . . . . . . . . 131

xviii

Page 19: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w

Abbildungsverzeichnis

6.12 Auswertung des Experiments 1E . . . . . . . . . . . . . . . . 1336.13 Auswertung des Experiments 1F (1) . . . . . . . . . . . . . . 1346.14 Auswertung des Experiments 1F (2) . . . . . . . . . . . . . . 1356.15 Auswertung des Experiments 1G (1) . . . . . . . . . . . . . 1366.16 Auswertung des Experiments 1G (2) . . . . . . . . . . . . . 1376.17 Spacecraft Rendezvous Simulator MiPOS . . . . . . . . . . . 1396.18 Kameratrajektorie der Laborexperimente . . . . . . . . . . . 1406.19 Bilder der Laborexperimente . . . . . . . . . . . . . . . . . . 1416.20 Auswertung des Laborexperiments 1 . . . . . . . . . . . . . 1426.21 Auswertung des Laborexperiments 2 . . . . . . . . . . . . . 143

B.1 Zielsatelliten der Simulationsexperimente . . . . . . . . . . . 179B.2 Bilder der Simulationsszenarien 1 - 3 . . . . . . . . . . . . . 180B.3 Bilder der Simulationsszenarien 4 - 8 . . . . . . . . . . . . . 181B.4 Auswertung Experiment 2A (1) . . . . . . . . . . . . . . . . 182B.5 Auswertung Experiment 2A (2) . . . . . . . . . . . . . . . . 183B.6 Auswertung Experiment 5A (1) . . . . . . . . . . . . . . . . 184B.7 Auswertung Experiment 5A (2) . . . . . . . . . . . . . . . . 185B.8 Auswertung Experiment 7A (1) . . . . . . . . . . . . . . . . 186B.9 Auswertung Experiment 7A (2) . . . . . . . . . . . . . . . . 187B.10 Auswertung Experiment 3A . . . . . . . . . . . . . . . . . . 188B.11 Auswertung Experiment 4A . . . . . . . . . . . . . . . . . . 189B.12 Auswertung Experiment 6A . . . . . . . . . . . . . . . . . . 190B.13 Auswertung Experiment 8A . . . . . . . . . . . . . . . . . . 191B.14 Zielsatelliten der Laborexperimente . . . . . . . . . . . . . . 192B.15 Bilder der Laborexperimente 1 - 2 . . . . . . . . . . . . . . . 193

xix

Page 20: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w
Page 21: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w

Tabellenverzeichnis

5.1 Dauer der Arbeitsschritte der Bildauswertung . . . . . . . . 915.2 Faktoren der Bildauswertung . . . . . . . . . . . . . . . . . . 915.3 Abschätzung der Rechendauer der Bildauswertung . . . . . . 985.4 Dauer der Arbeitsschritte der Geometrierekonstruktion . . . 1085.5 Faktoren der Geometrierekonstruktion . . . . . . . . . . . . 1085.6 Abschätzung der Rechendauer der Geometrierekonstruktion 114

6.1 Experimentplan der Simulationsexperimente . . . . . . . . . 1206.2 Einstellungen für die Simulationsexperimente . . . . . . . . . 1216.3 Szenarien der Simulationsexperimente . . . . . . . . . . . . . 1226.4 Experiment 1A - Rechendauer Bildauswertung . . . . . . . . 1246.5 Experiment 1A - Rechendauer Geometrierekonstruktion . . . 1266.6 Experiment B - Rechendauer Bildverarbeitung . . . . . . . . 1296.7 Experiment C - Rechendauer Datenbank-Korrespondenzsuche 1306.8 Experiment C - Anzahl übergebener Merkmale . . . . . . . . 1306.9 Experiment D - Rechendauer Datenbank-Korrespondenzsuche 1326.10 Experiment D - Anzahl übergebener Merkmale . . . . . . . . 1326.11 Experiment E - Größe der Datenbank DB2 . . . . . . . . . . 1336.12 Experiment E - Rechenzeiten der Merkmalshandhabung . . . 1336.13 Experiment F - Anzahl an Landmarken . . . . . . . . . . . . 1356.14 Experiment F - Rechenzeiten der Merkmalshandhabung . . . 1356.15 Experiment G - Rechendauer Oberflächenrekonstruktion . . 1366.16 Experiment G - Orientierungsfehler . . . . . . . . . . . . . . 1376.17 Experiment G - maximaler Abstand . . . . . . . . . . . . . . 137

B.1 Zielsatelliten der Simulationsexperimente . . . . . . . . . . . 180B.2 Experiment 2A - Rechendauer Bildauswertung . . . . . . . . 182B.3 Experiment 2A - Rechendauer Geometrierekonstruktion . . . 182B.4 Experiment 5A - Rechendauer Bildauswertung . . . . . . . . 184B.5 Experiment 5A - Rechendauer Geometrierekonstruktion . . . 184B.6 Experiment 7A - Rechendauer Bildauswertung . . . . . . . . 186B.7 Experiment 7A - Rechendauer Geometrierekonstruktion . . . 186B.8 Experiment 3A - Rechendauer Bildauswertung . . . . . . . . 188

Page 22: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w

Tabellenverzeichnis

B.9 Experiment 4A - Rechendauer Bildauswertung . . . . . . . . 189B.10 Experiment 6A - Rechendauer Bildauswertung . . . . . . . . 190B.11 Experiment 8A - Rechendauer Bildauswertung . . . . . . . . 191B.12 Zielsatelliten der Laborexperimente . . . . . . . . . . . . . . 192B.13 Laborexperiment 1 - Durchschnittliche Rechendauer . . . . . 193B.14 Laborexperiment 2 - Durchschnittliche Rechendauer . . . . . 193B.15 Kennwerte der Simulationsszenarien . . . . . . . . . . . . . . 194

xxii

Page 23: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w

Symbol- und AbkürzungsverzeichnisAbkürzungen2D / 3D zwei- / dreidimensionalAOCS Attitude and Orbit Control SystemBRISK Binary Robust Invariant Scalable KeypointsEKF Extended Kalman FilterEPOS European Proximity Operations SimulatorFPGA Field Programmable Gate ArrayFREAK Fast Retina KeypointGNC Guidance, Navigation and ControlLVLH Local Vertical Local HorizontalMiPOS Mini Proximity Operation SimulatorRANSAC Random Sample ConsensusROI Region of InterestSIFT Scale Invariant Feature TransformSLAM Simultaneous Localization and MappingSURF Speeded Up Robust Features

BezeichnerAWL Auswahlliste zur Weitergabe präferierter BildmerkmaleDB1 Korresp.-Datenbank mit Bildmerkmalen des vorherigen BildesDB2 Korresp.-Datenbank mit Bildmerkmalen früherer BilderDDM Korrespondenzsuchtoleranz Deskriptordifferenzen-MaximumDDV Korrespondenzsuchtoleranz Deskriptordifferenzen-VerhältnisFSF Ausreißererkennungsfaktor Flussvektor-SicherheitsfaktorFVF Ausreißererkennungsfaktor Flussvektor-VergrößerungsfaktorMDB Merkmalsdatenbank zur Verwaltung aller Bildmerkmale

MengenB BildmerkmaleC SegmenteI BilddatenL LandmarkenP PunktwolkeS Oberflächenmodell

Page 24: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w

Tabellenverzeichnis

Allgemeine SymboleC Kamera-KoordinatensystemT Ziel-Koordinatensystemb Abstand zwischen den Kameras eines Stereo-Kamerasystemsf Brennweite einer KameraCIi Kamera des Kamerasystems, i = 1,2, . . .aC Sichtrichtung einer KamerapC 3D-Raumkoordinaten des Zentrums einer Kamerak ZeitpunktSymbole mit Bezug auf BilddatenIi,k Bilddaten der Kamera CIi, i = 1,2, . . .IInIm,k IntegralbildIROImask,k BildmaskeIROIregion,k Bildausschnitt, Größe: (∆uROI ×∆vROI)Ii,rekt,k rektifiziertes Bild der Kamera CIi, i = 1,2, . . .DSIk DisparitätsraumvolumenDk Skalenraumkarte mit FilterantwortenDintn,k Antwortkarte mit Filterantworten einer spezifischen Skaledmin Mindestwert für Detektions-Filterantwortdu,v,s einzelne Filterantwort im Skalenraum; DetektionsstärkeE(∆U) Energiefunktion der StereorekonstruktionE(u, v,∆u) Energiewert der Stereorekonstruktion für ein BildpixelHk Skalenraumkarte der Laplace-VorzeichenIu,v,k einzelnes BildpixelMCk Kostenmatrix der Stereorekonstruktions Skale im Skalenraum(u,v) Koordinaten eines Bildpixels(UI × VI) ursprüngliche Größe eines Kamerabildes Ik[∆u] Disparitätsintervall; [∆u] = [∆umin; ∆umax]∆U k Disparitätsbild∆uu,v,k Disparität eines Bildpixelsumin, umax minimale/maximale horizontale Koordinate des Bildausschnittsvmin, vmax minimale/maximale vertikale Koordinate des BildausschnittsSymbole mit Bezug auf BildmerkmaleBI,k detektierte Bildmerkmale, allgemeinBIi,k in Bild Ii,k detektierte Bildmerkmale, i = 1,2, . . .Bk aktuell vom System detektierte BildmerkmaleBDBi,k Bildmerkmale in Datenbank DBi, i = 1,2

xxiv

Page 25: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w

Tabellenverzeichnis

B×K1,k Bildmerkmale mit Korrespondenz in DB1BK1,k von Ausreißern bereinigte Bildmerkmale aus B×K1,kBK2,k Bildmerkmale mit Korrespondenz in DB2BAWL,k Bildmerkmale der Auswahlliste AWLBL,k an die Zustandsschätzung übergebene BildmerkmaleB...,k Bildmerkmale für die Korrespondenz-BildpositionsprüfungB?...,k Bildmerkmale für den Korrespondenz-DeskriptorvergleichB...,k Bildmerkmale ohne Korrespondenz in DB1B...,k Bildmerkmale ohne Korrespondenz in DB1 oder Lk,k−1AWLmax Maximalgröße der Auswahlliste AWLdB Deskriptorvektor eines Bildmerkmals∆d euklidischer Abstand zwischen zwei DeskriptorvektorenDB2max Maximalgröße der Datenbank DB2DB2min Mindestgröße für DB2 nach Bereinigung der DatenbankD Bewertungskriterium DetektionsstärkedB Detektionsstärke eines BildmerkmalshB Laplace-Vorzeichen eines BildmerkmalsK Bewertungskriterium KonstanzkA, kE Start- und Endzeitpunkt der aktuellen SichtungsperiodeNF Bewertungskriterium Anzahl der WeitergabenNP Anzahl der Sichtungen innerhalb der aktuellen SichtungsperiodeNS Bewertungskriterium Anzahl der SichtungenoB Orientierung eines BildmerkmalspB Bildkoordinaten eines Bildmerkmals; pB = (uB,I ,vB,I)T

ppred erwartende Bildposition eines möglichen Korrespondenzpartners∆p Positionsdifferenz zweier Bildmerkmalspunkte∆pDBi max Bildsuchbereich für Korrespondenzsuche in DBi, i = 1,2∆pDKS max Bildsuchbereich für Landmarken-Korrespondenzsuche∆pSKS max Bildsuchbereich für Stereokorrespondenzsuche∆pK1i,k

Flussvektor eines Bildpunktes zwischen Zeitpunkt k − 1 und k∆pK1,k Mittelwert der Flussvektoren aller Bildmerkmale aus B×K1,kRB MerkmalsbewertungsB Merkmalsgröße / Skale eines BildmerkmalsV Bewertungskriterium NachbarschaftsverteilungWGmax Maximalanzahl zu übergebender MerkmaleWGmin geforderte Mindestanzahl zu übergebender MerkmalewD Wichtungsfaktor für Bewertungskriterium DwF Wichtungsfaktor für Bewertungskriterium NF

xxv

Page 26: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w

Tabellenverzeichnis

wK Wichtungsfaktor für Bewertungskriterium KwS Wichtungsfaktor für Bewertungskriterium NSwV Wichtungsfaktor für Bewertungskriterium V(xB,yB) metrische Koordinaten eines Merkmals auf der BildebeneSymbole mit Bezug auf PunktePk erzeugte PunktwolkeCk segmentierte PunktgruppebP Beobchtungsvektor eines PunktesnP Schätzung der Oberflächennormale eines PunktespP 3D-Raumkoordinaten eines Punktes; pP = (xP , yP , zP)T

pS Schwerpunkt einer PunktgruppePC einer Punktgruppe zugeordnete PunkteZmax maximale erlaubte Entfernung zwischen Punkt und KameraSymbole mit Bezug auf LandmarkenLk geschätzte LandmarkenLk,k−1 für den aktuellen Zeitpunkt vorhergesagte LandmarkenpB,L,Ii Bildkoordinaten einer Landmarke in Bild Ii,k, i = 1,2ΣP,L Positionsunsicherheit eines LandmarkenpunktesSymbole mit Bezug auf FlächenSk rekonstruierte FlächenSk,k−1 für den aktuellen Zeitpunkt vorhergesagte ModellflächenS•k Flächenmodell vor Verarbeitung der FlächennachbarschaftenS?k aktuelles Flächenmodell vor Fusion mit früherem ModellS×k Hüllflächen der GrobmodellierungΓ Beschreibungsparametersatz einer Flächeεα, εd Abweichung der Lage bzw. Abstand von der Referenzflächeε..., α... Toleranzen für Abstand/Normalenrichtung bei SegmentierungεL,near Toleranz für Abstand bei LandmarkenzuordnungenεS , αS Toleranzen für ähnliche (simil) oder benachbarte (inter) Flächenεmax, αtol Toleranzen für Abstand/Normalenrichtung für NachbarschaftenLMmin erforderliche Anzahl bei LandmarkenzuordnungenNNB,min Mindestanzahl für Nachbarpunkte bei NormalenbestimmungΦ Formparametersatz einer FlächeΦCon Parameter eines Kegel-Primitivs; ΦCon = (pCon,aCon, wCon)T

ΦCyl Parameter eines Zylinder-Primitivs; ΦCyl = (pCyl,aCyl, rCyl)T

ΦPla Parameter eines Ebenen-Primitivs; ΦPla = (pPla,nPla)T

ΦSph Parameter eines Kugel-Primitivs; ΦSph = (pSph, rSph)T

pref,nref Punkt / Normale (bzw. Achse aref) der Referenzfläche

xxvi

Page 27: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w

Tabellenverzeichnis

PS Begrenzungspunkte einer FlächePτ Wahrscheinlichkeit: alle Primitive sind bereits extrahiertPexist,min Wahrscheinlichkeit: Primitiv existiert in PunktwolkepP,S 3D-Raumkoordinaten eines Begrenzungspunktesr...,max maximal erlaubter Radius für Kugel / ZylinderwCon,min minimal erlaubter Öffnungswinkel für KegelSymbole mit Bezug auf kinematische Zuständexk relative kinematische Zustände des Zielobjektesωrel relative Drehrate des Zielesqrel relative Lage des Zielessrel relative Position des Zielesvrel relative Geschwindigkeit des Zielesathruster durch Aktoren hervorgerufene Beschleunigung des Service-Satellitenqchaser Lage des Service-Satelliten im InertialsystemΩ Orbitalkreisfrequenz des Service-Satelliten

Modellierung der RechenzeitSymbole mit Bezug auf Anteilsfaktorena×K1, aKi Verhältnis zw. Korrespondenz- und Merkmalsanzahl, i = 1,2aL Anteil der übergebenen MerkmaleaN,over Verhältnis zwischen übervoller und durchschnittlicher AWLaAWLAA Anteil der zur AWL hinzuzufügenden MerkmaleaAWLAD Anteil der Zyklen mit Hinzufügen von AWL-ElementenaAWLAP Anteil der die AWL vergrößernde MerkmaleaAWLRM Anteil der Zyklen mit Löschen von AWL-ElementenaDBRA Anteil der Zyklen mit Bewertung von MDB-MerkmalenaDBRM Anteil der Zyklen mit Löschen von MDB-MerkmalenaBV Anteil der Flächenpaarungen mit BegrenzungenverbesserungaCP Anteil der Punkte eines Segmentes an GesamtpunktwolkeaCON, aCYL Anteil der Segm.-durchläufe mit voller Berechnung des PrimitivsaSPH Anteil der Segm.-durchläufe mit voller Berechnung des PrimitivsaFF Anteil der sich ähnelnden FlächenpaarungenaGR Verhältnis zwischen Segment- und FlächenanzahlaLE Anteil der einer Fläche zugeordneten LandmarkenaPFZ Anteil der Punkte, die einer Fläche Sk,k−1 zugeordnet wurdenaPI Anteil der zur Weiterverarbeitung ausgewählten PixelaPNB Anteil der Punkte innerhalb der PunktnachbarschaftaPU Anteil der Segm.-durchläufe mit Übernahme eines PrimitivsaSEG Verhältnis zw. Segment.-durchläufen und Punktwolkengröße

xxvii

Page 28: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w

Tabellenverzeichnis

a...,k Anteil verbliebener Bildmerkmale für die Bildpositionsprüfunga?...,k Anteil verbliebener Bildmerkmale für den DeskriptorvergleichaM,k, a

N,k Anteil verbl. Merkmale/Landmarken nach Korr.-suche mit BDB1,k

aM,k Anteil verbl. Merkmale nach Korr.-suche mit BDB1,k und Lk,k−1aN,k Anteil der Landmarken mit Korrespondenz in DB2a4N,k Anteil verbl. Landmarken nach OberflächennormalenprüfungSymbole mit Bezug auf AnzahlenGk Anzahl der Punktgruppen CkMk Anzahl der aktuell detektierten Bildmerkmale BkMAWL,k Anzahl der in der Auswahlliste AWL enthaltenen BildmerkmaleMDBi,k Anzahl der Bildmerkmale in Datenbank DBi, i = 1,2MIi,k Anzahl der in Bild Ii,k detektierten Merkmale BIi,k, i = 1,2, . . .M×

K1,k Anzahl der Bildmerkmale mit Korrespondenz in DB1MK1,k Anzahl der bereinigten Korrespondenzen zu DB1MK2,k Anzahl der Bildmerkmale mit Korrespondenz in DB2ML,k Anzahl der an den Zustandsschätzer übergebenen Merkmale BL,kNk Anzahl der geschätzten Landmarken LkPk Anzahl der Punkte in der Punktwolke PkPCg ,k Anzahl der zu Segment Cg,k zugeordneten PunktePn,NB,k Anzahl der Punkte innerhalb der Nachbarschaft eines PunktesPSp,k Anzahl der Begrenzungspunkte der Fläche Sp,kRk Anzahl der rekonstruierten Flächen im Modell SkG durchschnittliche Anzahl an PunktgruppenMI ,MDB2 durchschnittliche Anzahl an MerkmalenN durchschnittliche Anzahl an LandmarkenP , P S durchschnittliche Anzahl an Punkten / BegrenzungspunktenR durchschnittliche Anzahl rekonstruierter FlächenM

...,k Anzahl der Bildmerkmale für die BildpositionsprüfungM?

...,k Anzahl der Bildmerkmale für den DeskriptorvergleichM

k , Nk−1 Anzahl der Merkmale/Landmarken nach Korr.-suche mit BDB1,k

M...,k Anzahl der Merkmale nach Korr.-suche mit BDB1,k und Lk,k−1

Nk−1 Anzahl der Landmarken mit Korrespondenz in DB2N4k−1 Anzahl der Landmarken nach Prüfung der OberflächennormalenSymbole mit Bezug auf ZeitenTBA Berechnungsdauer der BildauswertungTGR Berechnungsdauer der GeometrierekonstruktionTZS Berechnungsdauer der ZustandsschätzungT...,DB2 durch Datenbank DB2 beeinflusster Anteil der Dauer

xxviii

Page 29: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w

Tabellenverzeichnis

T...,I durch Bilddaten beeinflusster Anteil der DauerT...,L durch Landmarken beeinflusster Anteil der DauerT...,P durch Punktwolke beeinflusster Anteil der DauerT...,ROI durch Bildausschnitt beeinflusster Anteil der DauerT...,S durch Flächenmodell beeinflusster Anteil der DauerTARE Zeitdauer für die Ausführung der AusreißererkennungTBVF Zeitdauer für die Ausführung des BildvorfiltersTDKS Zeitdauer für die Ausführung der Datenbank-KorrespondenzsucheTIBE Zeitdauer für die Ausführung der IntegralbilderstellungTMDS Zeitdauer für die Ausführung der MerkmalsdeskriptionTMDT Zeitdauer für die Ausführung der MerkmalsdetektionTMVW Zeitdauer für die Ausführung der MerkmalsverwaltungTNBE Zeitdauer für die Ausführung der NormalenbestimmungTREK Zeitdauer für die Ausführung der OberflächenrekonstruktionTSEG Zeitdauer für die Ausführung der SegmentierungTSKS Zeitdauer für die Ausführung der Stereo-KorrespondenzsucheTSRE Zeitdauer für die Ausführung der StereorekonstruktionTTRI Zeitdauer für die Ausführung der TriangulationSymbole mit Bezug auf Elementarzeiten∆TAREAP Zeitdauer der Ausreißerprüfung; je Korrespondenz∆TAREMB Zeitdauer der Berechnung des Mittelwertes; je Korrespondenz∆TBVFBA Zeitdauer der Prüfung der Bildposition eines 2D-Punktes∆TBVFBM Zeitdauer der Prüfung des Flächeninhaltes einer Fläche∆TBVFPB Zeitdauer der Projektion eines 3D-Punktes auf die Bildebene∆TIBE Zeitdauer der Erstellung eines Integralbildpixels∆TKSDS Zeitdauer des Vergleichs der Deskriptoren zweier Merkmale∆TKSNP Zeitdauer der Prüfung der Normalenrichtung einer Landmarke∆TKSPS Zeitdauer des Vergleichs der Bildpositionen zweier Merkmale∆TKSSB Zeitdauer der Berechnung des Landmarken-Suchbereiches∆TKSVZ Zeitdauer des Laplace-Vorzeichen-Vergleichs zweier Merkmale∆TMDSDB Zeitdauer der Deskriptorbestimmung eines Bildmerkmals∆TMDSKK Zeitdauer der Anpassung der Bildposition eines Merkmals∆TMDSOB Zeitdauer der Orientierungsbestimmung eines Merkmals∆TMDTDI Zeitdauer der Untersuchung des Skalenraumes; je Bildpixel∆TMDTKS Zeitdauer der Konstruktion des Skalenraumes; je Bildpixel∆TMDTME Zeitdauer der Erstellung eines Merkmals∆TMVWAA Zeitdauer der Erweiterung der AWL um ein Bildmerkmal∆TMVWAD Zeitdauer des Hinzufügens eines Merkmals zu einer Datenbank

xxix

Page 30: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w

Tabellenverzeichnis

∆TMVWAP Zeitdauer der Prüfung, ob Merkmal zu AWL hinzugefügt wird∆TMVWRA Zeitdauer der Merkmalsbewertung; je Bildmerkmal∆TMVWRM Zeitdauer des Entfernens eines Merkmals aus einer Datenbank∆TMVWsort Zeitdauer des Sortierens einer Datenbank; ∆TMVWsort = f(M)∆TMVWTA Zeitdauer der Prüfung, ob ein Merkmal der AWL ersetzt wird∆TMVWUP Zeitdauer des Aktualisierens der Statistiken eines Merkmals∆TMVWWG Zeitdauer der Prüfung, ob ein Bildmerkmal weitergereicht wird∆TNBEFN Zeitdauer der Übernahme der Normale einer Fläche; je 3D-Punkt∆TNBEFP Zeitdauer des Flächenzugehörigkeitsprüfung; je 3D-Punkt∆TNBENB Zeitdauer der Prüfung auf eine Punktnachbarschaft; je 3D-Punkt∆TREKAB Zeitdauer der Bestimmung der äußeren Begrenzung; je Fläche∆TREKAP Zeitdauer der Ähnlichkeitsprüfung zweier Flächen; je Paarung∆TREKBV Zeitdauer der Verbesserung der Flächenbegrenzung; je Fläche∆TREKFF Zeitdauer der Fuson zweier ähnlicher Flächen; je Paarung∆TREKfit Zeitdauer des Einpassens in eine Punktmenge; ∆TREKfit = f(P )∆TREKIB Zeitdauer der Bestimmung der inneren Begrenzung; je Fläche∆TREKLP Zeitdauer der Flächenzugehörigkeitsprüfung; je Landmarke∆TREKNP Zeitdauer der Nachbarschaftsuntersuchung einer Flächenpaarung∆TSEGAT Zeitdauer der Prüfung der RANSAC-Abbruchbedingungen∆TSEGBA Zeitdauer der Untersuchung aller aktuell vorhandenen Primitive∆TSEGCON Zeitdauer der Erstellung eines Kegel-Primitivs∆TSEGCYL Zeitdauer der Erstellung eines Zylinder-Primitivs∆TSEGPLA Zeitdauer der Erstellung eines Ebenen-Primitivs∆TSEGPU Zeitdauer der Erstellung eines Segmentes aus einem Primitiv∆TSEGSPH Zeitdauer der Erstellung eines Kugel-Primitivs∆TSREAP Zeitdauer der Pfadaggregation; je Pixel, je Disparitätswert∆TSRECT Zeitdauer der Census-Transformation; je Bildpixel∆TSREDI Zeitdauer der Interpolation eines Disparitätswertes∆TSREHB Zeitdauer der Auswertung des hor. Baums; je Pixel, je Disparität∆TSREHD Zeitdauer der Hamming-Distanz-Berechnung; je Paarung∆TSREMS Zeitdauer der Minimumsuche im DSI; je Pixel, je Disparität∆TSREPE Zeitdauer der Baum-Pfaderstellung; je Pixel, je Disparitätswert∆TSREVB Zeitdauer der Auswertung des vert. Baums; je Pixel, je Disparität∆TTRIPE Zeitdauer der Erstellung eines 3D-Punktes∆TTRIZB Zeitdauer der Berechnung der 3D-Punktkoordinate; je Bildpixel

xxx

Page 31: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w

1 Einleitung

Mit zunehmender Nutzung des Weltraums, etwa durch den vermehrten Ein-satz von Navigations-, Telekommunikations- und Wettersatelliten, aber auchdurch neue bemannte und unbemannte Forschungs- und Erkundungsmissio-nen in unserem Sonnensystem, steigt die Anzahl der in den Weltraum undden Erdorbit entsandten Satelliten und Raumfahrtsysteme.

Neben Systemausfällen, Bauteilversagen, Kollisionen oder Fehlfunktionen,die trotz aller getroffener Vorkehrungen immer wieder vorkommen können,führt auch das Lebenszeitende, das heißt erschöpfte Treibstoffreserven odernicht aufladbare Energievorräte eines Satelliten dazu, dass dieser nicht mehreinsatzfähig und somit faktisch Weltraumschrott ist. Ereignet sich dies vorEnde der nominellen Mission, so ergibt sich meist nicht nur ein finanziellerSchaden, sondern auch die potenzielle Gefährdung weiterer Satelliten.

In jüngster Vergangenheit wurden verschiedene Raumfahrtprogramme insLeben gerufen, deren Ziel ein Rendezvous- und Dockingmanöver mit einemsolchen Satelliten ist, um diesen zu warten, zu reparieren, aufzutanken, seinePositions- und Lagekontrolle zu übernehmen oder ihn zu entsorgen, indemman gezielt seine Flugbahn so ändert, dass er in der Erdatmosphäre verglüht.Während der Annäherung an den unter Umständen defekten und nicht

kooperativen Zielsatelliten sind, um eine Kollision mit diesem zu verhindern,genaue Daten über das Ziel – dessen Position, Lage, Geschwindigkeit unddessen Form – notwendig. Besondere Herausforderungen ergeben sich jedoch,wenn es sich hierbei nicht um eine spezifische Mission handelt und das Zielals unbekannt angenommen werden muss.

1.1 Motivation: Autonome Rendezvous-Navigation

Die Menge des im Erdorbit befindlichen Weltraumschrotts muss in denkommenden Jahren gezielt reduziert werden, indem besonders massereiche,ausgediente Satelliten aus der Umlaufbahn entfernt werden. Ohne eine der-artige Aufräumaktion kann es durch Kollisionen zu einem explosionsartigenAnstieg der Anzahl an Schrottpartikeln kommen, wodurch immer mehr Raum-fahrzeuge beschädigt werden. [Wie+12]

1

Page 32: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w

1 Einleitung

Eine Vermeidung von Weltraumschrott kann dagegen z. B. durch lebens-verlängernde Maßnahmen für Satelliten erreicht werden. Die erhöhte Nut-zungszeit dieser Systeme verzögert den Einsatz von Nachfolgeexemplaren undermöglicht somit auch eine Kostenersparnis. Anwendung soll dieses Prinzipbeim Orbital Life Extension Vehicle (OLEV ) finden: die Service-Plattformdockt an Satelliten an, deren Treibstoff aufgebraucht ist, die technisch jedocheinwandfrei funktionieren, und übernimmt deren Positions- und Lageregelungfür weitere Jahre. [Sel+10]Das als On-Orbit Servicing bezeichnete Vorgehen, bei dem im All ein

Rendezvous und Docking sowie eine anschließende Dienstleistung am Zielsa-telliten stattfinden, gerät mehr und mehr in den Blickpunkt der Raumfahrt.Um die Sicherheit von Astronauten nicht zu gefährden und die Notwendigkeitder Kommunikation mit Bodenstationen zu umgehen, werden vor allem (teil-)autonome Systeme entwickelt, die selbsttätig derartige Operationen durchfüh-ren sollen. Mit der Deutschen Orbitalen Servicing-Mission (kurz: DEOS) wirddas Einfangen eines unkooperativen und taumelnden Satelliten mit einemManipulatorarm sowie die Inspektion, Wartung und das De-Orbiting des Ziel-satelliten beabsichtigt [WRS12] [SSB10] (siehe Abbildung 1.1). Das ProjektINVERITAS (Innovative Technologien zur Relativnavigation und Capturemobiler autonomer Systeme) beinhaltete die Entwicklung einer bildgestütztenNavigation für ein Rendezvous mit einem unkooperativen Ziel. [SW12]

Abbildung 1.1: Projektbeispiele für Satellitenservicing. a) Die Deutsche Orbi-tale Servicing-Mission (DEOS) umfasst das Bergen, die Wartung und dasDe-Orbiting unkooperativer Satelliten [WRS12]; b) Das Projekt INVERITASwidmet sich der bildgestützten Nahbereichsnavigation beim Rendezvous [SW12].

Bei einem Rendezvous nähert sich das kameratragende System – der servicerbzw. chaser – gezielt dem Zielsatelliten – allgemein Ziel bzw. Zielobjekt,target oder client. Unterstützt dieser das Manöver weder durch Signale oderKommunikation noch durch eigene Aktionen, so gilt er als unkooperativ.

2

Page 33: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w

1.2 Übersicht über den Inhalt der Arbeit

Um ein Rendezvous- und Dockingmanöver durchzuführen, ist es notwendig,zu erkennen, wo sich das Ziel relativ zum Service-Satelliten befindet und wiees sich bewegt. Diese als Relativnavigation bekannte Aufgabe wird zusätzlicherschwert, wenn das Ziel unbekannt ist, d. h. a priori keine Informationenzu diesem vorliegen. Eine Kollisionsvermeidung ist jedoch nur dann mög-lich, wenn auch die Form des Zieles bekannt ist. Die Bestimmung all dieserInformationen basiert in dieser Arbeit allein auf den Bilddaten eines Kame-rasystems. Algorithmen für die Auswertung der Bilder (Bildauswertung), fürdie Ermittlung der kinematischen Zustände des Zieles (Zustandsschätzung)und für die Bestimmung der Zielform (Geometrierekonstruktion) werden zueinem System zusammengefasst, das die gegebene Aufgabe lösen kann.Die quantitative Modellierung bestimmter Verhaltenseigenschaften dieses

Navigationssystems erlaubt es, verschiedene Entwurfsalternativen zu bewertenund durch eine gezielte Wahl von Systemparametern zu optimieren.

1.2 Übersicht über den Inhalt der Arbeit

Das Ziel dieser Arbeit ist die Entwicklung eines Systemkonzeptes für die kame-rabasierte Rendezvous-Navigation mit einem unbekannten, unkooperativenZielobjekt. Um dies zu erreichen, werden Algorithmen in das Navigationssys-tem integriert, mit denen – ohne a priori Wissen – Bilddaten ausgewertet,kinematische Zustände geschätzt und die dreidimensionale Form des Zielob-jektes rekonstruiert werden können. Durch eine geeignete Zusammenstellungder Algorithmen und durch den konsequenten Datenaustausch zwischen die-sen können die Systemeigenschaften Rechengeschwindigkeit, Genauigkeit undRobustheit gegenüber bekannten Ansätzen verbessert werden. Die Modellie-rung von Verhaltenseigenschaften der Algorithmen und ihres Zusammenspielsinnerhalb des Systems ermöglicht die Beurteilung der Systemleistung underleichtert Entscheidungen bezüglich Änderungen des Navigationssystems.Für die vorliegende Arbeit ergibt sich damit folgender Aufbau:

Kapitel 2 – Stand der Technik und eigene BeiträgeEin Überblick über Missionen und Systeme für die Rendezvous-Navigationvon Raumfahrzeugen ermöglicht es, Defizite existierender Ansätze zu analy-sieren und Anforderungen für einen eigenen Lösungsweg auszuarbeiten. Mitdiesen Grundlagen kann ein verallgemeinertes Systemkonzept für Rendezvous-und Docking-Manöver mit unbekannten, unkooperativen Zielen eingeführtwerden. Mögliche Methoden für dessen Realisierung werden vorgestellt und

3

Page 34: I ud q n V f k q lw} h u H lq V | v wh p d q v d w} } x u ... · Q d wlr q d oe le olr j ud ilh > g h wd loh g e le lr j ud s lf g d wd lv d y d lod e oh lq wk h lq wh uq h w d w

1 Einleitung

deren jeweilige Beschränkungen aufgeführt, bevor schließlich die gewählteHerangehensweise und die eigenen Beiträge präsentiert werden.

Kapitel 3 – SystemkonzeptAufbau und Zusammenstellung des Ansatzes mit den Systemgruppen Bildaus-wertung, Zustandsschätzung und Geometrierekonstruktion werden vorgestellt.Ohne detailliert auf die zugrunde liegenden Algorithmen einzugehen, werdenderen Schnittstellen und wichtige Datenflüsse aufgezeigt.

Kapitel 4 – AlgorithmenDas Navigationssystem – bestehend aus der Verarbeitung von Bilddaten,der Verwaltung der darin detektierten Bildmerkmale, der Schätzung derkinematischen Zustände des Zielobjektes sowie der Schätzung der Positionenbeobachteter, natürlicher Landmarken und der Rekonstruktion der Form desZieles – lässt sich in Module unterteilen, die jeweils die einzelnen Verarbei-tungsschritte repräsentieren. Für jedes Modul werden die durchzuführendenAlgorithmen sowie Ein- und Ausgangsdaten und Möglichkeiten für die syste-matische Nutzung von Informationsrückführungen beschrieben.

Kapitel 5 – Metrikbasierte ModellierungFür alle Algorithmen des Ansatzes werden Metrikmodelle entwickelt. Mitdiesen ist es möglich, die Eigenschaften und das Verhalten aller Module (indieser Arbeit speziell das Zeitverhalten) zu beschreiben und das Zusammen-spiel innerhalb der drei Systemgruppen und im Gesamtsystem nachzubilden.Das entstehende Modell kann schließlich zur Gesamtoptimierung aller Verar-beitungsschritte genutzt werden.

Kapitel 6 – Test und VerifikationDie Umsetzung des erarbeiteten Konzeptes erfolgt durch eine rein softwa-retechnische Realisierung. Der Nachweis der Leistungsfähigkeit des Naviga-tionssystems wird durch Simulations- und Laborexperimente erbracht, mitdenen die Algorithmen unter verschiedenen Voraussetzungen getestet undverifiziert werden.

Kapitel 7 – ZusammenfassungZum Abschluss werden die erreichten Ergebnisse zusammengefasst, offeneProblemstellungen aufgezeigt und Ausblicke auf weiterführende Arbeitengegeben.

4