146
ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf DAI-Labor der Technische Universität Berlin, Franklinstrasse 28/29, 10587 Berlin, Germany [email protected]

ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

  • Upload
    others

  • View
    16

  • Download
    0

Embed Size (px)

Citation preview

Page 1: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

ENHANCED USER INTERFACE AND PERVASIVE COMPUTING

Technical Report

des DAI-Labors der Technischen Universität Berlin

Jens Wohltorf

DAI-Labor der Technische Universität Berlin, Franklinstrasse 28/29, 10587 Berlin, Germany

[email protected]

Page 2: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf
Page 3: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

VORWORT

Das hier vorliegende Dokument ist innerhalb eines Kompaktseminars der Deutschen Telekom AG in Kooperation mit dem Fachgebiet „Agententechnologie in Betrieblichen Anwendungen und der Telekommunikation“ der Technischen Universität Berlin im Sommersemester 2004 entstanden. Das Seminar trug den Titel „Dienste und Anwendungen in der Telekommunikati-on und Informationstechnologie“.

Für das Kompaktseminar wurden zu den beiden Hauptthemenfelder „Enhanced User Interface and Pervasive Computing“ drei bzw. vier Unterthemen gebildet und als wissenschaftliche Ausarbeitung an die Studierenden verteilt. Diese 7 Themenfelder markieren die Kapitel dieses Berichts. Die Ausarbeitungen wurden abschließend während eines ganztägigen Kompaktse-minars von den Autoren präsentiert.

Die nachfolgenden Kapitel entstammen hauptsächlich den wissenschaftlichen Ausarbeitungen von Veit Schwartze, Christian Scheel, Marziyeh Kangarlou, Danuta Ploch, Adam Musial, Alexandre Fiveg, Ngoc Nam Nguyen, Hans Wegner, Elena Antonenko, Thomas Kaschwig, Erdene-Ochir Tuguldur, Thorsten Rimkus und Jan Stender. Weiter Informationen sind auf den Webseiten des DAI-Labors der Technischen Universität zu finden.

Jens Wohltorf Berlin, 29. Oktober 2004

Page 4: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf
Page 5: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

INHALTSVERZEICHNIS

VORWORT...................................................................................................................... III

INHALTSVERZEICHNIS................................................................................................ V

ABBILDUNGSVERZEICHNIS ...................................................................................... IX

TABELLENVERZEICHNIS ........................................................................................ XIII

1 USABILITY ............................................................................................................... 15 1.1 Richtlinien der Usability.................................................................................... 16

1.1.1 ISO 9241-10 Grundsätze der Dialoggestaltung........................................... 17 1.1.2 ISO 9241-11 Gebrauchstauglichkeit ........................................................... 20

1.2 Usability Engineering........................................................................................ 21 1.2.1 Human-Centred Design Process.................................................................. 22 1.2.2 Test-Methoden............................................................................................. 23

1.3 Benutzerführung ................................................................................................ 24 1.3.1 Dialogdesign................................................................................................ 24 1.3.2 Interaktionsformen ...................................................................................... 26 1.3.3 Die bekanntesten Web-Regeln .................................................................... 26 1.3.4 Usability-Defizite ........................................................................................ 27

1.4 Authentifizierungsmethoden ............................................................................. 28 1.4.1 Nichtbiometrische Authentikation............................................................... 28 1.4.2 Biometrische Authentikation....................................................................... 29

1.5 Bimetrische Systeme ......................................................................................... 29 1.5.1 Funktionsweise eines biometrischen Systems............................................. 30 1.5.2 Arten biometrischer System ........................................................................ 31

1.6 Fazit und Ausblick............................................................................................. 37

2 AUGMENTED REALITY......................................................................................... 39 2.1 Definition und Ursprung.................................................................................... 40 2.2 Anwendungsgebiete .......................................................................................... 41

2.2.1 Medizin........................................................................................................ 42 2.2.2 Militär .......................................................................................................... 43 2.2.3 Entertainment .............................................................................................. 43 2.2.4 Technische Anwendungen........................................................................... 44 2.2.5 Virtuelle Videokonferenzen ........................................................................ 45 2.2.6 Mobile Dienste ............................................................................................ 46

2.3 Technische Aspekte........................................................................................... 47 2.3.1 Verbinden von realer und virtueller Welt.................................................... 48 2.3.2 Interaktion in der Augmented Reality ......................................................... 53

2.4 Futuristische Einblicke ...................................................................................... 56 2.4.1 Beispiele zukünftiger Anwendungsgebiete ................................................. 56

Page 6: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

2.5 Fazit und Ausblick............................................................................................. 58

3 HAPTIC COMPUTING............................................................................................. 59 3.1 Definitionen....................................................................................................... 60

3.1.1 Haptik .......................................................................................................... 60 3.1.2 Virtuelle Realität ......................................................................................... 60 3.1.3 Force Feedback............................................................................................ 61 3.1.4 Haptische Interaktion................................................................................... 61 3.1.5 Cybernaut .................................................................................................... 61

3.2 Anatomie ........................................................................................................... 61 3.2.1 Tastsinn........................................................................................................ 61 3.2.2 Der Sehsinn ................................................................................................. 63

3.3 Haptische Geräte................................................................................................ 63 3.3.1 Spacemouse ................................................................................................. 64 3.3.2 Eye- und Headtracking ................................................................................ 65 3.3.3 PHANToM .................................................................................................. 65 3.3.4 Cybergrasp................................................................................................... 67

3.4 Anwendungen.................................................................................................... 68 3.4.1 Anwendung in der Telekommunikation als Erweiterung des Telefons ...... 68 3.4.2 Anwendung in der medizinischen Teleoperration....................................... 69 3.4.3 Anwendungen im CAD und Industriebereich ............................................. 70

3.5 Fazit und Ausblick............................................................................................. 71

4 AD-HOC NETZWERKE ........................................................................................... 73 4.1 Peer to Peer Networking.................................................................................... 74

4.1.1 Typen von P2P-Netzen................................................................................ 74 4.1.2 Suchmethoden ............................................................................................. 75 4.1.3 Vorteile ........................................................................................................ 75 4.1.4 Peer-to-Peer in Windows XP Service Pack 2.............................................. 75

4.2 Die JINI-Technologie ........................................................................................ 76 4.2.1 Jini-Einführung............................................................................................ 77 4.2.2 Jini – Architektur und Funktionsweise........................................................ 77 4.2.3 JINI- Komponente und Protokolle .............................................................. 79 4.2.4 Jini Fazit ...................................................................................................... 80

4.3 Die JXTA - Technologie ................................................................................... 80 4.3.1 JXTA – Grundlagen und Architektur .......................................................... 80 4.3.2 JXTA-Protokolle ......................................................................................... 84 4.3.3 JXTA Beispiele ........................................................................................... 85 4.3.4 JXTA Fazit .................................................................................................. 85

4.4 Anwendungsbesipiele für Ad-hoc Netze........................................................... 86 4.4.1 Mobile Ad-Hoc-Netze über Forwarding Nodes .......................................... 86 4.4.2 Ad-hoc-Netze in Fahrzeugen zur Stau- und Unfallvermeidung.................. 87 4.4.3 5.3 Wireless Grids ....................................................................................... 88

Page 7: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

4.5 Fazit und Ausblick............................................................................................. 88

5 SENTIENT COMPUTING ........................................................................................ 91 5.1 Definitionen....................................................................................................... 92

5.1.1 Ubiquitous Computing / Pervasive Computing........................................... 92 5.1.2 Sentient Computing ..................................................................................... 92 5.1.3 Geteilte Wahrnehmungen............................................................................ 93 5.1.4 Anwendungen des Sentient Computing ...................................................... 94

5.2 RFID .................................................................................................................. 96 5.2.1 Anwendungsgebiete .................................................................................... 96 5.2.2 RFID Technologie ....................................................................................... 98 5.2.3 Datenschutzrechtliche Bedenken............................................................... 100

5.3 Smart Dust ....................................................................................................... 101 5.3.1 Smart Dust Technologie ............................................................................ 102 5.3.2 Bausteine eines Motes ............................................................................... 102 5.3.3 Funktionsweise eines Mote ....................................................................... 105 5.3.4 Anwendungsbereiche von Smart Dust ...................................................... 106 5.3.5 Anwendung von Smart Dust in der Praxis ................................................ 106

5.4 Fazit und Ausblick........................................................................................... 107

6 ONTOLOGIEN UND SEMANTISCHE NETZE.................................................... 109 6.1 Ontologietypen ................................................................................................ 111 6.2 Entwicklung von Ontologien........................................................................... 113 6.3 Formale Sprachen für Ontologien ................................................................... 114 6.4 Ontologietools ................................................................................................. 116 6.5 Semantische Netze........................................................................................... 117

6.5.1 Definitional Networks ............................................................................... 118 6.5.2 Executable Networks................................................................................. 119 6.5.3 Learning Networks .................................................................................... 120 6.5.4 Hybrid Networks ....................................................................................... 121

6.6 Fazit und Ausblick........................................................................................... 121

7 KOLLABORATION VON AGENTEN .................................................................. 123 7.1 Multiagentensysteme: Ein Überblick .............................................................. 124

7.1.1 Was sind Multiagentensysteme ................................................................. 124 7.1.2 Anwendungsgebiet MAS: Geschäftsprozesse ........................................... 125 7.1.3 Anwendungsgebiet MAS : Produktionsplanung und –steuerung.............. 126

7.2 Wissensaustausch ............................................................................................ 128 7.2.1 Eigenschaften einer Wissensrepräsentation............................................... 129 7.2.2 Der Knowledge Sharing Effort (KSE) ...................................................... 129 7.2.3 Agentenkommunikation ............................................................................ 133

7.3 Fazit und Ausblick........................................................................................... 136

LITERATUR- UND QUELLENVERZEICHNIS ......................................................... 139

Page 8: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf
Page 9: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

ABBILDUNGSVERZEICHNIS

Abbildung 1: Einordnung der Usability [VGB03] ........................................................... 16

Abbildung 2: Human-Centered Design Process [HER00] ............................................... 23

Abbildung 3: Identifikation von Menschen durch IT-Systeme [PFITZ01]...................... 28

Abbildung 4: Biometrische Verfahren Übersicht............................................................. 30

Abbildung 5: Enrollment und Identification [MarcR00].................................................. 30

Abbildung 6: Minutien [MarcR00] .................................................................................. 32

Abbildung 7: Bilderzeugung [SamerA02]........................................................................ 32

Abbildung 8: Funktionsprinzip optischer Sensor [SamerA02] ........................................ 32

Abbildung 9: induktiver Sensor [SamerA02]................................................................... 33

Abbildung 10: Handflächenerfassung [SamerA02] ......................................................... 34

Abbildung 11: Iriserkennung [SAMERA02] ................................................................... 34

Abbildung 12: Retina [SAMERA02] ............................................................................... 35

Abbildung 13: Elastic Graph Matching [SAMERA02] ................................................... 36

Abbildung 14: Eigenfaces [GES01] ................................................................................. 37

Abbildung 15: Futuristischer Einblick ............................................................................. 39

Abbildung 16: Repräsentation eines Realit -Virtuality Kontinuums [Milgram 1994]..... 41

Abbildung 17: Beispielbilder aus der Medizin mit AR-Techniken.................................. 42

Abbildung 18: AR-Displays in der Medizin .................................................................... 43

Abbildung 19: Land Warrior (links) und Sichtfeld eines Kampfpiloten (rechts)............. 43

Abbildung 20: Einsatz von AR beim Entertainment ........................................................ 44

Abbildung 21: Autoreparatur mit Hilfe eines AR-Systems ............................................. 44

Abbildung 22: Präsentieren von Crashtestdaten mittels eine AR-Systems...................... 45

Abbildung 23: Virtuelle Konferenzen .............................................................................. 46

Abbildung 24: Entwicklung der AR zur Mobilität........................................................... 46

Abbildung 25: Funktionsprinzip des AR-PDA nach [AR-PDA 2004] ............................ 47

Abbildung 26: Handheld AR-Anwendung für „SignPost“ .............................................. 47

Abbildung 27: Allgemeine Funktionsweise eines AR-Systems....................................... 48

Abbildung 28: Aufbauschema eines OST-HMD (links) [Opperman 2003] und OST-AddVisor 150 [Interrante 2004] ............................................................................... 50

Abbildung 29: Aufbauschema eines VST-HMD (links) und AR Vision 3D................... 50

Abbildung 30: Aufbauschema eines VRD (links) [Suthau et al. 2002] und VRD: Nomad Personal Display [Suthau et al. 2002] ...................................................................... 51

Abbildung 31: AR Soccer auf einem mobilen Endgerät .................................................. 51

Abbildung 32: Projizierende Displays [ProDis 2004]...................................................... 52

Page 10: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Abbildung 33: Mimikerkennung an der TU München..................................................... 54

Abbildung 34: Cosmia verhandelt emotional [Kießling 2003] ........................................ 55

Abbildung 35: Die Cubic Mouse der GMD (links), Der Space Ball 4000 (mitte), Magellan Spacemaus Plus (rechts) der Firma 3DConnexions ................................. 56

Abbildung 36: Vision eines Office Of The Future aus [RWC 1998]............................... 56

Abbildung 37: Empfindungsschwelle der Körperteile [Hendrich 2004].......................... 62

Abbildung 38: Receptor-Motoril Anteil im Gehirn [Hendrich 2004] .............................. 64

Abbildung 39: SPI Spacemoluse zur Steuerung von 3D-Objekten [Spacemouse 2004] . 64

Abbildung 40: Eyetrackinghelm mit zwei Kopfkameras vor den Augen [Eyetracking 2004]......................................................................................................................... 65

Abbildung 41: Phantom zum Navigieren und Bearbeiten von 3D-Objekten [Phantom 2004]......................................................................................................................... 66

Abbildung 42: CyberGrasp, ein digitaler Handschuh [Universität für die Bundeswehr München 2004]......................................................................................................... 67

Abbildung 43: CyberGrasp [Wolff 2002] ........................................................................ 68

Abbildung 44: haptisches Bediengerät für die Visceralchirurgie (Kühnapfel U 2000) ... 69

Abbildung 45: Flugsimulator auf einer hydraulischen Plattform [Schubert 2003] .......... 70

Abbildung 46: Jini-Architektur ........................................................................................ 77

Abbildung 47: Jini-Basis .................................................................................................. 78

Abbildung 48: Jini-Funktionsweise.................................................................................. 78

Abbildung 49: Funktionsweise des Jxta-Netzes............................................................... 81

Abbildung 50: JXTA Architektur..................................................................................... 84

Abbildung 51: JXTA Protokolle [JXTABrendon 2002] .................................................. 85

Abbildung 52: Multi-hop Kommunikation über Forwarding Nodes [Fraunhofer ESK 2004]......................................................................................................................... 87

Abbildung 53: Interaktion zwischen Computer und Benutzer durch ein gemeinsames Weltmodell [Spirit, 2001]......................................................................................... 93

Abbildung 54: Schema des Bat Ultraschall-Systems [Bat, 2001] .................................... 94

Abbildung 55: Browsen im visualisierten Weltmodell [Spirit, 2001].............................. 95

Abbildung 56: Intelligentes Poster [Spirit, 2001]............................................................. 96

Abbildung 57: Intelligentes Poster [Spirit, 2001]............................................................. 98

Abbildung 62: Ein Jaguar ............................................................................................... 110

Abbildung 63: Inferenz................................................................................................... 111

Abbildung 64: Ontologietypen nach Guarino [Guarino 1998]....................................... 111

Abbildung 65: Pragmatische Ontologietypen [Voß 2003] ............................................. 112

Abbildung 66: Formalisierungsgrade von Ontologien [Sure 2004] ............................... 113

Abbildung 67: Eine JADL Ontologie (PCDemo Projekt) .............................................. 115

Abbildung 68: JADL Fakten (PCDemo Projekt) ........................................................... 116

Page 11: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Abbildung 69: OntologyBuilder..................................................................................... 117

Abbildung 70: Definitional Networks [Bratko 2001] .................................................... 118

Abbildung 71: Ein relationaler Graph [Sowa 1987]....................................................... 118

Abbildung 72: Ein existentialer Graph [Sowa 1987] ..................................................... 119

Abbildung 73: Implicational Networks [Sowa 1987] .................................................... 119

Abbildung 74: Ein Datenflussgraph [Sowa 1987].......................................................... 120

Abbildung 75: Ein Petri-Netz [Sowa 1987] ................................................................... 120

Abbildung 76: Zwei einfache Sätze in Structured KIF. ................................................. 132

Abbildung 77: Definition einer Klasse mit Ontolingua [Gruber 1992] ......................... 133

Abbildung 78: KQML-Nachricht ................................................................................... 134

Abbildung 79: eine KQML-Nachricht [Finin 1994] ...................................................... 134

Page 12: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf
Page 13: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

TABELLENVERZEICHNIS

Tabelle 1: Probleme bei AR-Systemen ............................................................................ 52

Tabelle 2: Vergleich von Ethernet und WLAN Ad-hoc-Netzen ...................................... 74

Tabelle 3: KQML Performatives [Finin 1994]............................................................... 135

Tabelle 4: FIPA ACL Nachrichten-Parameter [FIPA 2003] .......................................... 135

Page 14: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf
Page 15: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 15

1 USABILITY

„Usability eines Produktes ist das Ausmaß, in dem es von einem bestimmten Benutzer verwendet werden kann, um bestimmte Ziele in einem bestimmten Kontext effektiv, effi-zient und zufrieden stellend zu erreichen.“ [ISO 9241]

Im Weitesten Sinne ist Usability ein Maß der Qualität der Benutzerinteraktion im Um-gang mit einem System [Nie93]. Durch Konzepte der Usability wird der Einarbeitungs-aufwand in Anwendungssysteme minimiert, weil sich das Produkt dann nicht entgegen der gewohnten oder natürlichen Arbeitsweise verhält. So wird nicht nur die Erlernbarkeit erleichtert, sondern auch das Tempo der Aufgabenerfüllung verbessert.

Die Akzeptanz des Benutzers für das Produkt ist ungleich größer, wenn viele Vorstellun-gen der Usability befolgt worden sind. Auf die Kundenzufriedenheit kommt es bei jedem Produkt an und so ist die Benutzerfreundlichkeit ein elementares Entscheidungselement geworden, sich für oder gegen ein Produkt zu entscheiden.

Die Biometrie eröffnet uns viele Möglichkeiten, Sicherheit mit einfacher Nutzung zu kombinieren. Sie machen zum Beispiel das Merken von Passwörtern überflüssig und bieten dabei sogar einen höheren Grad an Sicherheit.

Getreu nach dem geheimen Motto der Usability: „Don’t make me think“ (Steve Krug [SK00]).

Unter Usability versteht man laut Übersetzung Benutzerfreundlichkeit, Gebrauchsfreund-lichkeit oder Benutzbarkeit. Aber Usability ist mehr als nur ein Maß, wie einfach und leicht eine Software-Anwendung oder ein Stück Hardware genutzt werden kann. Auch geht es hier in erster Linie nicht um den Willen eines Designers, sondern vielmehr um die Bedürfnisse des Benutzers. Der Benutzer steht im Zentrum des Designs. Ihn müssen die Systeme bei jedem Schritt geeignet unterstützen.

Die Usability beschäftigt sich mit Fragen wie: Was wollen oder müssen Anwender tun? Aus welchem Umfeld kommen die Benutzer? An welchem Kontext arbeitet der Benut-zer? Welche Arbeit überlässt man der Maschine und welche dem Benutzer? [SE03]

Antworten auf diese Fragen können zum Beispiel durch nutzerbezogene Arbeitsanalysen beim Start eines Projektes gewonnen werden. Weitere Mittel sind das Erstellen von Be-nutzerprofilen und Usability-Tests.

Usability hat nach und nach an Bedeutung gewonnen, es ist nicht einfach nur ein schönes tolles Modewort, sondern wird durch Normen und Richtlinien fundiert.

Der Begriff der Usability ist eng mit dem Begriff der Ergonomie verknüpft. Der Benutzer hat sich unter keinen Umständen dem Produkt anzupassen. Das Produkt muss sich dem Benutzer anpassen.

Als Produkt kann man hierbei von Hardware, Software oder Webseiten sprechen. Die Unterschiede in der Usability liegen daher bei den Eigenschaften, dass Soft- und Hard-ware in der Regel stark zielgruppenorientiert sind und Webauftritte ein größeres Publi-kum ansprechen sollen.

Demzufolge unterscheidet man auch innerhalb der Usability zwischen der Benutzbarkeit beziehungsweise Benutzerfreundlichkeit eines interaktiven Systems und der Web Usabi-lity, dem Grad der Benutzerfreundlichkeit einer Webseite.

Page 16: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

16 Usability

Ein Fehler, den viele Unternehmen machen, ist, dass sie ihre Abläufe im Arbeitssystem den Abläufen der Software anpassen. Effizienter wäre aber eine Software, die die Benut-zer, die Arbeitsaufgabe und die Arbeitsumgebung berücksichtigt. Eine zu starre Software behindert einen optimalen Arbeitsablauf [SE03].

Abbildung 1: Einordnung der Usability [VGB03]

Abbildung 1 hilft beim Verstehen, warum Usability so extrem wichtig geworden ist. Durch die Entwicklung von immer kürzeren Innovationszyklen beim Bau und bei der Entwicklung von neuen Geräten oder Diensten, sieht sich der Nutzer oft gezwungen, ein neues Produkt schnell zu erlernen, selbst wenn es sehr komplexe Funktionen bietet.

Eine intuitive Benutzerführung ist somit ein unverzichtbares Mittel, um die Akzeptanz des Users zu erhalten.

In den ersten vier Abschnitten dieses Kapitels wird auf Usability und ihre Standards ein-gegangen und Regeln aufgezeigt, die helfen, ein Anwendungssystem durch verbesserte Benutzerführung benutzerfreundlicher zu machen.

In den darauf folgenden Abschnitten werden biometrische und nicht biometrische Au-thentifizierungsmethoden erklärt und besonderes Augenmerk auf den neuesten Stand in der Forschung der Biometrie gelegt. Es wird erklärt, welche biometrischen Systeme exis-tieren und deren Vor- und Nachteile erläutert.

1.1 Richtlinien der Usability Schon früh begannen Personen sich Gedanken über Usability zu machen. Gibt es auch viele Ratgeber und Guidelines zu kaufen, in denen das perfekte Design hinsichtlich Usa-bility gepredigt wird, fußt dennoch der Großteil auf der ISO 9241. Diese Norm entstand aus der deutschen DIN 66234-8 und die Einhaltung dieser ist seit dem 1. Januar 2000 einklagbar [VGB03].

Die ISO 9241 ist in folgende Teile gegliedert:

1) Allgemeine Einführung

2) Anforderungen an die Arbeitsaufgaben – Leitsätze

3) Anforderungen an visuelle Anzeigen

4) Anforderungen an Tastaturen

5) Anforderungen an Arbeitsplatzgestaltung und Körperhaltung

6) Anforderungen an die Arbeitsumgebung

7) Anforderungen an visuelle Anzeigen bezüglich Reflexionen

Page 17: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 17

8) Anforderungen an Farbdarstellungen

9) Anforderungen an Eingabegeräte – außer Tastaturen

10) Grundsätze der Dialoggestaltung

11) Anforderungen an die Gebrauchstauglichkeit – Leitsätze

12) Informationsdarstellung

13) Benutzerführung

14) Dialogführung mittels Menüs

15) Dialogführung mittels Kommandosprache

16) Dialogführung mittels direkter Manipulation

17) Dialogführung mittels Bildschirmformularen

Hierbei sind besonders die Abschnitte 10 und 11 für die Usability von Interesse. Wenn eine Software diese Kriterien erfüllt, ist es sogar möglich, ein TÜV-Zertifikat zu be-kommen (siehe Abschnitt 1.2). In Abschnitt 13 werden zwar die Punkte Eingabeauffor-derung, Rückmeldung, Statusanzeige, Fehlermanagement und Online-Hilfe erläutert, sie sind aber im Grunde nur Wiederholungen der Konzepte der ISO 9241-10.

1.1.1 ISO 9241-10 Grundsätze der Dialoggestaltung Diese Anforderungen der Bildschirmarbeitsplatzverordnung stellen eine Mindestanforde-rung dar. Deren Einhaltung muss kontinuierlich überprüft werden. Teilweise kommen sie einem vor, als seien sie Selbstverständlichkeiten, aber dann wiederum fragt man sich, warum sie fast nirgends Beachtung finden.

1) Aufgabenangemessenheit

„Ein Dialog ist aufgabenangemessen, wenn er den Benutzer unterstützt, seine Ar-beitsaufgabe effektiv und effizient zu erledigen.“ (ISO 9241-10, S.4; §3.2)

Aufgabenangemessenheit ist nicht ohne Grund der erste Punkt der Grundsätze der Dia-loggestaltung. Aufgabenangemessenheit umfasst nämlich eigentlich alle weiteren Punkte der ISO 9241-10 und Effektivität und Effizienz deuten auch auf die ISO 9241-11 hin.

Eine Software ist der Aufgabe angemessen, wenn alle notwendigen Funktionalitäten vor-handen sind, keine systembedingten Tätigkeiten ausgeführt werden müssen (z.B. Disket-te formatieren) und wenn die Ein- und Ausgaben in Größe und Umfang angepasst sind. So macht es zum Beispiel keinen Sinn, wenn ein Suchfeld einer Suchmaschine zu klein dimensioniert ist.

2) Selbstbeschreibungsfähigkeit

„Ein Dialog ist selbstbeschreibungsfähig, wenn jeder einzelne Dialogschritt durch Rückmeldung des Dialogsystems unmittelbar verständlich ist oder vom Benutzer auf Anfrage erklärt wird.“ (ISO 9241-10, S.5; §3.3)

Die Selbstbeschreibungsfähigkeit ist streng genommen schon verfehlt, wenn ein Benut-zer die Hilfe-Funktion aufrufen muss. Zur Selbstbeschreibung sind zum Beispiel Tool-tips, sehr geeignet. Bleibt der Mauszeiger über einem Piktogramm einige Zeit stehen, erscheint ein kurzer, beschreibender Text, der die darunter liegende Funktion erläutert.

Auf eine Hilfe-Funktion kann natürlich trotzdem nicht verzichtet werden. Die Hilfe sollte abgestuft sein, erst eine simple Erklärung bieten, um dann auf Wunsch ins Detail zu ge-hen.

Page 18: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

18 Usability

Selbstbeschreibung ist erfüllt, wenn der Nutzer jederzeit die Nievergelt-Fragen (siehe 1.3.1.2) beantworten kann.

Weitere Techniken, die Selbstbeschreibungsfähigkeit begünstigen, sind die Direkte Ma-nipulation mit sichtbarer Wirkung, hochauflösende Grafik zur besseren Erkennbarkeit auch von komplexen Icons und WYSIWYG. WYSIWYG bedeutet “What you see is what you get“ und soll heißen, dass man das zu bearbeitende Objekt oder Dokument ge-nau so sieht, wie es im fertigen Zustand sein wird; Also zum Beispiel genau so aussieht, wie es später aus dem Drucker kommt.

3) Steuerbarkeit

„Ein Dialog ist steuerbar, wenn der Benutzer in der Lage ist, den Dialogablauf zu starten sowie seine Richtung und Geschwindigkeit zu beeinflussen, bis das Ziel erreicht ist.“ (ISO 9241-10, S.6; §3.4)

Die Dialogschritte müssen leicht überschaubar, jederzeit unterbrechbar und revidierbar sein. Wurde ein Dialog ausgeführt, während es zu einem Systemausfall kam, sollte der Dialog trotzdem an dieser Stelle fortgesetzt werden können.

Alternative Dialogschritte müssen unterscheidbar sein. So sollten zum Beispiel Verknüp-fungen klar voneinander unterscheidbar sein.

4) Erwartungskonformität

„Ein Dialog ist erwartungskonform, wenn er konsistent ist und den Merkmalen des Be-nutzers entspricht, z.B. seinen Kenntnissen aus dem Arbeitsgebiet, seiner Ausbildung und seiner Erfahrung sowie den allgemein anerkannten Konventionen.“ (ISO 9241-10, S.6; §3.5)

Aus Erfahrung mit dieser oder ähnlicher Software hat der Benutzer eine gewisse Erwar-tung, was passiert, wenn er eine Funktionalität nutzen wird. Der Benutzer verzeiht eher Brüche mit der Erwartungskonformität zwischen verschieden Applikationen, als in einer Applikationen, da er schon von sich aus auf Unterschiede zwischen den Applikationen eingestellt ist.

Es gibt drei Formen von Erwartungskonformität:

• Intern

Innerhalb einer Anwendung müssen alle Meldungen an der gleichen Stelle und alle Far-ben und Abläufe gleich sein.

• Extern

Für alle Anwendungen an einem Arbeitsplatz müssen die gleichen Tastenbelegungen gelten (insbesondere die Funktionstasten), da sonst bei häufigen Applikationswechsel Fehler vorprogrammiert sind. Auch sollten die Applikationen ungefähr gleich aussehen.

• Metaphorisch

Die Arbeitsabläufe und Symbole werden auf eine Metapher übertragen, die insgesamt durchgehalten werden muss. So hat sich zum Beispiel die Desktop-Metapher, die An-wendung in vielen Betriebssystemen findet, als vorteilhaft erwiesen.

5) Fehlertoleranz

„Ein Dialog ist fehlertolerant, wenn das beabsichtigte Arbeitsergebnis trotz erkennbar fehlerhafter Eingaben entweder mit keinem oder mit minimalem Korrekturaufwand sei-tens des Benutzers erreicht werden kann.“ (ISO 9241-10, S.7; §3.6)

Page 19: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 19

Oft wird bei Fehlern zwischen Nutzer- und Systemfehlern unterschieden, was für den Programmierer auch vernünftig sein mag, aber dem Benutzer ist es völlig egal, wer „Schuld“ an dem Fehler hat. Was er braucht ist Hilfe zur Behebung des Fehlers.

Zur Fehlertoleranz gehören Fehlermeldungen, mit denen der Nutzer auch etwas anfangen kann. Es macht keinen Sinn ihm einen Fehlercode oder unverständlichen Text zu präsen-tieren, mit denen er nichts anfangen kann; Negativ-Beispiel: NETSCAPE verursachte eine allgemeine Schutzverletzung in Modul GDI.EXE an Adresse 0001:6B32

Um Fehler zu vermeiden, sollten Funktionen, die aus einem Zustand heraus zu einem Fehler führen, deaktiviert sein. Man sollte als Entwickler immer bemüht sein, alle Fehler abzufangen oder zu verhüten.

6) Lernförderlichkeit

„Ein Dialog ist lernförderlich, wenn er den Benutzer beim Erlernen des Dialogsystems unterstützt und anleitet.“ (ISO 9241-10, S.9; §3.8)

Der Dialog soll dem Anwender helfen, ein mentales Modell von der Software zu erstel-len. So kann der Nutzer sich schon vor der Ausübung des Dialogschritts die beste Dia-logfolge wählen. Tutorials oder eine Metaphorisierung helfen bei der Erstellung eines solchen Modells.

Wie man sieht, werden viele Aspekte schon von der Erwartungskonformität abgedeckt.

7) Individualisierbarkeit

„Ein Dialog ist individualisierbar, wenn das Dialogsystem Anpassungen an die Erforder-nisse der Arbeitsaufgabe sowie an die individuellen Fähigkeiten und Vorlieben des Be-nutzers zulässt.“ (ISO 9241-10, S.8; §3.7)

Existieren verschiedene Nutzer mit unterschiedlichem Wissenstand, ist es wünschens-wert, dass die Dialoge dem Können angepasst werden können. Hierfür eignet sich ein persönliches Profil.

Ursprünglich wurde die Individualisierbarkeit in der DIN 66234-8 nicht extra erwähnt und durch die Steuerbarkeit abgedeckt. In der ISO 9241-10 wird dadurch noch einmal hingewiesen, wie wichtig dieser Punkt ist [SE03].

1.1.1.1 Anwendungsbeispiel Um die Richtlinie näher zu bringen sei hier die Beachtung der Regeln am Beispiel einer Webseite gezeigt. Die Punkte sollen Anregungen geben und zeigen, wie man die Regeln befolgen kann [KD04].

1) Aufgabenangemessenheit

• Pflichtangaben werden nur verlangt, wenn der Zweck offensichtlich ist.

• Fotos und Grafiken sind so zu halten, dass sie schnell geladen werden können.

• Auf fehlerhafte Felder in Formularen wird beim Hinweisen auf jene der Kursor automatisch auf das Feld gesetzt, welches korrigiert werden muss.

• Bei Längeren Eingaben macht es Sinn, die Daten zwischenzuspeichern.

2) Selbstbeschreibungsfähigkeit

• Links sind so formuliert, dass man sicher vorhersagen kann, wohin sie führen.

• Es besteht die Möglichkeit eine Online-Hilfe zu nutzen.

Page 20: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

20 Usability

• Nachdem eine Anfrage an eine Datenbank gesendet wurde, erscheint eine Mel-dung "Anfrage wird bearbeitet, bitte warten".

3) Steuerbarkeit

• Eine Suchmaschine bietet die Möglichkeit, die Zahl der auf einer Seite ange-zeigten Treffer einzustellen.

• Übergroße Grafiken oder Fotos werden durch "Thumbnails" (Vorschaubilder) ersetzt. Diese Bilder stellen Links zu den größeren Versionen dar.

4) Erwartungskonformität

• Das Firmenlogo ist auf jeder Seite oben links platziert.

• Der Link zur Startseite ist unter dem Firmenlogo zu finden.

• Unterstrichene Wörter sind immer Hypertext-Links.

5) Fehlertoleranz

• Über ein Skript werden die Daten eines Formulars auf Plausibilität, fehlende oder unvollständige Eingaben geprüft, bevor Sie abgesendet werden.

• Fehlermeldungen werden in der Sprache der Benutzer formuliert.

6) Lernförderlichkeit

• Im Buchungs-System eines Reiseanbieters besteht die Möglichkeit, eine Probe-buchung vorzunehmen.

• In einer Sitemap kann man sich ansehen, nach welcher Logik eine Webseite strukturiert ist.

7) Individualisierbarkeit

• Es gibt ein editierbares Profil, welches das Verhalten der Webseite beeinflusst.

• Kunden eines Online-Shops brauchen persönliche Daten nicht bei jedem Be-such erneut eingeben.

1.1.2 ISO 9241-11 Gebrauchstauglichkeit Um eine hohe Qualität der Software zu erzielen, sind die Auflagen der ISO 9241-11 zu beachten. Sie garantieren zwar beim Befolgen selbiger nicht die Qualität, da auch noch Kriterien wie kooperative Benutzer eine Rolle spielen, aber darauf hat man keinen direk-ten Einfluss. Einen Einfluss hat man aber wohl auf Zufriedenheit, Effizienz und Effekti-vität.

1.1.2.1 Zufriedenheit „Maße der Zufriedenstellung beschreiben das Ausmaß, in dem Benutzer von Beeinträch-tigungen frei sind, und ihre Einstellung zur Nutzung des Produkts.“ (ISO 9241-11, S.7; §5.4.4)

Zufrieden ist der Benutzer, wenn er sicher, einfach, gesund, beeinträchtigungsfrei und angemessen mit der Software arbeiten kann. Dieses Maß ist streng subjektiv, aber man kann sagen, dass der User zufrieden ist, wenn die Software einfach zu bedienen ist und mit ihren Funktionen einen Arbeitsablauf zeitsparend unterstützen.

Page 21: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 21

1.1.2.2 Effizienz „Maße der Effizienz setzen den erreichten Grad der Effektivität ins Verhältnis zum Auf-wand an Ressourcen. Der relative Aufwand kann psychische oder physische Beanspru-chung, Zeit, Material oder monetäre Kosten enthalten.“ (ISO 9241-11, S.7 ; §5.4.3)

Eine Software ist nicht effizient, wenn man Eingaben immer wieder tätigen muss oder wenn ein Arbeitsablauf mit Softwareunterstützung länger dauert oder komplizierter ist, als ohne. Effizient ist viel eher ein objektives Maß, da man zum Beispiel die Zeit der Handlungsabläufe messen und analysieren kann.

1.1.2.3 Effektivität „Maße der Effektivität setzen die Ziele oder Teilziele des Benutzers ins Verhältnis zur Genauigkeit und Vollständigkeit, mit der er diese Ziele erreichen kann“ (ISO 9241-11, S.7; §5.4.2)

Genau ist eine Software, wenn sie die Funktionen erfüllt, die der Qualität der Arbeitsauf-gaben entsprechen. Vollständig ist eine Software, wenn sie alle Funktionen anbietet, die erforderlich sind.

1.2 Usability Engineering Dieser Abschnitt soll durch einen Bericht aus der Praxis eingeleitet werden. Hierfür sei der folgende Abschnitt komplett vom TÜV Rheinland zitiert:

„Software-ergonomische Empfehlungen sind in der internationalen Norm DIN EN ISO 9241 "Ergonomic requirements for office work with visual display terminals (VDTs)" enthalten.

Die Normenreihe DIN EN ISO 9241 wird zunehmend von Anwendern (Betreibern) von Software und Softwareherstellern zur Identifizierung von Nutzungsmängeln herangezo-gen. Zwischenzeitlich wurde ein für akkreditierte Prüflaboratorien verbindliches Prüfver-fahren auf Basis von DIN EN ISO 9241-10 und DIN EN ISO 9241-11 etabliert.

Die Prüfung läuft wie folgt ab:

• Erfassung des Nutzungskontextes und Ableitung von Prüfkriterien

Als Grundlage der Prüfung der Gebrauchstauglichkeit wird zunächst der Nutzungs-kontext erhoben. Das heißt, es werden die Hauptbenutzergruppen und Hauptaufgaben sowie daraus resultierende Nutzungsanforderungen ermittelt. Der Nutzungskontext und die Nutzungsanforderungen bilden die Grundlage für die Prüfung und Zertifizie-rung des Produktes.

• Prüfung der Dokumentation

Die Dokumentation des Produktes wird in Anlehnung an die DIN ISO / IEC 12119 auf Vollständigkeit, Korrektheit und Verständlichkeit hin geprüft.

• Teilnehmende Beobachtung mit Benutzern

Die Durchführung von teilnehmenden Beobachtungen mit echten Benutzern in der tatsächlichen Arbeitsumgebung (z.B. bei angepasster Standardsoftware) ist erforder-lich, um die ergonomische Qualität eines Produktes zu bewerten. Hierbei wird festge-stellt, ob das Produkt den Benutzer effektiv und effizient bei der Bearbeitung seiner Aufgaben unterstützt. Identifizierte Nutzungsprobleme werden dokumentiert. Diese Tests werden von der TÜV Secure iT GmbH durchgeführt.

Das Ergonomie-Zeichen

Page 22: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

22 Usability

• Mit dem Zeichen ERGONOMIE GEPRÜFT des TÜV Rheinland wird dokumentiert, dass das Produkt einer Prüfung der Gebrauchstauglichkeit auf Basis von DIN EN ISO 9241-10 und DIN EN ISO 9241-11 unterzogen wurde

• bei der Prüfung identifizierte Mängel beseitigt wurden

• das geprüfte Produkt einem kontinuierlichen Usability-Monitoring unterliegt

Eine wesentliche Anforderung der Bildschirmarbeitsverordnung in Bezug auf Software-nutzung lautet "Die Grundsätze der Ergonomie sind insbesondere auf die Verarbeitung von Informationen durch den Menschen anzuwenden." [TÜV-R04]

Hierbei wird deutlich, nach welchen Methoden man beim Analysieren der Einhaltung von Usability-Kriterien vorgeht. Usability-Engineering ist der methodische Weg, ein Anwendungssystem ergonomisch zu gestalten, sodass es den Ansprüchen und Richtlinien der Usability genügt. Um ergonomische Mängel schon während des Entwicklungspro-zesses zu vermeiden, werden die Benutzer im Nutzungskontext involviert. In der Design-Phase sollte der Anwender wie im nächsten Abschnitt beschrieben im Mittelpunkt ste-hen.

1.2.1 Human-Centred Design Process Im Usability-Engineering existieren mehrere Vorgehensmodelle, von denen sich der Human-Centred Design Process [BC97] durchgesetzt hat.

Noch vor Beginn des Entwicklungsprozesses wird eine Aufgaben-, Arbeits- bzw. Anfor-derungsanalyse erstellt. Dies geschieht am Arbeitsplatz des späteren Benutzers. Hierbei werden zugrunde liegende Organisationsstrukturen, Benutzergruppen und typische Be-nutzercharakteristika erfasst. Es ist wichtig, mit der Software nicht einen neuen Arbeits-prozess zu erzeugen, sondern bestehende zu unterstützen.

Aufbauend auf der Analyse wird der Umfang der Benutzerbeteiligung festgelegt. Gibt es verschiedene Benutzergruppen, müssen sie repräsentativ vertreten sein. Am Besten ist, wenn dem Entwickler eine Person zur Seite gestellt wird, die sich mit den Strukturen der Organisation auskennt. Von verschiedenen Prototypen wird durch Evaluationen der Grad der Usability erfasst.

Sequentielle Methoden der Softwareentwicklung werden durch dieses Vorgehensmodell erweitert [HER00].

Page 23: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 23

Benutzer-partizipation

Nutzungskontextanalysieren

Anforderungen ableiten und verfeinern

Anforderungen amPrototypen evaluieren

Prototypen entwickelnund verbessern

Prototyping undWerkzeug festlegen

Prototyp erfülltdie Anforderungen

Abbildung 2: Human-Centered Design Process [HER00]

1.2.2 Test-Methoden Man unterscheidet vier Arten des Usability-Engineerings. „Konstruktive Methoden“ un-terstützen Planer und Entwickler bei der benutzerfreundlichen Gestaltung einer Anwen-dung oder eines Dienstes. Bei „Evaluativen Methoden“ wird die Benutzerfreundlichkeit einer bestehenden Anwendung bewertet. Hierbei wird untersucht, ob die spezifizierten Anforderungen erfüllt worden sind und wo Schwachstellen liegen. Die „Inspektionsme-thoden“, die von Usability-Experten durchgeführt werden, basieren auf Hypothesen oder Regeln. Diese Form der Analyse ist mit relativ wenig Aufwand verbunden.

Am vielversprechendsten sind aber die „Empirischen Methoden“, da man bei solchen direkt mit „echten“ Usern arbeitet. Die Analyse hat experimentellen Charakter und ist mit hohem Aufwand verbunden. Es werden Kameras und andere biometrische Verfahren eingesetzt, um das Verhalten des Benutzers zu analysieren, ohne ihn zu beeinflussen. Diese Methode hat sich als die Beste in der Erkennung von Schwachstellen herausge-stellt.

Zur Sicherstellung von Benutzbarkeit eines Web-Auftrittes oder einer Software wird U-sability-Testing durchgeführt. Im Folgenden sei ein Kriterienkatalog aufgestellt, welche Faktoren bei einer Webpräsentation von Bedeutung sind:

• Page Design

Beim Seitendesign sollte auf kurze Ladezeiten und wenige Frames geachtet werden. Die Links sollten klar von einander unterscheidbar und identifizierbar sein. Schon be-suchte Links sollten als solche kenntlich gemacht werden. Es müssen verschiedene Browser (Internet Explorer, Opera, Netscape, Firefox) unterstützt werden.

• Site Design

Beim generellen Design des Webauftritts muss auf eine einheitliche Form geachtet werden. Hilfe- und Suchoptionen sollten vorhanden sein und es müssen jederzeit die Nievergelt-Fragen zu beantworten sein.

Die Verlinkungen müssen nachvollziehbar sein, damit der User sich ein imaginäres Bild des Aufbaus machen und somit intuitiver navigieren kann.

• Content Design

Page 24: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

24 Usability

Für die Darstellung der Inhalte gilt: Das Wichtigste zuerst. Kurze Texte ohne unnö-tige Wörter unterstützen das Verständnis ebenso, wie eine korrekte Schreibweise, klar gegliederte Abschnitte und prägnante Seitentitel. Bilder, Animationen und Fo-tos sollten schnell zu ladend sein. Geht das nicht, sind „Thumbnails“ zu wählen, die bei Bedarf zu einer größeren Version dieser Elemente führen.

• Idealzustand im Web

Im Idealfall unterstützen Webauftritte viele Sprachen und sind international. Alle U-ser bekommen die gleiche Abbildungsqualität, unabhängig von ihrer technischen Ausrüstung. Behinderungen jeglicher Form sollten keinen Nachteil bei der Navigati-on sein [BWK04].

1.3 Benutzerführung Nutzerführung sind die Mittel, die angewandt werden, um den User einer Webseite an die Kerninformation zu führen bzw. zum tatsächlichen Kauf unter Nutzung des E-Commerce zu bringen. Hierbei wird davon ausgegangen, dass der Benutzer ungefähr weiß, was er möchte und es nur darum geht, so schnell und komfortabel wie möglich an dieses Ziel zu gelangen. Es geht nicht darum, den Kunden zu locken oder in irgendeiner manipulativen Form zu einem Ziel zu bringen, welches man von ihm bzw. ihr erwartet. Kunden wollen selbst entscheiden und sind extrem schnell bereit, die Webseite zu wech-seln, wenn sie bei ihrem Wunsch nicht optimal unterstützt werden. Software ist immer mehr als installierte Daten auf einem Computer. Mit der Entwicklung von Software legt der Programmierer automatisch auch Handlungsabläufe im Arbeitssystem fest. Erleich-tert wird dem Benutzer die Bedienung, wenn sie intuitiv geschieht. Dies kann erreicht werden, wenn eine neue Software der alten in den Abläufen ähnelt oder die Bedienung durch Metaphern (z.B. Desktop-Metapher) erleichtert wird. So macht sich zum Beispiel die Anwendung eines Zeitplans viel besser, wenn man diesen auch sieht und einzelne Termine in diesem Kalender per Drag&Drop hin und her schieben kann.

1.3.1 Dialogdesign Wie schon in Abschnitt „ISO 9241-10 Grundsätze der Dialoggestaltung“ angedeutet, ist die einzige Verbindung von Software mit dem Benutzer die grafische Oberfläche für die Mensch-Maschine-Interaktion.

Will man erreichen, dass sich der Benutzer nicht in einer Fülle von Informationen verirrt oder verzweifelt aufgibt, ist es wichtig, einige Regeln hinsichtlich des Dialogdesigns zu beachten. Es soll helfen, selbst in komplexen Strukturen nie den Überblick zu verlieren. Als hilfreiches Mittel haben sich die „8 Goldenen Regeln des Dialogdesigns“ und die Nievergelt-Fragen erwiesen. Die Nievergelt-Fragen sollten vom Benutzer zu jeder Zeit beantwortet werden können. Erst dann kann man sich relativ sicher sein, dass er sich sei-ner Taten bewusst ist und nicht verzweifelt aufgeben wird.

1.3.1.1 Die 8 goldenen Regeln des Dialogdesigns Dieses Regelwerk bietet Hilfestellung bei der Gestaltung des Mensch-Maschine-Interfaces [SE03].

1) Versuche Konsistenz zu erreichen

Grafisch und auch logisch müssen ähnliche Aktionen auch ähnliche Dialoge bieten. So sollten bekannte Masken verwendet werden, die der Nutzer schon kennt.

2) Biete erfahrenen Benutzern Abkürzungen an

Page 25: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 25

Mit Hilfe von Makros können immer wiederkehrende Aktionsfolgen in ein kleines Programm geschrieben werden, dass dann automatisch abläuft. „Short-Cuts“ und I-cons können oft langwieriges Suchen in einem Menübaum verhindern, in dem man eine Aktion mit direktem Anklicken auslöst.

3) Biete informatives Feedback

Während der Laufzeit eines Programms sollten angemessene Informationen darge-stellt werden, die dem Benutzer nötiges Feedback über Aktionen verschaffen. Unan-gebracht sind aber zum Beispiel Meldungen wie „Sind Sie sich wirklich sicher?“.

4) Dialoge sollten abgeschlossen sein

Der Mensch hat die Eigenschaft, Aufgaben in Teilzielen abzuschließen. Daher ist es sinnvoll, das auch in Programmen so zu organisieren und Informationen über den Anfang und Ende von Dialogen darzustellen.

5) Biete einfache Fehlerbehandlung

Für nicht erfahrene Benutzer sollte eine ausreichende Hilfestellung bei Fehlermel-dungen angeboten werden. Experten bevorzugen dagegen eine kurze informative Fehlermeldung. Grundsätzlich sollten schwerwiegende Fehler, die die Arbeit beein-trächtigen, durch das System abgefangen werden.

6) Biete einfache Rücksetzmöglichkeiten

Eine einfache „zurück“-Funktion macht es möglich, das System oder unbekannte Funktionen zu erkunden, ohne in einen Zustand zu kommen, aus dem man ohne Hilfe nicht wieder herausfindet.

7) Unterstütze benutzergesteuerten Dialog

Das System sollte eine grundsätzlich einfache Ausführung von Funktionen bieten und den Benutzer nicht mit unerwarteten Reaktionen überraschen.

8) Reduziere die Belastung des Kurzzeitgedächtnisses

Der Bildschirminhalt sollte nicht zu komplex sein und nicht zu viele Informationen gleichzeitig darstellen, um das Kurzzeitgedächtnis des Benutzers zu schonen.

1.3.1.2 Die Nievergelt-Fragen Die Nievergelt-Fragen sind Fragen, auf die der User zu jeder Zeit an jedem Punkt in ei-ner Anwendung die richtige Antwort wissen muss. Erst dann ist ein System wirklich selbsterklärend [NIV83].

1) Wo bin ich / was läuft gerade ab?

Alle gerade nicht aktiven Programmteile oder Programmfenster sollten blass hinter-legt dargestellt sein, dies ermöglicht dem Benutzer einen Fokus auf die relevanten Bildschirminhalte.

2) Was kann ich hier tun / wann und wie kann ich eingreifen?

Es sollte jederzeit klargestellt sein, welche Interaktion das Programm vom Benutzer gerade fordert.

Aktionen, die gerade ausgeführt werden können sollten im Vordergrund stehen.

Das Programm sollte eine selbsterklärende Fähigkeit haben.

3) Wie kam ich hierher?

Page 26: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

26 Usability

Das System sollte dem Benutzer durch eine History-Funktion ermöglichen, einen be-stimmten Vorgang nachzuvollziehen. Dies könnte bei zufällig richtigen Eingaben ei-nen nachvollziehbaren Lösungsweg ermöglichen.

4) Wo kann ich sonst noch hin und wie komme ich dorthin?

Das System sollte auf alternative Handlungsfelder verweisen und Hilfen zur Erkun-dung bisher noch nicht genutzter Möglichkeiten/Funktionen bieten.

Dem Benutzer sollten Lehrgänge zur Benutzung des Systems angeboten werden.

Das System sollte effizientere Lösungswege zu einem bestimmten Problem anbieten können.

1.3.2 Interaktionsformen Es gibt drei Formen der Interaktion mit dem Benutzer: Kommandosprache, Menüs und die direkte Manipulation[SE03].

1.3.2.1 Kommandosprache Die Kommandosprache, bei der man textbasiert mit der Software kommuniziert, ist aus verständlichen Gründen mit Hinblick auf die Usability ungeeignet. Solche Eingaben kos-ten Zeit und verlangen dem Benutzer einiges an Erinnerungsvermögen ab, da er sich Be-fehle und andere Codes merken muss.

1.3.2.2 Menüs Menüs sollten aufgabenorientiert, konsistent und leicht verständlich sein. Ein richtig ges-taltetes Menü entlastet den Benutzer, da er sich nicht aktiv an einen Befehl erinnern muss, sondern ihn mithilfe des Wiedererkennens benutzen kann. Es sollte die Möglich-keit gegeben werden, Menüs vom User anpassen zu lassen. So können fortgeschrittene Benutzer ihre Arbeit noch effizienter gestalten. Beachten muss man dabei aber, dass sol-che Änderungen dem Prinzip der Konsistenz entgegen wirken können. Das Menü sollte hierarchisch und zu dem Programm logisch gegliedert sein. Es ist besser, wenn oft ge-brauchte Befehle oben stehen und momentan nicht mögliche Befehle ausgegraut sind. Dies unterstützt die vierte Nievergelt-Frage.

1.3.2.3 Direkten Manipulation Unter der direkten Manipulation versteht man das Interagieren mit der Software, ohne eine Kommandosprache beherrschen zu müssen. Metaphorisiert werden alle Elemente, mit denen man arbeiten kann, durch Piktogramme dargestellt. Die Symbole müssen in direktem Zusammenhang mit der ihnen zugrunde liegenden Funktion sein. Das Graphi-cal-User-Interface (GUI) bietet so die Möglichkeit, zum Beispiel durch Drag&Drop Ele-mente zu manipulieren. Mithilfe einer Zurück-Funktionalität nimmt man dem Benutzer die Scheu, etwas auszuprobieren. Diese Interaktionsform ist besonders für Anfänger ge-eignet, aber ist bei komplexeren Abläufen langsam und umständlich.

Die perfekte Interaktionsform sollte somit eine Mischung aus direkter Interaktion, Menüs und Short-Cuts sein.

1.3.3 Die bekanntesten Web-Regeln Beim Gestalten von Webseiten sind Dinge wie intuitive Navigation, kurze Ladezeiten, regelmäßiges Updates, kein Aufzwingen von Plugins, Zugänglichkeit auf allen gängigen Plattformen und Browsern, sparsames Einsetzen von Animationen und das Anbieten von Orientierungshilfen zu beachten. Es gelten auch weiterhin die Anforderungen der ISO 9241.

Page 27: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 27

Aus den genannten Anforderungen haben sich im Laufe der Zeit folgende drei Regeln für die Benutzung von Webseiten herauskristallisiert. Nicht alle haben noch ihre komplette Berechtigung und wurden teilweise durch Untersuchungen widerlegt. Deshalb hätte die-ser Abschnitt auch Usability-Mythen heißen können.

1.3.3.1 Three-Click Rule „Usability rules the Web. Simply stated, if the customer can‘t find a product, then he or she will not buy it.“ (Jakob Nielsen [Nie93])

Häufig hört man im Zusammenhang mit Usability von der Three-Click Rule. Sie besagt, dass der Benutzer bereit ist, maximal drei Klicks zu machen, um an die benötigte Infor-mation zu kommen. Diese Regel kommt aus dem E-Commerce Sektor. Es soll vermieden werden, dass der User eine Webseite verlässt, ohne etwas gekauft zu haben.

Unglücklicherweise haben verschiedene Autoren diese Regel für den ganzen Bereich der Usability übernommen und deshalb hält sie sich weiterhin hartnäckig.

Wahr ist, dass Benutzer nach zu vielen erfolglosen Klicks aufgeben, besonders, wenn sie den Zurück-Button benutzen müssen. Aber diese Schwelle liegt zum Beispiel aufgrund von DSL und den damit verbundenen kürzeren Wartezeiten schon längst nicht mehr bei nur wenigen Klicks. Abhängig von der Erwartung (in Aussicht stehender Belohnung) ist der User bereit, viel häufiger zu klicken [UIE04].

1.3.3.2 Second Rule Diese Regel ist ein Leitprinzip dafür, dass ein User nicht länger als zwei Sekunden auf eine Rückmeldung vom System warten darf. Sie besagt nicht, wie häufig angenommen, dass der Benutzer nach dieser Zeit schon Ergebnisse erwartet. Hierbei ist es also neben-sächlich, ob der Benutzer länger als zwei Sekunden warten muss, wenn ihm binnen die-ser Zeit signalisiert wird, dass seine Anfrage bearbeitet wird und es in Kürze weiter geht [UIE04].

1.3.3.3 80/20 Rule Diese Binsenweisheit ist fast überall anwendbar und besagt, dass in 80% der Zeit nur 20% der Funktionalität eines Systems genutzt wird. Fokussierung und Verbesserungen dieser 20% hinsichtlich der Bedienbarkeit führen dementsprechend zu einer höheren Kundenzufriedenheit, als Verbesserungen in anderen Bereichen [UIE04].

1.3.4 Usability-Defizite Usability-Defizite sind in erster Linie Verstöße gegen die ISO 9241. Die häufigsten seien hier noch mal aufgezählt:

• Ungeeignete ergonomische Gestaltung

• Missverständliche Begriffe und Optionen

• Ungeeignete Nutzerführung

• Inkonsistenz in Gestaltung und Layout

• Unverständliche Icons

Grobe Fehler können auch bei der Benutzerführung auftreten. Man unterscheidet hier zwischen der Schwere der Folgen, die diese Defizite verursachen.

• Schweregrad 1: Defizite, die die Nutzung des Systems nicht gefährden

• Schweregrad 2: Defizite, die den Nutzer zu einem Workaround zwingen

Page 28: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

28 Usability

• Schweregrad 3: Defizite, die die erfolgreiche Anwendung gefährden oder unmöglich machen

Hierbei ist zu beachten, dass selbst mehrere Defizite des Schweregrads 1 den Benutzer frustrieren können und in folge dessen die Akzeptanz gefährden. Die Beurteilung der Defizite sollte immer im Zusammenhang mit der Anwendung geschehen [SE03].

1.4 Authentifizierungsmethoden Im Zuge der Globalisierung findet eine weit reichende Vernetzung bestehender techni-scher Infrastrukturen statt, als Begleiterscheinung häufen sich Einbrüche in Computer-system, Spionage und Sabotage im Bereich der Forschung und Industrie sowie Miss-brauch und Manipulation von personenbezogenen Daten. Mit steigender Abhängigkeit von der Verfügbarkeit und Sicherheit solcher Systeme und vor allem der Vollständigkeit und Integrität der Daten, steigt das Bedürfnis nach Sicherheit spürbar an. Neben der phy-sischen Sicherheit, also dem technischen Teil des Systems der in Hardware gegossen wird, spielt der logische Schutz eine entscheidende Rolle, da er sich um den neuralgi-schen Punkt im System dreht, der Schnittstelle zwischen Mensch und System und deren Absicherung. Genau an diesem Punkt endete bis jetzt die Benutzerfreundlichkeit von Systemen denn da wo Sicherheit beginnt, hat ein solches Kriterium meist keinen Platz. Mit Ansätzen die eine Vereinigung dieser beiden Punke möglich machen könnten wer-den wir uns im Folgenden beschäftigen.

Unter dem Begriff der Authentikation versteht man den Vorgang der Verifikation einer angenommenen oder behaupteten Identität [MARTINJ03].

Vor der Authentikation muss die zu verifizierende Identität festgelegt werden, dies pas-siert üblicherweise durch die Eingabe einer Benutzerkennung. Darf die Person auf die Ressourcen zugreifen, folgt die Verifikation der Identität durch die im Folgenden be-schriebenen nichtbiometrischen und biometrischen Methoden.

Abbildung 3: Identifikation von Menschen durch IT-Systeme [PFITZ01]

1.4.1 Nichtbiometrische Authentikation Die Zugangskontrolle, also die Prüfung der Identität des Nutzers vom System und die Zugriffskontrolle, die Kontrolle der Rechte Operationen auf Objekte auszuführen wird heutzutage noch meist mit nichtbiometrischen Systemen durchgeführt. Dazu gehören:

Page 29: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 29

• Authentikation durch Wissen, hier wird der Identität des Nutzers ein Geheimnis zugeordnet, also entweder ein PIN oder ein Passwort. Der Nutzer muss dem System also beweisen das er Kenntnis von dem Geheimnis hat. Die Gefahr liegt darin, dass das Geheimnis entweder durch Brute-Force Attacken (zum Beispiel durch Brutus) oder Social Engineering (Bekannt wurde der Hack von th-security im Februar 2002) aufgedeckt wird. Weiterhin hat der Mensch die Schwäche, seine Passwörter nicht un-bedingt nach Sicherheitskriterien auszuwählen.

• Authentikation durch Besitz, hier besitzt der Nutzer einen bestimmten Gegenstand z.B. ein Dongle, eine Magnet- oder Chipkarte. Da der Gegenstand dem Benutzer normalerweise eindeutig zugeordnet werden kann, basiert die Prüfung der Identität meist auch auf dem Gegenstand. Meist wird diese Methode aber nicht alleinig einge-setzt, weil der Gegenstand leicht verloren geht, es findet also eine Kombination mit erstgenannter Methode statt, Beispiel ist hier die Bankkarte.

• Authentikation durch Ort und Zeit, diese Methode wird meist in Verbindungen mit den anderen Methoden eingesetzt, um zum Beispiel zu gewährleisten, dass der Zugriff nur von einem Firmenrechner oder nur zu Geschäftszeiten erfolgt.

1.4.2 Biometrische Authentikation Der Alltag vieler Menschen, vom Öffnen der Wohnungstür über das Einschalten des Handys bis zur Benutzung von Bankautomaten und der Einwahl ins Internet, überall werden Passwörter und PIN’s benutzt um die Identität des Benutzers zu verifizieren. Doch diese Vielzahl an Schlüssel und Codes sind unpraktisch und überfordern viele Menschen. Resultat ist, das Passwörter vergessen werden, Schlüssel verloren gehen und viele Menschen sich schlechte Angewohnheiten zulegen, indem sie gleiche oder zu ein-fache Passwörter verwenden. Biometrische Verfahren bieten hier neue Möglichkeiten zur Identifikation gegenüber technischen Systemen mit Hilfe einmaliger körperliche Merk-male wie Iris, Fingerabdruck, Gesichtsform, Stimme usw. Im Moment werden solche Systeme in der Industrie und Verwaltung in sicherheitssensiblen Bereichen eingesetzt, aber auch im privaten Bereich beginnen sie ihren Siegeszug anzutreten, in Form von Fin-gerabdruck-Scanner und Webcam-Lösungen (bei den folgenden Erläuterungen möchten wir solche System aber ausdrücklich nicht mit einbezogen wissen, da sie in der heutigen technischen Fassung noch äußerst anfällig sind sind [BINARY02] (How to hack bio-metrics-hardware, von Zya awl zeigt hierzu interessante Ansätze).

1.5 Bimetrische Systeme Lexikalisch wird die Biometrie als "Lehre der Anwendung mathematischer, statistischer Methoden auf die Mess- und Zahlenverhältnisse der Lebewesen und ihrer Einzelteile" definiert. Im engeren, auf die Informatik-Welt bezogenen Sinn, ist Biometrie ein Syn-onym für den Identitätsnachweis von Personen unter Verwendung ihrer individuellen körperlichen Merkmale. Diese Eigenheiten müssen allerdings so einzigartig ausfallen, dass sie möglichst nur einer Person eindeutig zugeordnet werden können. Fingerabdrü-cke, Netzhaut- oder Irismuster, Gesichtsform, Stimme oder Venenbild erlauben eine sehr genaue Verifizierung der Echtheit und der daraus resultierenden Kompetenz einer Per-son. Damit wird der Einsatz dieser Techniken vor allem für Kontrollsysteme sinnvoll, mit deren Hilfe buchstäblich haargenau zwischen berechtigten und unberechtigten Be-nutzern unterschieden werden muss [MARCR00].

Page 30: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

30 Usability

Abbildung 4: Biometrische Verfahren Übersicht

1.5.1 Funktionsweise eines biometrischen Systems

Abbildung 5: Enrollment und Identification [MarcR00]

1.5.1.1 Enrollment(Personalisierung) Vor der Authentikation muss das System den Benutzer kennen lernen, indem eine Refe-renz der Merkmalsstruktur für den späteren Vergleich angelegt wird, was als Personali-sierung oder Enrollment bezeichnet wird. Bei diesem Vorgang ist größte Sorgfalt von Nöten, da bei späteren Erkennungsversuchen auch bei einem schlechten Muster eine richtige Klassifizierung verlangt wird, die elementar für die Akzeptanz und Alltagstaug-lichkeit des Systems ist. Im späteren Verlauf werden wir noch näher auf die Kennzahlen für „falsche Zurückweisungen “(NFR) und „falsche Akzeptierungen“ (NFA) eingehen, die dafür als Maß gelten und selbst bei Probeversuchen am Frankfurter Flughafen noch zu hoch waren, um für dieses Gebiet uneingeschränkt tauglich zu sein.

1.5.1.2 Wiedererkennung Die Wiedererkennung unterscheidet man in Verifikation und Identifikation.

Biometrische Verifikation, der Abgleich der behaupteten Identität mit einem gespei-cherten biometrischen Profil, also 1:1 Zugriff auf die Datenbank während der biometri-schen Authentikation (Der gesamte Prozess, mit dem der Benutzer konfrontiert wird, um Zugriff auf Systemressourcen zu erhalten).

Page 31: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 31

Biometrische Identifikation, Erkennung der Person anhand der erfassten biometrischen Merkmale, also 1:n Zugriff auf die Datenbank während der biometrischen Authentikation (Der gesamte Prozess, mit dem der Benutzer konfrontiert wird, um Zugriff auf System-ressourcen zu erhalten).

• Erfassungs-Stufe (Capture Stage)

In der ersten Stufe der Identifikation findet die Datenerfassung statt, es werden die physikalischen oder verhaltensbezogenen Eigenschaften als so genanntes „Sample“ erfasst und digitalisiert. Je nach Verfahren sind hier Umwelteinflüsse entscheidend für die Qualität des Sample und damit im Endeffekt auch für die Anzahl der NFR/NFA, ein Versuch am Nürnberger Flughafen wurde zum Beispiel eingestellt, Fazit „… Das geschulte Auge eines Polizisten leiste deutlich mehr als die Software, die falsche Passbilder durch den Vergleich mit dem Passinhaber erkennen sollte.“ [SIL03]

• Selektions-Stufe (Feature Extraction Stage)

Hier findet die Merkmals Extraktion aus dem Sample statt, indem möglichst spezifi-sche Eigenschaften selektiert und extrahiert werden, daraus entsteht ein so genanntes Template (die Templates von zwei verschiedenen Personen sollten sich wegen den oben genannten Eigenschaften signifikant unterscheiden).

• Vergleichs-Stufe (Comparison Stage)

In diesem Vergleichsprozess wird das temporär erfasste Template mit denen in der Datenbank gespeicherten abgeglichen. Wobei ein Algorithmus für eine gewisse Feh-lertoleranz sorgt, da sich die Samples ein und derselben Person nie exakt gleichen, weil sie durch Umwelteinflüsse oder Krankheit verfälscht werden. Genau hier liegt meist der Haken, da das System zwar berechtigten Personen den Zugang gewähren aber Fremde abweisen soll.

• Entscheidungs-Stufe (Decision Stage)

In der dritten und letzten Phase der Identifikation muss das System entscheiden, ob ein Match zwischen dem gescannten Template und einem in der Datenbank besteht. Zu diesem Zweck wird eine „matching-score“ erzeugt, die das Verhältnis der Über-einstimmung widerspiegelt. Mit Hilfe eines vorher festgelegten Schwellenwertes wird dann entschieden, ob es einen positiven Match gibt.

1.5.2 Arten biometrischer System Biometrische Verfahren kann man nach unterschiedlichen Merkmalen unterteilen.

1.5.2.1 Fingerabdruck-Erkennung (Fingerprint-Recognition) Der Fingerabdruck ist ein Muster aus Furchen an der Spitze unserer Finger, hauptsäch-lich ist die Ausprägung abhängig von der DNA, wobei die feineren Strukturen durch Ein-flüsse aus der Umgebung während der ersten siebenten Monat der Fötusentwicklung ent-stehen. Da eine Prüfung aller Merkmal aus Performancegründen nicht möglich ist, findet eine Kategorisierung in sechs Hauptklassen statt: whorl, loop, lrft loop, twin loop, arch und tented arch. Am gebräuchlichsten ist die Methode, die auf der Struktur der Minutien beruht. Man versteht darunter die verschiedenen Arten wie zum Beispiel Unterbrechun-gen der Furchen wie sie in der Abbildung 6 zu erkennen sind [TWINT02].

Page 32: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

32 Usability

Abbildung 6: Minutien [MarcR00]

Der Sensor reduziert das Fingerlinienrelief auf zwei Dimensionen, indem die dritte Di-mension in Grauwerte umgewandelt wird, die hervorstehenden Fingerlinien werden da-bei dunkler, die Täler dementsprechend heller dargestellt. Bei der Aufnahme unterschei-det man zwischen einem zeilenweisen oder flächigen Einleseverfahren, wobei alle Senso-ren versuchen ein digitales Bild der Fingeroberfläche zu erzeugen [BROMA04].

Abbildung 7: Bilderzeugung [SamerA02]

Die Bilderzeugung kann natürlich entsprechend dem physikalischen Abtastverfahren anders aussehen, wir werden im Folgenden auf die wichtigsten eingehen.

• Optische Sensoren

Wie im unteren Bild ersichtlich wird der Finger plan auf die Glasoberfläche aufge-legt, dort wo die Fingerlinien das Glas berühren, wird die Totalreflexion des Lichts innerhalb des Glases gestört und liefert so die Abbildung der Fingerlinien auf dem Kamerachip. Eine zweite Möglichkeit ist, den Finger direkt zu durchleuchten, d.h. das der Finger direkt auf der durch eine Glasplatte geschützten Kamerachip aufliegt. Dabei ist vorteilhaft, dass das Licht ohne Schärfeverlust und sonstige Optik den Ka-merachip erreicht [BROMA04].

Abbildung 8: Funktionsprinzip optischer Sensor [SamerA02]

Page 33: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 33

• Kapazitive Sensoren

Diese Methode basiert auf der Messung der Kapazität zu den Nachbarelektroden, wobei für jeden Pixel eine Elektrode zur Verfügung steht. Da die Kapazität abhängig vom verwendeten Dielektrikum ist, ergibt sich bei Luft eine niedrigere Kapazität als bei den Fingerlinien, da Wasser eine sehr hohe Dielektrizitätskonstante besitzt. Aus den gemessenen Kapazitäten lässt sich dann das Fingerlinienbild abbilden [BROMA04].

Abbildung 9: induktiver Sensor [SamerA02]

• Ultraschall Sensoren

Hier erfolgt die Abtastung des Profils der Fingeroberfläche durch hochfrequenten Ultraschall, Basis ist hier die Lauflängenmessung wie sie in ähnlich in der Industrie verwendet wird (bei Interesse ist „Sensoren für die Produktionstechnik“ von Wolf-gang Adam aus dem Springer Verlag zu empfehlen). Durch die unterschiedlichen Lauflängen lässt sich die Struktur abtasten und ein verwendbares Bild erzeugen.

• Thermische Sensoren

Bei dieser Art der Sensoren bewegt man den Finger linear über eine Zeile von Ther-mosensoren, diese registrieren die zeitlichen Temperaturdifferenzänderungen, die durch das thermische Verhalten von Luft und Wasser auftreten.

Die Vorteile von Fingerabdruck-Sensoren liegen vor allem in den niedrigen Kosten und der einfachen Nutzung der Systeme, außerdem lassen sie sich recht einfach integrieren und sind recht kompakt in ihrer Bauweise. Probleme haben sie wie alle biometrischen System bei Verzerrungen, Translation und Rotation der Merkmale.

1.5.2.2 Handgeometrieanalyse Die menschliche Hand besteht aus 27 Knochen, 36 Gelenken und 39 Muskeln, also was liegt näher als sie zu vermessen und für die Identifikation zu verwenden. Für die Be-stimmung der Handgeometrie werden mehrere Merkmals-Dimensionen verwendet:

• Die Länge der Finger, insbesondere des Mittelfingers und des kleinen Fingers

• Die Breite und die Höhe der Finger und der gesamten Handfläche

• Die Krümmung der Finger im Bezug auf den Mittelpunkt des Fingers

• Winkel der Interfinger-Punkte (Koordinaten zwischen den Fingern) zueinander

Zur eindeutigen Identifikation werden typischerweise 25 – 90 Messpunkte festgelegt, um ein entsprechendes Template zu erzeugen.

Page 34: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

34 Usability

Abbildung 10: Handflächenerfassung [SamerA02]

Der Handreader der vorstehenden Abbildung besteht aus einem Leuchtelement das für eine gleichmäßige Ausleuchtung sorgt, einer Auflagefläche für die Hand, einer Spiegel-mechanik, die seitliche Aufnahmen von der Hand erlauben, und einer CCD-Kamera. Um die Position der Hand sicherzustellen sind auf der Auflagefläche außerdem Stifte ange-bracht, die dafür sorgen, dass die Hand die gleiche Lage hat wie beim Enrollment.

Beim Enrollment werden von der Hand der Benutzer mehrere Bilder gemacht, um ein Match wahrscheinlicher zu machen, da in Alltagssituationen die Hand nicht immer iden-tisch aufliegt. Bei der Identifikation wird dann von der CCD-Kamera ein schwarz-weiß Bild erzeugt, von dem dann Schmutz und Unreinheiten entfernt und durch Kantendetek-tion aus den Bildern die spezifischen Merkmale extrahiert und Durchschnittsvektoren erzeugt werden, die dann das Template darstellen.

Identifikation und Verifikation auf Basis der Handgeometrie ist nur für mittlere Sicher-heitsanforderungen sinnvoll, der Vorteil liegt in den geringen Kosten, der schnellen Ver-arbeitung der Daten und einer hohen Nutzerakzeptanz. Nachteil ist vor allem die Größe, da logischerweise ein Einsatz in Handys ausfällt und im Vergleich zu anderen Verfahren hohe NFA.

1.5.2.3 Irismustererkennung Die Iris ist ein ringförmiger Augenmuskel, beim Wachstum reißt die Regenbogenhaut auf und ein feinmaschiges Netzwerk entsteht, welches einem biologischen Barcode gleich das ganze Leben unverändert bleibt und bei jedem Menschen einzigartig ist.

Abbildung 11: Iriserkennung [SAMERA02]

Bei der Erfassung unterscheidet man aktive und passive Systeme, die passiven sind von der Benutzerfreundlichkeit sinnvoller, da der Nutzer die Fokussierung dem System über-lassen kann. Um jetzt den Benutzer zu identifizieren, wird mit Hilfe von Kameras das

Page 35: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 35

Auge erfasst und ein schwarz-weißes Bild des Auges aufgenommen, wobei die Kamera auch infrarotes Licht benutzen kann. Es wird nun eine Schablone wie oben ersichtlich auf das Auge gelegt, um keine Probleme durch Augenlieder oder Kamerareflektionen zu bekommen, und die Schattierungen zwischen hellen und dunklen Regionen der Iris in Code umgesetzt [BIOI00].

Die Iris besitzt Eigenschaften, die sie für die Authentikation empfehlen, die heutigen Systeme sind schon recht ausgereift und gewährleisten, dass wirklich echte Merkmale betrachtet werden, indem mehrere Bilder der Iris gemacht werden. Als Vorteile kann das System für sich verbuchen, dass es sehr bequem und einfach zu nutzen ist, eine hohe Ge-nauigkeit besitzt und die Iris hinter der Hornhaut gut geschützt ist vor Verletzungen. Weiterhin ist die Fehlerrate mit 1/1.2 Mio so gering wie bei keinem anderen Biometri-schen System. Allerdings gibt es auch Nachteile, die sich aus der Unausgereiftheit im Allgemeinen und im Technischen ergeben. Dazu gehören die hohen Kosten, Akzeptanz-probleme durch die Benutzer und technische Probleme, da sich die Iris mit ca. 11mm Durchmesser hinter einer nassen Oberfläche und ständig in Bewegung noch schwer er-fassen lässt.

• Gefäßstruktur der Retina

Ebenso wie die Iris ist die Retina eins der sicherstes biometrisches Merkmale, da es nicht einfach ist, die Netzhaut zu ändern oder zu replizieren. Generell werden die Strukturen der Retina durch Verlauf, Form und Größe der Blutgefäße der äußeren Zellschicht geprägt und unterscheiden sich sogar bei Zwillingen. Als Negativpunkt kommt allerdings hinzu, dass durch Krankheiten (Diabetes, Degeneration…) geplatz-te Kapillargefäße das Muster verändern können. Beim Scan der Retina wird das Au-geninnere aufgenommen, bedingt durch die geringe Größe der Pupille und den sehr geringen Lichtaustritt aus der Pupille ist es aber schwierig, auswertbare Bilder zu be-kommen, da eine Pupillenerweiterung unerlässlich ist, was aber einem Benutzer nicht zuzumuten wäre, da das Sehvermögen danach noch einige Stunden beeinträchtigt wä-re. Aus diesen Gründen entfällt eine weitere Betrachtung [BIOI00].

Abbildung 12: Retina [SAMERA02]

• Gesichtsgeometrie-Erkennung

Schon heute findet die Gesichtsgeometrie ihre Anwendung in Hologramm- und 2-D Aufnahmen des Gesichts in Dokumenten und Smartcards zur Identifikation und Zu-gangskontrolle. Die Firma A4Vision betreibt zum Beispiel in einer Erprobungsphase im Rahmen des US-VISIT Systems ein Enrollment Verfahren, das innerhalb von 10s ein 3-D Muster des Gesichts erstellt und abspeichert und die Identifikation innerhalb von 5s bei einem Maximalabstand von 1,8m bewältigt [RAVEN04].

Zur Erfassung des Gesichts stellt sich die Person vor ein Gerät, das aus einer Kombi-nation aus Lichtprojektor und Kamera besteht. Der Projektor legt ein Lichtmuster aus strukturiertem Licht über das Gesicht. Durch die Gesichtsgeometrie ergeben sich in

Page 36: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

36 Usability

diesem Lichtmuster Abweichungen, die für jedes Gesicht einzigartig sind. Eine Ka-mera zeichnet das veränderte Lichtmuster auf und übergibt die Aufnahme an ein Pro-gramm, das mit entsprechenden Algorithmen die Werte extrahiert, die sich aus den Unterschieden zwischen den Ausgangswerten des Lichtmusters und den veränderten Werten des Lichtmusters nach dessen Projektion ergeben. Über weitere Bildverarbei-tungsalgorithmen und -filter konstruiert die Software ein feines Gitternetz aus einzel-nen Bildpunkten, die als Koordinaten einer räumlichen "Karte" ein 3-D Abbild des Gesichts liefert. Dieser ganze Prozess dauert maximal 10 Sekunden. Von dem Abbild wird wiederum eine biometrische, numerische Vorlage extrahiert, die Charakteristika des Schädels enthält, die zur Ausgestaltung der aufgezeichneten und rekonstruierten Gesichts-Oberfläche führt. Diese Vorlage kann auch in einer SmartCard gespeichert werden und dient dann durch den Abgleich der Identitätsüberprüfung [RAVEN04].

Man unterscheidet beim Enrollment zwischen „Elastic Graph Matching“ & „Eigenfaces“

• Elastic Graph Matching

Elastic Graph Matching bedient sich Graphen, um die spezifischen Merkmale des Gesichts zu erfassen. Dazu wird ein Gitter über das Gesicht gelegt, wobei die Kno-tenpunkte an wichtigen Punkten wie Augen- und Mundwinkel oder Nasenspitze fest-gemacht sind. Über ein zu identifizierendes Gesicht wird dann der Referenzgraph ge-legt und innerhalb bestimmter Grenzen verformt bis eine maximale Übereinstim-mung erreicht ist. Liegt dieser Wert über einen bestimmten Schwellwert, gibt es ei-nen positiven Match.

Abbildung 13: Elastic Graph Matching [SAMERA02]

• Eigenfaces

Bei Eigeninterfaces wird versucht, durch Positiv- und Negativkomposition von Ba-sisgesichtern das Abbild des gegebenen Gesichtes möglichst originalgetreu nachzu-bilden. Die meisten Verfahren arbeiten dabei mit einem Satz von ca. 100 Basisbildern einer Person. Das Übereinanderlegen bewirkt eine Verstärkung markanter und eine Abschwächung varianter Bereiche, was die Erkennungssysteme toleranter gegenüber verschiedenen Gesichtsausdrücken macht und so die Alltagstauglichkeit erhöht.

Page 37: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 37

Abbildung 14: Eigenfaces [GES01]

Die Erfassung der Gesichtsgeometrie profitiert von relativ günstigen Sensoren und einer hohen Benutzerakzeptanz, allerdings werden recht umfangreiche Datensätze angelegt was Performanceprobleme mit sich bringt. Des Weiteren bringen wechselnde Lichtver-hältnisse und zum Beispiel Gewichtsabnahme die Systeme aus dem Tritt, was ihrer All-tagstauglichkeit natürlich abträglich ist.

1.6 Fazit und Ausblick Die Usability wurde viele Jahre sehr stiefmütterlich behandelt. Nach und nach besinnt man sich, auch wegen des hohen Marktdruckes, mehr auf den User einzugehen und ihm die Arbeit mit einem Produkt zu erleichtern. Trotzdem würden viele Produkte auf dem Markt einer Usability-Überprüfung nicht standhalten, denn die Programmierer haben häufig keine Kenntnisse über Ergonomie und Usability. Es fehlt das Wissen über die ISO 9241, welche bei Einhaltung zwar vordergründig Kapital und Ressourcen kostet, aber spätere Folgekosten minimiert.

Viele neue Unternehmen in der IT-Branche befassen sich ausschließlich mit der Usabili-ty und helfen anderen Unternehmen mit Tests und ihrem Fachwissen, deren Defizite im Bereich der Benutzerfreundlichkeit zu eliminieren.

In Zukunft werden viele Bücher über die Usability geschrieben und viele Programmierer werden sie weiterhin ignorieren, wie sie auch jetzt die Design- und Testphasen im Soft-wareentwicklungsprozess meiden. Aber andere werden nah am Benutzer programmieren, somit dessen Akzeptanz gewinnen und im Endeffekt ihr Produkt besser vermarkten.

In den Abschnitten zu biometrischen Verfahren wurden einige Beispiele und Ansätze für die Verwendungsmöglichkeiten im Alltag gezeigt. Die Vorteile sind, dass man die menschliche Bequemlichkeit als Unsicherheitsfaktor ausschließt, da man die biometri-schen Merkmale ja immer bei sich trägt. Weiterhin bieten sie zumindest in Verbindung mit klassischen Systemen eine recht hohe Sicherheit und sind natürlich praktisch und bequem. Aber auch die Schwierigkeiten, die noch bestehen, dürfen nicht vergessen wer-den: Ein Passwort, das man vergisst, kann neu vergeben werden, was aber macht man bei gestohlenen biometrischen Merkmalen. Was vielleicht noch schwerer wiegt, ist die be-grenzte Merkmalsmenge, wer möchte sich denn mit dem Merkmal, mit dem er sich am Arbeitsplatz einloggt, am Bankautomaten Geld abheben?

Page 38: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

38 Usability

Die Unzuverlässigkeit und die noch extrem hohen Kosten sprechen auch in näherer Zu-kunft gegen solche Systeme. Eine Kombination mit bestehenden nichtbiometrischen Ver-fahren wird sich aber auf lange Sicht durchsetzen und die Sicherheit bzw. Bequemlich-keit in sensiblen Bereichen erhöhen, vor allem auch in Hinsicht auf den Terror, der sich im Moment ausbreitet. Aber genau hier liegt der Haken, der auch der Biometrie Schwie-rigkeiten bereiten kann. Seit den Anschlägen vom 11. September 2001 in New York wurde die Einführung biometrischer Erkennungsmethoden von den USA extrem forciert und auch den Europäern auferlegt, um die Terrorgefahr abzuwehren. Aber nicht alles, was mittels biometrischer Verfahren möglich ist, ist für die unterschiedlichen Anwen-dungsbereiche sinnvoll und wird von den Bürgern akzeptiert. Die Erfassung und Hinter-legung biometrischer Daten ist Datenschutzrechtlich bedenklich und weckt Begehrlich-keiten nicht nur staatlicher Organe.

"Ein Staat, der die Bequemlichkeit für die Ermittlungsbehörden vor die Bürgerrechte stellt, setzt die falschen Prioritäten und bewegt sich in letzter Konsequenz weg von einem Staat der Bürger hin zu einem Polizeistaat" CCC-Sprecher Andy Müller-Maguhn

Entnommen der Presseerklärung, Zentrale Speicherung biometrischer Daten gefährdet Grundrechte, des Chaos Computer Clubs vom 21. November 2003.

Letztendlich ist die Biometrie durchaus sinnvoll und wird auf kurze oder lange Sicht Einzug in unser Leben halten, allerdings stellt sie auch ein Risiko für die Persönlichkeits-rechte dar, so dass eine kritische Auseinandersetzung mit dem Thema notwenig bleibt.

Page 39: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 39

2 AUGMENTED REALITY

Bereits heute sind Computer aus dem Leben der Menschen nicht wegzudenken. Immer häufiger werden sie sowohl in der Arbeitswelt als auch bei der Freizeitgestaltung zu un-verzichtbaren Helfern. Bei deren Einsatz begegnet man auch zunehmend virtuellen Reali-täten, welche die reale Welt gänzlich ersetzen und uns in Traumwelten eintauchen lassen. Eine Unterscheidung von Realität und Virtualität ist dabei kaum noch wahrnehmbar. Doch nicht nur die Nachahmung unserer Umgebung war und ist Gegenstand aktueller Forschung. Da das völlige Ersetzen realer Umgebungen in den meisten Fällen nicht sinn-voll ist, wird zunehmend versucht, die reale Umgebung durch zusätzliche computergene-rierte Informationen anzureichern und sonst für den Menschen verborgene Informationen sichtbar, hörbar und fühlbar zu machen. Es entstehen Mischwelten, welche sowohl reale als auch virtuelle Elemente enthalten und unsere Wahrnehmung nachhaltig verändern. So kann ein Arzt während einer Operation über spezielle Displays lebenswichtige Daten direkt auf dem Körper des Patienten sehen und das Ungeborene kann in 3D auf den Bauch der Mutter projiziert werden. Aber nicht nur in der Medizin findet die junge Technologie, die als „Augmented Reality“ bezeichnet wird, Anwendung. Augmented Reality-Technologien gewinnen vor allem in der Industrie, Unterhaltungsbranche und beim Militär zunehmend an Bedeutung. Viele der Augmented Reality-Technologien wurden bereits für den Einsatz in der Virtual Reality konzipiert. Die meisten konnten allerdings für die Bedürfnisse der Augmented Reality angepasst und erweitert werden. Besonders die „Head Mounted Displays“ (HMDs) erfreuen sich auch in der Augmented Reality großer Beliebtheit. Während jedoch die Virtual Reality-Forschung ihr Augen-merk auf die Erstellung einer möglichst realistischen Kopie der Realität richtet, besteht die Herausforderung der Augmented Reality darin, reale und virtuelle Welten kontext-sensitiv zu verbinden. Es muss exakt bestimmt werden, welche Inhalte wann, wie und wo genau miteinander kombiniert werden sollen. Zusätzlich ist die multimodale Interaktion mit der Mischwelt zu realisieren, um in Zukunft eine komplette und übergangslose Ver-schmelzung von Realität und Virtualität zu erreichen.

Abbildung 15: Futuristischer Einblick

Dieses Kapitel eröffnet einen Einblick in das Thema Augmented Reality. Dazu soll ein-führend näher auf den Begriff „Augmented Reality“ eingegangen und charakteristische Eigenschaften dieser Disziplin genannt werden (Abschnitt 2.1: Definition und Ursprung). Der Hauptteil dieses Kapitels stellt die wichtigsten Anwendungsgebiete der Augmented

Page 40: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

40 Augmented Reality

Reality anhand einiger ausgewählter Projekte vor und beleuchtet die für dieses Thema bedeutendsten Technologien mit ihren Problemen und Grenzen in einem gesonderten Abschnitt (Technische Aspekte). Abschließend gibt das Kapitel einen Ausblick in eine mögliche Zukunft im Bereich Augmented Reality.

2.1 Definition und Ursprung Den zahlreichen Science-Fiction Autoren (wie unter anderem William Gibson in seinem Roman “The Neuromancer“) ist es zu verdanken, dass sich der Begriff „Virtual Reality“ als einen festen Bestandteil der Forschung in der heutigen Gegenwart etablieren konnte.

Die Vision der Zukunft ist als eine neue Generation der Mensch-Maschiene Schnittstelle aufzufassen. Wissenschaftler verarbeiten diese Ideen für ihre Forschung, die anfänglich nur Visionen waren, jedoch aber heute nicht mehr aus unserem Leben wegzudenken sind.

Virtual Reality hinterlässt in vielen Anwendungsbereichen Spuren, wie z.B.: in der In-dustrie, Forschung und Medizin.

Was ist „Virtual Reality“?

Der Autor Alexander Henning definiert in seinem Buch “Die andere Wirklichkeit” kurz und präzise, was unter dem Begriff „Virtual Reality“ zu verstehen sei:

“Virtual Reality ist eine Mensch-Maschine-Schnittstelle, die es erlaubt, eine computer-generierte Umwelt in Ansprache mehrer Sinne als Realität wahrzunehmen.“

Andere Begriffe wie z.B. „Virtual Enviroments“ oder “Realistic Sensation” werden in dem Zusammenhang „Virtual Reality“ oft benutzt, sind jedoch als gleichbedeutende Begriffe zu verstehen.

Man unterteilt „Virtual Reality“ in vier verschiedene Bereiche:

• Immersive Virtual Reality

• Artifical Reality

• Augmented Reality

• Cyberspace

Was ist „Augmented Reality”?

Bei der Frage nach einer eindeutigen, umfassenden Definition des Begriffes Augmented Reality scheiden sich die Geister. Es existieren inzwischen zahlreiche Definitionen dieses Begriffes, die je nach Interesse des jeweiligen Verfassers den einen oder anderen Aspekt hervorheben.

Allgemein lässt sich sagen, dass Augmented Reality (AR) eine Variante der Virtuellen Realität (VR) ist. Im Gegensatz zur Virtuellen Realität ersetzt Augmented Reality jedoch die „echte“ Realität nicht durch eine gänzlich virtuelle. Vielmehr ist es das Ziel der Augmented Reality, die reale Welt, wie der Name schon sagt, zu erweitern. Dies ge-schieht durch das Einblenden von computergenerierten Objekten in das Sichtfeld des Benutzers, so dass dessen Wahrnehmung kontextabhängig und in Echtzeit angereichert wird.

Laut Azuma [Azuma et al. 2001], einem viel zitierten Experten auf diesem Gebiet, muss ein AR-System folgende drei Eigenschaften erfüllen:

1) kombiniert reale und virtuelle Realität in einer realen Umgebung

2) läuft interaktiv und in Echtzeit und

Page 41: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 41

3) ordnet reale und virtuelle Objekte korrekt zueinander an (Registrierung).

Obwohl der Begriff Augmented Reality historisch zunächst eine durch ein „Head Moun-ted Displays“ (HMD, s. 2.3.1.1.) wahrgenommene reale, mit virtuellen Objekten angerei-cher-te Umgebung bezeichnete, lehnt Azuma diese Beschränkung auf bestimmte Anzei-ge-technologien ausdrücklich ab. Auch reduziert er die AR nicht nur auf die optische Wahr-nehmung, obwohl dies der momentane Forschungsschwerpunkt ist, sondern vertritt den Standpunkt, dass AR auch das Gehör, den Tastsinn, den Geruch und den Geschmack ansprechen kann. Für bestimmte Anwendungen bedarf es sogar eines eventuellen Entfer-nens von realen Objekten aus der wahrgenommenen Umgebung, um stattdessen virtuelle Objekte hinzufügen zu können.

Ein Modell nach Milgram und Kishino [Milgram 1994] zeigt noch einmal deutlich die Beziehung zwischen Augmented Reality und Virtual Reality und verdeutlicht die erste von Azuma geforderte Eigenschaft:

Abbildung 16: Repräsentation eines Realit -Virtuality Kontinuums [Milgram 1994]

Der Verlauf von Realität zu Virtualität erfolgt fließend. Werden virtuelle Objekte in eine reelle Umgebung eingearbeitet, so handelt es sich um Augmented Reality. Im umgekehr-ten Fall spricht man von Virtual Reality, wenn eine virtuelle Umgebung mit reellen Ob-jekten angereichert ist. Allgemein bezeichnen Milgram et al. dieses Reality-Virtuality Kontinuum als Mixed Reality (wobei die reine Realität bzw. Virtualität ausgeschlossen wird).

2.2 Anwendungsgebiete Auf Grund der Vielfältigkeit der Augmented Reality sind daher auch die Spuren in unter-schiedlichen Anwendungsgebiete (z.B. Medizin, Militär) aufzuweisen. Durch den Ein-satz von unterschiedlichen AR-Systeme wird die Visualisierung unterstützt bzw. erst ermöglicht.

Auch AR steht im Mittelepunkt der Forschung und viele dieser Projekte sind erst einmal nur prototypisch einsetzbar. Es ist aber eine Frage der Zeit bis sie sich voll und ganz in die Märkte etablieren können.

Folgende Beispiele sollen nun verdeutlich wie vielfältig AR sein kann und wo sie bereits angewandt wurde.

Page 42: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

42 Augmented Reality

2.2.1 Medizin Im Bereich Medizin sollen AR-Systeme schon in der Ausbildung eingesetzt werden. Sie sollen den Medizinern oder werdende Mediziner verhelfen, sich in den neuen Operati-onstechniken einzuweisen.

AR-Systeme sollen sogar helfen, Fernoperationen zu ermöglichen. Hier soll dem Chi-rurgen mittels einer AR-Sytem die Option gegeben werden, von einem anderen Ort aus einem Patienten zu operieren. Das Interesse an solchen Projekten ist besonders beim Mi-litär aufzuweisen, somit werden auch Forschungen in den Bereichen der Teleoperation von Ihnen unterstützt und gefördert. Es wäre eine große Hilfe, Verletze an der Front von einem Arzt operieren zu lassen, der sich physisch nicht im Krisengebiet aufhalten muss. Diese Tele-Operations-System werden auch als Tele-Manipulatoren bezeichnet, hier gibt es bereits „benutzbare“ Prototypen.

Es existieren aber auch Geräte, die bereits in Krankenhäusern regelmäßig eingesetzt wer-den. Einer dieser Geräte, welches von der Opticon GmbH entwickelt und hergestellt wird, bezeichnet sich als das 3D-Video-Endoskop. Es wurde bereist 1992 bei einer Ope-ration am Menschen eingesetzt (Prof. G.Buess, Universitätsklinik Tübingen, Entfernen einer Gallenblase).

Mit dem 3D-Video-Endoskop erhalten Mediziner mittels einer 3D-Brille ein „räumli-ches“ Bild, welches durch eine Mini-Stereokamera auf einem Monitor projiziert wird. Mediziner nehmen dieses Gerät in der Minimal Invasive Chirurgie gerne als Hilfe, da sie hiermit minimale Operationsschnitte operieren können.

Nach einjährigem Einsatz (1993) in der Chirurgie wurde das 3-D-Video-Endoskop mit dem Innovationspreis der deutschen Wirtschaft prämiert.

Abbildung 17: Beispielbilder aus der Medizin mit AR-Techniken

Page 43: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 43

Abbildung 18: AR-Displays in der Medizin

2.2.2 Militär Auf Grund seiner Vielfältigkeit der AR-Techniken ist es auch vielseitig einsetzbar. Das Militär ist stark an den neuen Möglichkeiten, die sich durch den Einsatz von AR-Systeme ergeben, interessiert. Daher werden Forschungsprojekte vom Militär stark gefördert.

Bereits 1960 wurden AR-Displaysysteme von dem Wissenschaftler Ivan E. Sutherland erforscht und weckten das Interesse der PRPA (Pentagon’s Advanced Research Projects Agency).

Das Militär verwendet AR-System Zweck Ausbildung und Training. Weitere Einsatzge-biete der AR-Technik finden sich z.B. beim Kapfeinsatz: dem Flugzeugpiloten werden während eines Einsatzes wichtige Zusatzinformationen (Position des Gegners, Informati-onen über Energieversorgung...) mit Hilfe von HMDs zur Verfügung gestellt.

Abbildung 19: Land Warrior (links) und Sichtfeld eines Kampfpiloten (rechts)

2.2.3 Entertainment Die Vielseitigkeit der Anwendungsgebiete der AR kommen besonders in der Unterhal-tungsindustrie zur Geltung.

Hier befinden sich viele der AR-Techniken seit längeren im Einsatz. Unabhängig davon, ob es in den Spielhallen oder beispielsweise in Sportberichten (Schwimmbahn des Favo-riten wird eingefärbt oder das Einblenden von Yardlinien beim Football, s. Abbildung 20, links), hat sich AR als einen festen Bestandteil der Unterhaltungsindustrie etabliert und ist auch hier nicht mehr wegzudenken.

Page 44: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

44 Augmented Reality

Auch im Bereich der Spielindustrie werden AR-Techniken gerne immer mehr eingesetzt, wie beispielsweise beim AR2Hockey oder Eye Toy.

Zudem gibt es auch in der Filmindustrie Versuche, über AR quasi mit virtuellen Sets zu arbeiten.

Abbildung 20: Einsatz von AR beim Entertainment

2.2.4 Technische Anwendungen Wer sich heute mit komplizierten und undurchschaubaren Bedienungsanleitungen abmü-hen muss, kann sich schon auf morgen freuen, denn schon in naher Zukunft sollen solche komplizierten Anleitungen dank des Einsatzes von „Augmented Reality“-Systemen der Vergangenheit angehören.

Besonders im industriellen Bereich kann Augmented Reality zu einer unverzichtbaren Hilfe werden, wenn es z.B. um Erstellung, Wartung und Reparatur von technischen Ge-räten geht. Wegen der sich ständig weiter entwickelnden und immer komplexer werden-den Technik, erhöhen sich auch die Anforderungen an den Anwender. Der Umgang mit technischen Produkten wird immer schwieriger.

Augmented Reality eignet sich daher sehr gut dazu, den Anwender bei seiner Arbeit zu unterstützen. Technische Dokumentationen und Gebrauchsanleitungen können leicht verständlich präsentiert werden, indem Informationen auf betrachtete Geräte überblendet werden. So können z.B. schrittweise Reparaturanweisungen (in beliebiger Form) direkt über einem Bauteil mittels eines „Head Mounted Displays“ (2.3.1.1.) in das Sichtfeld des Mechanikers gebracht werden. Ein situationsgerechtes Agieren wird auf diese Weise erleichtert. Eine solche AR-Szene illustriert Abbildung 21 [Fründ 2003].

Abbildung 21: Autoreparatur mit Hilfe eines AR-Systems

Page 45: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 45

Ein sehr großes und bekanntes Projekt, das sich mit AR-Technik in industriellen An-wendungen beschäftigt, ist das vom Bundesministerium für Bildung und Forschung (BMBF) geförderte Leitprojekt „ARVIKA“. Das Projekt selbst ist zwar bereits ausgelau-fen, jedoch hat sich daraus das Folgeprojekt ARTESAS (Advanced Augmented Reality Technologies For Industrial Service Applications) ergeben. Der Schwerpunkt von AR-VIKA liegt auf Anwendungen in Entwicklung, Produktion und Service in der Automo-bil- und Flugzeugindustrie.

Eine mögliche Anwendung bei der Automobilherstellung ist die Auswertung von Crash-testdaten. Vorherberechnete Verformungen können im Sichtfeld des Ingenieurs auf das reale Crashfahrzeug überlagert werden. Der Ingenieur kann somit schnell „auf einen Blick“ Differenzen erkennen und einschätzen [Arvika 2004].

Abbildung 22: Präsentieren von Crashtestdaten mittels eine AR-Systems

2.2.5 Virtuelle Videokonferenzen Bereits heute spielen Videokonferenzen eine wichtige Rolle und bieten eine kostengüns-tige Alternative, wenn es z.B. um das Halten von Meetings geht, zu dem räumlich von-einander getrennte Teilnehmer eingeladen sind. Herkömmliche Videoconferencing-Systeme ermöglichen jedoch nur eine eingeschränkte natürliche Kommunikation. Die meisten Systeme bieten lediglich fensterbasierte Mehrbenutzer-Anwendungen. Für jeden Benutzer wird dabei ein separates PC-Fenster zur Verfügung gestellt, in dem ein Bild des Konferenzteilnehmers erscheint, möglichst in voller Lebensgröße auf großen Videolein-wänden. „Face-to-face“-Kommunikation, bei der Körperhaltung, Augenkontakt, Blick-richtung, Raumakustik wichtige Faktoren sind, kann nur sehr begrenzt reproduziert wer-den [Kauff et al. 2002].

Um genau diese Probleme zu lösen, wurde im Rahmen des Projekts VIRTUE (VIRtual Team User Environment) vom IST (Information Society Technologies Programm ) ein System entwickelt, das 3D-Video-Technologie und Virtual Reality Techniken in einer AR-Anwendung vereint.

Jeder Konferenzteilnehmer sitzt an seinem realen Konferenztisch vor einer Leinwand. Zunächst wird der Konferenztisch übergangslos computergeneriert auf der Leinwand fortgesetzt und eine virtuelle Arbeitsumgebung geschaffen. Der Benutzer erhält so den Eindruck, er befinde sich in einer realen Konferenzumgebung. Die anderen Teilnehmer werden unter Berücksichtigung der korrekten Blickperspektive in vordefinierte Positio-nen der virtuellen Umgebung an den Konferenztisch positioniert. Dies geschieht, indem von jedem Teilnehmer 3D-Videorepräsentationen interaktiv über ein „Multiview Capture Device“ (z.B. vier Kameras links in Abbildung 23) berechnet werden. Letztendlich wird

Page 46: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

46 Augmented Reality

erreicht, dass eine natürlich Kommunikation, in der Blickrichtung, Augenkontakt und Gestik wie im „echten“ Leben wahrnehmbar sind, stattfinden kann [Kauff et al. 2002].

Abbildung 23: Virtuelle Konferenzen

Einen anderen Ansatz zur Anwendung von AR-Systemen bei Videokonferenzen wird an der TU Wien verfolgt [Barakonyi et al. 2003]. Die Wissenschaftler entwickeln hier ein System, das sich zwar herkömmlicher Videokonferenz-Technologien bedient, aber mit AR-Technologien kombiniert wird. Während einer Konferenzschaltung werden virtuelle Objekte zum besseren Verdeutlichen von Sachverhalten auf die realen Live-Bilder über-lagert (Abbildung 23, rechts).

Virtuelle Videokonferenzen sind die nächste Generation von Videokonferenzen.

2.2.6 Mobile Dienste Immer mehr Anwendungen erfordern den mobilen Einsatz von AR-Systemen. Nicht nur in speziell präparierten Räumlichkeiten und für einen kleinen Personenkreis soll eine Anreicherung der Realität möglich sein. Die Masse der Verbraucher soll erreicht wer-den. Mit dem Ersetzen von traditionellen Backpack-AR-Systemen durch den Einsatz von Handhelds, modernen Mobiltelefonen und PDAs eröffnen sich neue Möglichkeiten für den Einsatz von AR [Studierstube, 2004].

Abbildung 24: Entwicklung der AR zur Mobilität

Im Rahmen des vom BMBF geförderten Projekts „AR PDA“ wurde auf Basis neuartiger, videotauglicher Mobiltelefone ein Prototyp entwickelt, der den Alltag des Benutzers ver-einfachen soll. Beispielsweise kann der Anwender beim Einkaufen die integrierte Kame-ra seines Mobiltelefons auf ein Verkaufsobjekt richten und erhält kontextsensitiv Zusatz-informationen zu diesem Verkaufsstück. Geliefert werden diese Informationen z.B. über Mobilfunk, UMTS oder WLAN von einem Server, der das aufgenommene Videosignal auswertet, das Objekt identifiziert (kein Pattern- oder Barcodetracking, sondern Kanten-erkennung) und daraufhin die entsprechenden Angaben zur Verfügung stellt. Optional kann auch ein Berater per Video hinzugeschaltet werden [AR-PDA 2004].

Page 47: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 47

Abbildung 25: Funktionsprinzip des AR-PDA nach [AR-PDA 2004]

Auch an der TU Wien wird im „Handheld AR“-Projekt daran gearbeitet, AR auf echte mobile Endgeräte anzuwenden. Wissenschaftler entwickelten eine Navigationsanwen-dung namens „SignPost“ für einen verkaufsüblichen PocketPC (HP iPAQ 5450), die ei-nen Benutzer durch ein ihm unbekanntes Gebäude führt. Dazu werden interaktiv Naviga-tionshilfen und der Gebäudegrundriss (mit markierter momentaner Position des Benut-zers) über dem Live-Video eingeblendet [Wagner et al. 2003].

Abbildung 26: Handheld AR-Anwendung für „SignPost“

Eine weitere Anwendungsmöglichkeit für mobile AR-Systeme ist die Erstellung eines virtuellen Reiseführers, der bei einer Sightseeing Tour kontextsensitiv zusätzliche Infor-mationen zu den besichtigten Sehenswürdigkeiten liefert.

2.3 Technische Aspekte Nach einer Einführung in Augmented Reality und Vorstellung einiger Einsatzgebiete, sollen an dieser Stelle die zugrunde liegenden Technologien dieser Disziplin beleuchtet werden.

Augmented Reality–Systeme (AR-Systeme) haben die Aufgabe, die reale Umgebung mit virtuellen Objekten anzureichern.

Zunächst müssen die vom Benutzer wahrgenommene reale Umgebung mittels Bewe-gungssensoren und/oder Kameras erkannt und Lagedaten bestimmt werden (Tracking). Parallel dazu erfolgt kontextsensitiv das Berechnen der virtuellen Objekte (Rendering), um im Anschluss daran die Registrierung durchzuführen. Diese bestimmt exakt die An-ordnung, also die Position und Ausrichtung der virtuellen Objekte in Bezug zur realen Umgebung. Das Ergebnis dieser Berechnung kann nun über spezielle Anzeigegeräte prä-

Page 48: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

48 Augmented Reality

sentiert werden. Natürlich sollte es auch Schnittstellen geben, die dem Benutzer ermögli-chen, mit dem AR-System zu interagieren. Dabei löst jede Interaktion wiederum ein er-neutes Tracking und Rendering und eine erneute Registrierung aus, welche möglichst in Echtzeit ausgeführt werden. Abbildung 27 veranschaulicht ein allgemeines Funktions-schema eines AR-Systems und den entstehenden AR-Kreislauf nach [Suthau et al. 2002] und [Paelke 2004].

Abbildung 27: Allgemeine Funktionsweise eines AR-Systems

Aus den vorangegangenen Überlegungen heraus stellen sich für AR-Systeme vor allem die beiden folgenden Fragen [Oppermann 2003]:

1) Wie werden virtuelle Daten im Einzelnen mit der realen Welt verbunden?

2) Wie wird die Interaktion mit dem AR-System realisiert?

Eine ansatzweise Beantwortung dieser beiden Fragestellungen folgt in den nächsten bei-den Abschnitten.

2.3.1 Verbinden von realer und virtueller Welt Um dem Benutzer eines AR-Systems eine glaubhaft angereicherte Realität präsentieren zu können, setzt es mehrerer Arbeitsschritte voraus. Tracking, Registrierung, Rendering und die Darstellung der erweiterten Realität sind die grundlegenden. Dieser Abschnitt-konzentriert sich jedoch auf die Vorstellung gängiger und zukünftiger Anzeigegeräte und die Arten der „Augmentierung“.

Es existieren unterschiedliche Display-Technologien für die Kombination von realer und virtueller Welt. Grundsätzlich lassen sich die Display-Typen aber in zwei Kategorien einteilen: in die stationären und in die tragbaren Geräte. Eine weitere Klassifizierung kann danach erfolgen, welcher der vier Ansätze für die Augmentierung verfolgt wird:

Man unterscheidet hierbei nach [Oppermann 2003] und [Paelke 2004] zwischen vier grundlegenden Augmentierungsarten:

• Optische Augmentierung (Optical See-Through)

• Videobasierte Augmentierung (Video See-Through)

• Kombination in der Umgebung (Projektion)

• Kombination im Auge (Retinal Scanning)

Page 49: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 49

Bei der optischen Augmentierung koexistieren reale und virtuelle Welt. Der Benutzer nimmt seine reale Umgebung unmittelbar wahr und nur die computergenerierte Informa-tion wird in sein Sichtfeld eingeblendet (aber nicht direkt in das Auge, sondern auf einen Bildschirm, der sich vor dem Auge befindet, s. dazu Kombination im Auge).

Bei der videobasierten Augmentierung erfolgt die Vermischung der Informationen durch Zusammensetzung im Computer. Dazu wird zunächst ein Videobild der realen Welt über Kameras aufgezeichnet. Das Videobild wird um die virtuelle Information ergänzt und das Ergebnis dem Benutzer sichtbar gemacht. Der Benutzer ist meist von der Umwelt abge-schnitten und nimmt sie bei diesem Verfahren nur mittelbar wahr.

Eine Kombination in der Umgebung erfolgt, indem die virtuelle Welt tatsächlich in die reale projiziert wird. Als Resultat können die virtuellen Objekte aus allen Perspektiven betrachtet werden und sind für alle Anwesenden gleichermaßen sichtbar. Diese Augmen-tierungsart ist jedoch nur in speziell präparierter Umgebung (z.B. durch Leinwandeinsatz oder Verwenden von speziell reflektierenden Materialien) möglich.

Bei der Methode Kombination im Auge nimmt der Anwender seine Umwelt unmittelbar wahr. Für die Bilddarstellung werden die virtuellen Informationen direkt auf seine Netz-haut projiziert.

Welchen dieser Ansätze die im Folgenden beschriebenen Anzeigegeräte realisieren, wird im Einzelnen angeführt. Abschließend wird auf die Probleme und Grenzen eingegangen, die sich bei dem heutigen Stand der Technik ergeben.

2.3.1.1 Head-Mounted Displays (HMD) Head-Mounted Displays (HMD) gehören zu den tragbaren Anzeigegeräten. Es sind Hel-me oder Brillen, die der Benutzer auf dem Kopf trägt. Die Bilddarstellung der erweiterten Realität erfolgt auf einem Bildschirm direkt vor dem Auge des Betrachters.

Analog zu den Augmentierungsarten kann hier zwischen optischen und videobasierten HMDs unterschieden werden. Eine weitere Kategorie bilden die Virtual Retinal Displays.

Optical See Through HMD (OST HMD) Optical See Through HMD ist die englische Bezeichnung für optische HMDs. Charakte-ristisch für optische HMDs ist der halbtransparente und gleichzeitig reflektive Bildmi-scher, der direkt vor dem Auge des Benutzers platziert ist. Da der Bildmischer halbtrans-parent ist, kann der Benutzer seine Umgebung unmittelbar, wenn auch etwas dunkler, wahrnehmen. Um die Realität mit virtuellen Objekten zu ergänzen, wird die reflektive Eigenschaft des Bildmischers ausgenutzt. Die mit Hilfe des Szenengenerators berechnete virtuelle Information wird auf den Bildmischer projiziert, so dass der Träger letztlich sowohl die virtuellen als auch die realen Komponenten im Sichtfeld erblickt und den Eindruck einer gemischten Realität erhält.

Diese Art von HMDs realisiert die oben beschriebene optische Augmentierung.

Page 50: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

50 Augmented Reality

Abbildung 28: Aufbauschema eines OST-HMD (links) [Opperman 2003] und OST-AddVisor 150 [Interrante 2004]

Video See Through HMD (VST HMD) Bei den videobasierten HMDs, auch Video See Through HMDs genannt, ist der Benutzer von der realen Umwelt vollkommen abgeschnitten. Die reale Umwelt nimmt er indirekt in Form einer Videoaufzeichnung wahr. Für die Anreicherung der realen Umgebung wird diese zunächst mittels am Helm oder an der Brille montierten Kameras aufgezeichnet. Im Videomischer wird daraufhin das Video der realen Welt mit den Computerszenen über-lagert und erst dann dem Betrachter auf einem Monitor direkt vor seinem Auge präsen-tiert.

Abbildung 29: Aufbauschema eines VST-HMD (links) und AR Vision 3D

Virtual Retinal Display (VRD)

Die Entwicklung von Virtual Retinal Displays begann bereits in den 80er Jahren, so dass diese mittlerweile diverse Vorteile (insbesondere bzgl. Helligkeit, Kontrast und Fokus-sierung, Energieverbrauch, Gesichtsfeld) gegenüber herkömmlichen Optical und Video See Through HMDs bieten. Diese Art von HMDs verwirklicht die Augmentierung direkt im Auge des Anwenders, während dieser das reale Umfeld unmittelbar wahrnimmt. Nachdem ein Videosignal bzw. ein Computersignal empfangen und ausgewertet wurde, zeichnet ein abgeschwächter, energiearmer Laserstrahl die darzustellenden Bilder rei-henweise auf die Netzhaut des Betrachters. Dabei dient ein horizontaler Scanner zum Hin- und Herbewegen des Lichtstrahls in einer Reihe, während der vertikale Scanner für den Übergang von Reihe zu Reihe zuständig ist [Thissen 2001].

Page 51: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 51

Abbildung 30: Aufbauschema eines VRD (links) [Suthau et al. 2002] und VRD: Nomad Personal

Display [Suthau et al. 2002]

2.3.1.2 4.Handhelds - Tragbare Displays Einige AR-Systeme verwenden tragbare LCD-Flachbildschirme, die eine integrierte Vi-deokamera nutzen, um, ähnlich wie die videobasierten Durchsichtlösungen, reale Auf-nahmen mit virtuellen Objekten zu überlagern. Die tragbaren Displays dienen dann regel-recht als Fenster in die erweiterte Realität oder können z.B. als eine Art virtuelles Ver-größerungsglas verwendet werden. Ansonsten unterscheiden sich die Displays nicht von gewöhnlichen, handelsüblichen Flachbildschirmen und PDAs.

Abbildung 31: AR Soccer auf einem mobilen Endgerät

2.3.1.3 Projizierende Displays/ 3D-Displays Bereits seit 1982 wurde Versuche bzgl. der räumlichen Bilddarstellungstechniken durch-geführt. Die ersten Versuche weist die Universität Heidelberg auf, wo aber auch Verfah-ren mit rotierenden Schraubenflächen untersucht wurden. Das gesamte Projekt der HL3D-Verfahren (Laserprojektion auf eine rotierende Helix) wurde durch die Anleitung von Prof. R. Hartwig (1983) durchgeführt.

Die Funktionsweise der 3-D Bildschirme besteht momentan darin, dass sich eine rotie-rende schraubenförmige Mattscheibe im Innern einer durchsichtig transparenten Plexi-glasröhre befindet, die wiederum auf die mit computergesteuerten Laserstrahlen die ge-wünschten Bilder projiziert. Nur der vom dem Laser auftretende Punkt (Stelle), der auch als Leuchtpunkt oder Voxel (Volume Pixel) bezeichnet wird, ist für unser Auge sichtbar. Das projizierende Bild ist auch aus verschiedenen Perspektiven sichtbar und somit auch

Page 52: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

52 Augmented Reality

manipulierbar. Für die farbliche Darstellung werden hier die 3 Grundfarben (rot, grün, blau) verwendet.

Als Ergebnis steht die Darstellung eines Objekts oder Körpers, der so manipuliert, reell und dreidimensional nur mit Hilfe diese Technik umsetzbar ist.

Abbildung 32: Projizierende Displays [ProDis 2004]

2.3.1.4 Grenzen & Probleme Auch hier gibt es teilweise große Probleme, die Prototypen in der Realität einsetzen zu können. Teilweise müssen viele Faktoren (räumlich, zeitlich...) sich gegenseitig so er-gänzen, dass diese Systeme glaubhaft wirken können.

Bei der Umsetzung von AR-Systemen für das tagtägliche Leben treten in einigen Fällen stark gehäufte Probleme auf, die sich statistisch bewerten lassen und in verschiedenen Kategorien unterteilt wurden [Oppermann 2003].

In der Tabelle sind die vier statistisch überragenden Fehler jeweils aufgeführt.

Optische Streuung • Hier ist das Abbild der Realität bei Weitaufnahmen zerstreut

Fehler im Tracking System • Die Lagedaten der verschiedenen Tracking-Systeme liefern nicht ge-nügend an Information, um AR An-sprüchen gerecht zu werden

Mechanische Unterschiede • Hier können sogar geringe Abei-chungen zwischen Entwurf und Um-setzung zu einer fehlerhaften Dar-stellung führen

Falsche Sichtparameter • Sichtparameter sind für die Darstel-lung des virtuellen Bilds zuständig. Werden sie jedoch falsch eingestellt, kann es dazu führen, dass das virtu-elle Bild nicht mehr glaubhaft er-scheint (z.B.: schief, klein...)

Tabelle 1: Probleme bei AR-Systemen

Probleme bei OST-HMDs OST-HMDs besitzen einen halb durchlässigen Bildmischer vor dem Auge des Benutzers, durch den der Anwender die reale Welt sieht. Bei OST-HMDs kann es deshalb insbeson-dere zu Fokussierungsfehlern kommen. Der User sieht nämlich durch die eingeblendeten Objekte hindurch, wenn er seinen Fokus verändert. Eine weitere schwierige Aufgabe ist, den Kontrast und die Helligkeit des Displays so zu wählen, dass die reale Umwelt weder

Page 53: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 53

zu hell oder zu dunkel wirkt noch Daten von der Umgebung überblendet werden. Außer-dem kommt es durch die aufwendige Berechung der virtuellen Objekte zu einer Zeitver-zögerung bei der Darstellung. Dieses führt zu einer zeitlichen Widersprüchlichkeit zwi-schen Realität und Virtualität: die virtuelle Information wird verzögert präsentiert.

Probleme bei VST-HMDs Bei VST-HMDs gibt es nicht so stark ausgeprägte Probleme wie bei OST-HMDs. Der Blick liegt immer auf dem Display mit dem autofokusiertem Video der Umgebung. Ein für VST-HMDs jedoch charakteristisches Problem sind die Zeitverzögerung bei der Wiedergabe der augmentierten Umgebung, sowie eine reduzierte Darstellungsqualität der Umwelt. Entsteht eine zu große zeitliche Diskrepanz zwischen den Bewegungen des Be-nutzers und der Videodarstellung, kommt es zur so genannten „Cyber Sickness“ und dem Benutzer wird schlecht. Die Kontrastqualität dieser HMDs-Art hängt von der eingesetz-ten Kameratechnik ab.

Probleme bei Handhelds Ein bei dem heutigen Stand der Technik bestehendes Problem ist die geringe Rechenleis-tung. Das führt dazu, dass auf Server/Client-Anwendungen im Bereich mobile Augmen-ted Reality zurückgegriffen werden muss. Wie bei den HMDs fallen auch hier die niedri-ge Auflösung der Darstellung und das kleine Sichtfeld negativ auf.

2.3.2 Interaktion in der Augmented Reality Virtuelle Objekte besitzen keinen physikalischen Körper. Man kann sie folglich auch nicht direkt anfassen und ohne weiteres mit ihnen interagieren. Es bedarf spezieller Schnittstellen zwischen Virtualität und der natürlichmenschlichen Ausgabeschnittstellen (Gestik, Mimik, Sprache, usw.). Ziel dabei ist es, die Benutzung so intuitiv wie nur mög-lich zu gestalten, idealerweise die menschliche Kommunikation nachzubilden. Was für eine Eingabeschnittstelle immer notwendig ist, ist Hardware.

Spezielle Eingabegeräte, wie z.B. die weiter unten beschriebenen Spacemaus und Cubic Mouse, führen durch direkte Manipulation an diesen Eingabegeräten in jedem Fall schließlich zu einer Manipulation am Zielobjekt.

Es gibt aber auch die Möglichkeit, auf direkten Kontakt mit der Eingabeschnittstelle zu verzichten. Eine Reaktion des AR-Systems kann auch über Gestik, Mimik und Sprache hervorgerufen werden. Als Eingabegeräte dienen in diesem Fall Kameras und Mikrofone, welche die Bewegungen bzw. Sprache des Benutzers aufzeichnen. Mit dieser Methode könnten z.B. virtuelle Objekte direkt mit der Hand gegriffen und bewegt werden.

Selbstverständlich wird die Kombination mehrerer Interaktionsverfahren nicht ausge-schlossen [Sanfilippo 2003].

2.3.2.1 Mimik- und Gestikerkennung Der Großteil unserer Kommunikation findet auf einer nonverbalen Ebene statt und zwar über die Körpersprache. Über die Mimik und Gestik lässt sich nicht nur etwas über den emotionalen und kognitiven Zustand einer Person erfahren. Mimik und Gestik erfüllen auch eine semantische Funktion. Um eine natürliche Mensch-Maschine-Interaktion zu erzielen, muss der Computer daher die Fähigkeit besitzen, die nonverbalen Zeichen des Menschen zu erkennen und deuten zu können, was aufgrund der Vielzahl und der Kom-pliziertheit der Signale eine immense Schwierigkeit darstellt. Im Folgenden wird ein Schwerpunkt auf die Mimikerkennung gelegt, wobei die meisten der Angaben auch auf die Gestikerkennung übertragbar sind.

Page 54: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

54 Augmented Reality

Viele wissenschaftliche Ansätze nutzen Mustererkennung und Computer Vision-Techniken, um das Gesicht abzutasten. Die meisten davon können in zwei Kategorien unterteilt werden [Kapoor 2002]:

• Systeme, die Gesichtsausdrücke prototypisch erkennen, basierend auf Grundemo-tionen wie glücklich, traurig, ärgerlich usw.

• Systeme, die Gesichtsaktivitäten wie Stirnrunzeln, Augenbraue heben, Naserümpfen usw. erkennen.

Beide Methoden müssen zunächst aus dem digitalisierten Bild die Gesichter vor beliebi-gem, sich änderndem Hintergrund finden. Bewertet werden dabei die wesentlichen Merkmale wie Konturen von Gesicht, Augen, Brauen und Nase. Danach werden nützli-che Eigenschaften und Informationen extrahiert, um diese im Anschluss auswerten zu können. Dazu werden die extrahierten Daten mit einer Bibliothek unter Berücksichtigung des Kontextes verglichen. Doch das gerade Typische an einem Gesichtsausdruck zu defi-nieren und eine Bibliothek zu erstellen, d.h. ein System zu „trainieren“, ist schwierig.

An der TU München wird Mimikerkennung mit Hilfe eines Gesichtsmodells mit 134 charakteristischen Gesichtpunkten und spezieller Verfolgungsalgorithmen realisiert. Nach der Lokalisierung des Gesichts wird für jedes Frame mit zwei Suchverfahren überprüft, wie sich die Lage jedes dieser 134 Punkte verändert hat. Daraus resultierend lässt sich feststellen, ob die Person vor der Kamera neutral schaut, traurig ist, desinteressiert wegblickt oder lacht [C´t 2004].

Probleme ergeben sich insbesondere dadurch, dass die aufgenommenen Bilder nur zweidimensional existieren und Tiefeninformationen schwierig eindeutig zu bestimmen sind. Darüber hinaus ist jedes Gesicht, jede Hand, also jeder Mensch verschieden und die Körperteile haben verschieden Ansichten, je nachdem aus welchem Blickwinkel sie betrachtet werden. Wichtige Körperteile können zudem verdeckt oder schlecht beleuchtet sein und somit wird eine genaue Aussage über ihre Position unmöglich. Selbst wenn es sich um ein und dieselbe Person handelt, wird kaum eine Körperbewegung zweimal identisch ausgeführt [Brauer et al. 2002].

Ist der emotionale Zustand des Benutzers und die Absicht seiner Gestik/Mimik einmal erkannt, kann das AR-System angemessen reagieren. Solche Mimik- und Gestikerkennungsverfahren (auch in Kombination mit Spracherkennung) lassen sich beispielsweise hervorragend beim Kundenservice mit Avataren einsetzen. Erkennt das System Verärgerung beim Kunden, kann der Avatar beruhigend auf ihn eingehen.

Abbildung 33: Mimikerkennung an der TU München

Page 55: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 55

2.3.2.2 Avatare als Userinterfaces Zukünftige Rechnersysteme sollen sich an Situation und Stimmung des Anwenders an-passen, sie selbst sollen sogar menschliche Züge annehmen. Avatare sind solche virtuel-len Figuren, die das Aussehen eines Menschen annehmen und auf diese Art den Compu-ter vermenschlichen. Sie bieten eine gute Voraussetzung für einen natürlichen Austausch zwischen Mensch und Maschine.

Damit der Avatar als Schnittstelle zwischen Virtualität und dem Benutzer dienen kann, muss zuerst jedoch klar sein, welche Details in Mimik und Gestik des Avatars die ge-wünschte Assoziation beim Betrachter auslösen. Meistens sind es nur wenige Pixels, z.B. das Heben einer Augenbraue, die die Wahrnehmung eines Gesichts verändern. Des Wei-teren ist eine permanente Rückmeldung durch den Avatar wichtig, denn auch Menschen senden sich während einer Unterhaltung unaufhörlich Signale. Verhält sich der Avatar während er z.B. grübelt (sprich, wenn der Computer rechnet) passiv und signalisiert nicht, dass er grübelt, so reagiert der Benutzer verunsichert.

Natürlich muss der „Avatar“ auch die Zeichen des Anwenders interpretieren können, um angemessen darauf reagieren zu können.

Abbildung 34: Cosmia verhandelt emotional [Kießling 2003]

An der TU München werden die Ergebnisse der dortigen Mimikforschung bereits als Teil eines Verkaufssystem-Prototyps getestet. Eine virtuelle Verkäuferin „Cosima“ bietet Ar-tikel aus einem umfangreichen Sortiment an und reagiert auf die Emotionen des z.B. neutral schauenden Kunden, indem sie Preisnachlässe vorschlägt. Lächelt der Kunde, so bahnt sich ein Verkauferfolg an [C´t 2004].

2.3.2.3 Eingabegeräte Es gibt für die Interaktion in einer Augmented Reality Umgebung verschiedene Eingabe-geräte, die einsetzbar sind. Die Cubic Mouse, der Space Ball und die Spacemaus sind drei Beispiele [Sanfilippo 2003].

Die Cubic Mouse wurde von der GMD (Gesellschaft für Mathematik und Datenverarbei-tung) entwickelt. Es handelt sich hierbei um eine würfelartige „Maus“, durch die für jede der drei Achsen ein Stab eingearbeitet wurde(Abbildung 23, links). Das Ende jedes Sta-bes ragt dabei auf beiden Seiten aus dem Gehäuse. Translationen um alle Achse werden durch das Verschieben der Stäbe erzielt, während Rotationen durch das Drehen an den Stäben hervorgerufen werden.

Der Space Ball besitzt ein Gehäuse, auf dem ein kleiner Gummiball platziert ist. Dieser lässt sich in alle möglichen Richtungen bewegen (Abbildung 35, Mitte). Dabei ist nicht nur die Bewegungsrichtung für die Manipulation am virtuellen Objekt maßgeblich, son-dern auch die Druckstärke, mit der die Bewegung ausgeführt wird. Über die Druckstärke kann nämlich zusätzlich die Geschwindigkeit der gewünschten Bewegung bestimmt werden.

Page 56: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

56 Augmented Reality

Nach dem gleichen Prinzip wie der Space Ball funktioniert auch die Spacemaus. Jedoch findet man hier anstatt des Gummiballs eine Kappe vor.

Eine große Schwierigkeit bei der Realisierung der eben vorgestellten Eingabegeräte liegt darin, ein exaktes Mapping zu verwirklichen. Es muss genau festgelegt werden, wie sich Manipulationen am Eingabegerät auf das virtuelle Objekt auswirken sollen.

Abbildung 35: Die Cubic Mouse der GMD (links), Der Space Ball 4000 (mitte), Magellan Spacemaus

Plus (rechts) der Firma 3DConnexions

Natürlich können auch herkömmliche Eingabegeräte, wie das Touchpad, die Tastatur und die gewöhnliche Maus weiterhin für die meisten AR-Anwendungen benutzt werden. Doch diese Geräte bieten in der Augmented Reality nur eine eingeschränkte Interakti-onsmöglichkeit und sind im Fall von AR häufig weniger intuitiv.

2.4 Futuristische Einblicke Bereits heute sind einige der Anwedungsgebiete der AR aus unserem Leben nicht mehr wegzudenken. So stehen Verbesserungen jegliche Arten im Mittelpunkt der Forschung. Sie wird somit ein fester Bestandteil unserer Zukunft sein.

Auch neue Anwendungen oder Techniken sind keine virtuellen Gedanken, sondern es ist bereits abzusehen wie unsere Zukunft bald aussehen könnte.

Hierzu gibt es einige interessante Zeitungsabschnitte, die verdeutlichen was für einen Ausmaß AR in einem Alltagleben annehme kann.

Abbildung 36: Vision eines Office Of The Future aus [RWC 1998]

2.4.1 Beispiele zukünftiger Anwendungsgebiete Die folgenden Beispiele stammen aus dem Forum für Wissenschaft, Industrie und Wirt-schaft [WiInWi 2004].

Page 57: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 57

Der gläserne Patient „Durch ein so genanntes Augmented Reality-Fenster in das Innere des Patienten blicken, dies ermöglicht das System MEDARPA (Medical Augmented Reality for Patients). Spe-ziell auf schonende, minimal-invasive Operationen ausgerichtet, kann der Operateur da-mit künftig während des Eingriffs auf dreidimensional visualisierte Patientendaten wie Ultraschall oder Computertomographie zugreifen und die Lage der Operationsinstrumen-te im Patientenkörper kontrollieren. Kernstück des innovativen Systems ist ein transpa-rentes, flexibel schwenkbares Display (AR-Fenster), das dem Arzt die operationsrelevan-ten Daten direkt in sein Sichtfeld einspielt. So kann der behandelnde Arzt tief liegende Strukturen identifizieren und erhält beispielsweise eine präzise Unterstützung bei der Führung der Operationsinstrumente. Mit Hilfe exakter Positionsbestimmung, dem so genannten Tracking, wird eine nahezu perfekte Überlagerung der virtuellen Daten und der realen Sicht in Echtzeit erreicht. Die ausgereifte Anwendung wird nicht nur den Ope-rationssaal erobern, sondern auch die Aus- und Weiterbildung sowie das Training der Mediziner verbessern.“

Nähere Informationen dazu unter: http://www.medarpa.de

Auf Zeitreise mit virtuellen Fremdenführern „Kein Zauberstab, keine Glaskugel, sondern ein mobiles "Augmented Reality-Informationssystem" ist GEIST. Ausgestattet mit "magischem Equipment" können Schü-ler und Touristen in die Zeit des 30jährigen Krieges eintauchen. Über eine Datenbrille werden historische Figuren, geschichtliche Vorgänge oder Bauwerke in die reale Umge-bung eingeblendet. Über Kopfhörer erhalten die virtuellen Charaktere eine Stimme. Da-mit wird der Stadtrundgang zum Rahmen einer spannenden Erzählung, die in der Ver-gangenheit spielt. Neu entwickelt haben die Forscher unter anderem ein videobasiertes mobiles Tracking-System für den tragbaren Klein-Computer, der mit GPS, Kompass und entsprechender Software bestückt ist. Eine wichtige Rolle kommt den virtuellen Charak-teren zu: sie sind nicht nur visuell attraktiv gestaltet, sondern beziehen gleichzeitig mit ihrem Verhalten die Touristen in einen interaktiven Dialog ein. Die dramaturgisch aufge-bauten Geschichten fordern den Einzelnen auf, selbst aktiv zu werden. Dieser moderne spielerische Ansatz der Wissensvermittlung ist auch für den Geschichtsunterricht attrak-tiv.“

Nähere Informationen dazu unter: http://www.tourgeist.de

Maßkonfektion via Internet „Eine Kleideranprobe in virtuellen Welten hat das Projekt „Virtual Try-On“ zum Ziel. Neue VR-Technologien ermöglichen eine exakte Textil- und Körpersimulation. Die Echtzeit-Präsentation des Projektes basiert auf der komplexen 3D-Simulation von physi-kalischen Daten über Stoffmaterial, Schnittmuster, Lichteinfall und Bewegung. Damit können die Materialeigenschaften und auch der Faltenwurf eines Textils photorealistisch abgebildet werden. Der digitale Doppelgänger des Käufers entsteht anhand von Daten, die per berührungslosen Laser-Scanner in einer realen Boutique oder einem Kaufhaus automatisch eingelesen wird. Mit "Virtual Try-On" kann Maßkonfektion in Zukunft ohne teure Verschnitte hergestellt und somit preisgünstiger werden. Denn damit lässt sich der komplette Einkaufsvorgang - von der Stoff- und Schnittauswahl über die Anproben bis zum Zuschnitt - vollständig via Internet erledigen.“

Nähere Informationen dazu unter: http://www.virtualtryon.de

Bausteine für künstliche Welten

Page 58: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

58 Augmented Reality

„Damit 3D-Grafiken künftig besser, vor allem auch in Echtzeit und in breiteren Einsatz-bereichen genutzt werden können, spielen geeignete Programmbibliotheken eine überge-ordnete Rolle. Eine der weltweit führenden Programmbibliotheken hierfür ist Open Source Szenengraph (OpenSG). Dessen Leistungsfähigkeit zu erhöhen und zusätzliche Einsatzgebiete zu erschließen ist Ziel des Projektes OpenSG Plus. Wie beim Vorzeige-projekt LINUX sind die Routinen im Quellcode von Open SG weltweit frei verfügbar. Die Programmbibliothek unterstützt die Echtzeit-Renderingaufgaben für VR- und AR-Anwendungen. So kann jeder Interessierte verschiedenste Bausteine der Software einset-zen und damit leicht und schnell Programme für Virtuelle Realitäten erstellen.“

Nähere Informationen dazu unter: http://www.opensg.org

2.5 Fazit und Ausblick Die Grundbausteine für den breiten Einsatz der jungen Technologie Augmented Reality sind bereits gelegt. Es existieren zufriedenstellende Anzeige-, Tracking-, Rendering-, Registrierungs- und Interaktionsmöglichkeiten. Heutzutage ist nun mehr als nur das Ein-tauchen in eine vollkommen virtuelle Welt möglich, denn einer nahtlosen Verschmel-zung zwischen Realität und Virtualität kommt die Wissenschaft immer näher.

Allerdings müssen basierend auf den aktuellen Forschungsergebnissen zunächst noch eine Reihe von Problemen gelöst werden. Augenblicklich vorhandene Head Mounted Displays entsprechen noch nicht den Anforderungen an ein modernes AR-System. Um die Akzeptanz von AR-Systemen zu steigern, muss vor allem noch weiter an genaueren Tracking- und Registrierungsmethoden und am Tragekomfort der HMDs gearbeitet wer-den. Des Weiteren sind bestehende HMD-Lösungen für den Privatgebrauch viel zu teuer.

Doch trotz der Probleme bei der technischen Realisierung, könnten schon viele Prototy-pen erfolgreich getestet werden. Die Nutzung ist jedoch meist nur in Forschungseinrich-tungen und in der Industrie für komplexe Arbeitsprozesse möglich und bleibt momentan noch in den meisten Fällen der breiten Masse unzugänglich. Doch gerade diese soll in Zukunft erreicht werden. Trendsetter wie die Unterhaltungsindustrie machen es vor, in-dem sie schon heute Gebrauch von AR-Techniken machen, wenn sie z.B. bei Sportüber-tragungen Markierungen über der Fernsehanzeige platzieren.

Da Augmented Reality nicht auf bestimmte Technologien begrenzt ist, werden AR-Systeme auch für weitere Anzeigegeräte wie PDAs und Fotohandys angepasst. Wegen der immensen Verbreitung dieser Geräte besteht gleichzeitig die Möglichkeit, eine große Menge an Benutzern zu erreichen und die soziale Akzeptanz der neuen Technologie zu fördern. An diesem Beispiel zeigt sich auch deutlich der Trend von Augmented Reality zur Mobilität, wodurch sich eine breite Vielfalt an neuen Einsatzgebieten eröffnet.

Ein weiterer wichtiger Punkt bei der Verwirklichung von AR-Systemen ist die Bereitstel-lung geeigneter Interaktionsmöglichkeiten mit der erweiterten Realität, denn nur dann kann der Benutzer die Anwendung sinnvoll nutzen und davon profitieren.

Page 59: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 59

3 HAPTIC COMPUTING

Dieses Kapitel befasst sich mit der Anwendung von haptischen Geräten in sehr vielseiti-gen Bereichen, wie der Industrie, hier vor allem CAD-Anwendungen, Kommunikation und auch Medizin. Stück für Stück wird der Weg vom menschlichen Körper, genauer seinen Sinnesorganen, also den menschlichen Schnittstellen, zu den Anwendungen und Systemen, über die haptische Geräte beschrieben.

Zu Beginn werden der Sinn und die Notwendigkeit der haptischen Geräte verdeutlicht. Es wird aufgezeigt, wie komplex mittlerweile viele oben genannte Bereiche geworden sind und dass der Fortschritt und die Entwicklung neuer Systeme und Anwendungen oh-ne neuartige Ein- und Ausgabegeräte kaum möglich ist. Auch die immer stärkere Über-forderung der Menschen wird beleuchtet. Zudem sind wir an den Punkt gekommen, wie Anfang der 80er Jahre, wo die Computermaus populär wurde und die Computerwelt re-volutionierte, dass wir bereit sind, einen weiteren Schritt zu wagen.

Um zu verstehen wie ein Gerät konstruiert werden sollte und auch an den menschlichen Körper angepasst werden sollte dient der Anatomieteil, welcher sich mit den Sinnesor-ganen des Menschen beschäftigt. Hier wird auf den Tast- und den Sehsinn eingegangen, da diese sich als die dominantesten Sinnesorgane für diesen Bereich herausgestellt haben. Beim Sehsinn wird vor allem verdeutlicht, wie schnell sich das Auge auf Sichtverände-rung (Bewegungserkennung) anpasst und wie groß der Blickhorizont ist, aber auch auf verschiedene Lichtverhältnisse reagiert. Hier werden besonders die Zapfen für das Farb-sehen und Stäbchen für das Schwarz/Weiß sehen veranschaulicht. Beim Tastsinn wird die Funktionsweise der exterozeptiven Sensoren, welche auf der Haut liegen und uns über Temperatur, Druck, Reibung usw. informieren und der propriozeptiven Sensoren, welche die Anspannung der Muskeln, den Druck auf Sehnen und den Winkel der Gelen-ke messen, veranschaulicht. Auch die Verteilung ist hier äußerst interessant, da die meis-ten Sensoren auf den Handflächen und dem Gesicht liegen. An diesen Stellen, hier vor allem den Händen, kann man feinfühlige haptische Geräte besonders gut einsetzen.

Aus dem aktuelle Stand der Technik wird exemplarisch die Spacemouse, der PHAN-ToM, CyberGrasp und Eye- und Headtracking vorgestellt. Die ersten drei finden vor al-lem im taktilen Bereich (also der Tastsinn) ihre Anwendung, Eye- und Headtracking im visuellen Bereich. Die Komplexität und die Anwendungsbereiche sind teilweise gleich und teilweise überschneidern sie sich. So wird die Spacemouse und der PHANToM vor allem im CAD Bereich Anwendung finden. Beide haben die gleiche Anzahl von Frei-heitsgraden (6 Freiheitsgrade), jedoch unterschützt der PHANToM zusätzlich Force Feedback. Der CyberGrasp ist ein Handschuh und kann mit und ohne Force Feedback verwendet werden und hat bis zu 20 Freiheitsgrade, was die Komplexität der anderen genannten haptischen Geräte weit übersteigt. Das Eye- und Headtracking kann als passi-ves Gerät zur Beobachtung von Augen und Kopfbewegungen genutzt werden, aber auch gezielt vom Anwender zur Steuerung von Maschinen verwendet werden.

Um den haptischen Geräten Sinn zu geben, werden Anwendungen und Systeme vorge-stellt. Dabei wird auf die drei Hauptbereiche CAD Anwendungen, Erweiterung der Tele-kommunikation und Teleoperation eingegangen.

Zum Schluss wird auf die Vorteile, hier vor allem einfachere und natürlichere Nutzung von Systemen mit haptischen Geräten, aber auch ihre Gefahren, die vor allem in der Me-dizin zu schmerzhaften Fehlern führen könnte, speziell bei der Teleoperation, ver-deutlicht.

Page 60: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

60 Haptic Computing

Der Mensch ist durch ständigen Fortschritt gekennzeichnet. Er baut immer bessere Ma-schinen, lebt in immer höherem Wohlstand, vereinfacht die Wissensaufnahme, entwi-ckelt immer schnellere Computer, optimiert Fabriken, ermöglicht der Gesellschaft ein flexibleres Leben. Aber je stärker die Technik einen Fortschritt erfährt, desto schwieriger wird es für den sich nur langsam anpassenden Körper, sich in dieser dynamischen Zeit zurechtzufinden und teilweise der Technik zu folgen.

Eines der Hauptanliegen der Menschheit sollte es sein, sich nicht an die Technik anpas-sen zu müssen, sondern diese an den Menschen anzupassen bzw. an ihn anzunähern. So ist die Entwicklung passender „Schnittstellen“ zwischen Mensch und Maschine unab-dingbar. Ohne diese „Rückwärtsanpassung“ der Geräte, unserer täglichen Hilfsmittel, welche immer komplexer und leistungsfähiger werden, an den Menschen, wird der Fort-schritt verlangsamt und die Leistungsfähigkeit des Menschen überfordert.

Wie soll man aber vorgehen, um die Technik einerseits benutzerfreundlicher zu machen und andererseits leistungsfähiger zu gestalten? Diese Frage, so banal sie klingt, ist nicht so einfach zu beantworten. Der Grund liegt darin, dass die Lösung nur durch interdiszi-plinäre Verfahren möglich ist. Ein Techniker alleine kann es nicht schaffen, weil ihm der anatomische Hintergrund fehlt. Ein Mediziner wird sich nicht vorstellen können was für Konstruktionen möglich sind, aber dafür wird er wissen, wo man ansetzen muss. Ein Psychologe kann dabei helfen, die natürliche Verhaltensform des Menschen in die Kon-struktion zu integrieren und zu unterstützen.

Dieses Kapitel versucht nicht, diese Disziplinen zu veranschaulichen, denn das würde den Rahmen sprengen. Im nachfolgenden Abschnitt wird die allgemeine und für uns rele-vante Anatomie des menschlichen Körper erklärt, um die Konstruktionen, den Sinn und die Anwendungsgebiete der haptischen Geräte verständlicher zu machen. Danach werden entsprechende Geräte vorgestellt und zum Schluss die heutige und mögliche zukünftige Anwendung vorgestellt. Bevor wir tiefer in die Materie einsteigen, werden im nächsten Abschnitt die wichtigsten Definitionen erklärt.

3.1 Definitionen Alles beginnt mit der atomaren Betrachtung der gesamten Struktur. So werden wir hier klassisch die wichtigsten und unbedingt nötigen Definitionen für dieses Kapitel erläutern.

3.1.1 Haptik Die Haptik [grich. Haptein „fassen“] ist Definiert als die „Gesamtheit der Tastwahr-nehmungen“ [Internet-Lexikon, 2004], so handelt es sich um die Lehre vom Tastsinn. Natürlich geht es nicht nur um haptische Geräte, die im Zusammenhang mit dem Tast-sinn stehen. Es wird auch der Seh- und Hörsinn angesprochen, aber wir werden sehen, wie entscheidend wichtig der Tastsinn in der Interaktion mit der Umwelt bzw. in einer simulierten Welt ist.

3.1.2 Virtuelle Realität Aus dem englischen „virtual reality“, oft mit VR abgekürzt (Internet-Lexikon 2004), be-schreibt eine künstliche Welt, welche mit Hilfe des Computers erzeugt wird. Der Benut-zer taucht in eine simulierte Welt ein, meist in 3D. In dieser Welt kann der Cybernaut interagieren, welcher die Illusion vermittelt bekommt, sich am Ort des Geschehens zu befinden.

Page 61: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 61

3.1.3 Force Feedback Das System meldet über eine Rückmeldung den Zustand eines Objekts oder den eigenen Zustand in einer computersimulierten Umgebung. Es gibt unterschiedliche Arten der Rückmeldung:

1) Rückmeldung über Vibrationen. Die Erzeugung einer Vibration kann z.B. das Gefühl vermitteln, mit einem Gegenstand zusammengestoßen zu sein.

2) Fingerdruckkissen können die Festigkeit einer Oberfläche eines virtuellen Ob-jekts simulieren.

3) Befestigung von beispielsweise Pressluftschläuchen am Körper des Benutzers. So kann der Widerstand und Kraft direkt am Körper simuliert werden. Dabei erfahren besonders die Körpergelenke einen Widerstand, was dem natürlichen Widerstand na-he kommt.

3.1.4 Haptische Interaktion Eine Interaktion zwischen dem Benutzer eines haptischen Geräts und dem Gerät selbst. Dabei werden Signale (z.B. Bewegung des Arms nach links) des Menschen von dem haptischen Gerät interpretiert und an das System weitergeleitet. Auch Signale vom Sys-tem werden über das Gerät an den Benutzer weitergeleitet, falls das Gerät dies unter-stützt.

3.1.5 Cybernaut Beim Cybernaut handelt es sich um einen Nutzer, welcher in die künstliche Welt, z.B. virtuelle Realität, eintaucht und in dieser interagiert bzw. diese manipuliert.

3.2 Anatomie Wir haben zwei Grundlegende Definitionen der haptischen Geräte (siehe Definition 3.3.1) und der VR (siehe Definition 3.1.2) kennen gelernt. Wir werden jetzt den Zugang zu die-sen VR-Simulationen für den Menschen beschreiben. Dabei stehen die Sinnesor-gane, hier speziell der Tastsinn und der Sehsinn im Vordergrund. Der Geruchssinn, der Geschmackssinn und der Gehörsinn spielen in diesem Kapitel keine Rolle.

3.2.1 Tastsinn Der Tastsinn unterteil sich in die exterozeptiven Sensoren, welche sich direkt unter der Haut befinden und dem Druck- und Berührungsempfinden dienen, und die propriozept-ven Sensoren in den Gelenken, verantwortlich für das Druck- und Kräftempfinden im Inneren des Körpers, also beispielsweise, um zu bestimmen, wie stark wir ein Gewicht in der Hand halten.

Die große Bedeutung dieses Sinnesorgan wird klar, wenn es fehlt. Jeder hat schon im Winter die Erfahrung gemacht, mit kalten Händen eine Tür mit einem Schlüssel aufzu-machen. Einerseits ist natürlich die Durchblutung der Hände sehr schlecht, aber dazu kommt noch das fehlende bzw. sehr schwache Druckempfinden was eine präzise Koor-dination der Hände sehr schwierig macht.

Page 62: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

62 Haptic Computing

Abbildung 37: Empfindungsschwelle der Körperteile [Hendrich 2004]

In der Abbildung 37 sehen wir die Schwelle des Empfindens einer Berührung an Körper. Dabei fällt auf, dass besonders die Fingerbeere (an der Fingerspitze) eine hohe Empfind-lichkeit besitzt, aber auch die meisten Gesichtspartien. Besonders die Finger, da sie auch die Hauptwerkzeuge des Menschen sind, sind für ein hochauflösendes Berührungsemp-finden und damit die Interaktion mit der Umgebung geeignet.

3.2.1.1 Exterozeptive Sensoren Die exterozeptiven Reize werden direkt von den Sensoren in der Haut erzeugt und an das Gehirn weitergeleitet. Die Signale enthalten Informationen über Druck, Schmerz, Tem-peratur und Beschleunigung auf der Hautoberfläche. Beim Ertasten von Gegenständen geht der Mensch folgendermaßen vor (taktiles Feedback):

1) Die allgemeine Struktur des Gegenstandes wird ertastet. Dabei wird die Größe, Form, Seiten- und Kantenanzahl und Oberfläche, aber auch Temperatur analysiert.

2) Als nächstes widmet man sich den Details wie z.B. Löcher in der Oberfläche, scharfe Kanten, Oberflächenveränderungen.

Dabei muss beachtet werden, dass die Fingerbeere, ohne Gewebeschäden davonzutragen, einen Druck von etwa 200mBar auf 0,5mm2 aushalten kann. Diese Daten sind für die Konstruktion von beispielsweise Datenhandschuhen von größter Bedeutung, um Verlet-zungen zu vermeiden.

Zudem ist die Art des Ertastens sehr unterschiedlich, um sich eine Vorstellung von Ob-jekten machen zu können. So existieren drei Grundformen des taktilen Feedbacks (Zwis-ler 1998):

Page 63: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 63

1) Wenn der Reiz relativ zu der Handbewegung geschieht: statische Reize.

2) Die Haut (in unserem Fall Fingerbeere) wird über einer Oberfläche bewegt: räum-liche Information.

3) Elektrostatische Entladungen: elektrische Reize.

4) Erzeugung der reize durch Vibration (eine Kombination aus statischen Reizen und räumlicher Information): vibrotaktile Reize.

3.2.1.2 Propriozeptiven Sensoren Die propriozeptiven Sensoren befinden sich in den Muskeln und Gelenken des Körpers. Die erzeugten Reize informieren über die Anspannung der Muskulatur und den Winkel der Gelenke. Aus diesen Signalen kann der Körper nicht nur ableiten, wie stark wir einen Knopf drücken müssen und hilft beim Abschätzen, ob die Kraft für eine Aktion ausreicht (z.B. um etwas zu heben), sondern auch, wie stark ein Gegenstand oder eine Kraft auf uns einwirkt.

3.2.2 Der Sehsinn Aus der Evolutionssicht wurde das Auge stärker bevorzugt, als z.B. der Tastsinn. Es hat die Menschen von weit entfernten Gefahren frühzeitig gewarnt und erlaubte eine gute übersicht über das Gelände. Die Netzhaut ist an die elektromagnetische Wellenlänge von 400 bis 650 Nanometer [Domik 1997] spezialisiert, da diese reichlich in der Atmosphäre vorkommen.

Der Sehwinkel beträgt 180°, was beim Design von VR-Brillen zu beachten ist, aber auch beim Winkel des projizierten Bildes auf die VR-Brillenmonitore.

Die Netzhaut besteht aus Stäbchen und Zapfen. Die Stäbchen sind sehr lichtempfindlich, was uns erlaubt, trotz starker Dämmerung bzw. fast völliger Dunkelheit, bei einer mini-malen Lichtreflexion immer noch zu sehen oder zumindest die Konturen der Umgebung zu erkennen. Dabei muss man aber wissen, dass diese nur Helligkeit messen und nicht die Farbe (nur Schwarz-Weiß-Bild möglich). Auf der Netzhaut sind etwa 75-150 Millio-nen Stäbchen verteilt, wobei die Dichte zum Netzhautzentrum zunimmt.

Anders die Zapfen. Diese werden erst bei stärkerem Licht aktiviert. Sie erlauben uns Farbsehen. Da sich aber die Zapfen fast ausschließlich im Zentrum der Netzhaut befinden ist das Farbsehen auch nur im Zentrum möglich. So sehen wir in Wirklichkeit nur etwa 80° in Farbe. Die restlichen 100° in Grautönen.

3.3 Haptische Geräte Es stellt sich die Frage, welche Bereiche des Körpers besonders für haptische Geräte ge-eignet sind? Die folgende Grafik veranschaulicht die entscheidenden Körperbereiche für die Entwicklung und Anwendung von haptischen Geräten.

Page 64: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

64 Haptic Computing

Abbildung 38: Receptor-Motoril Anteil im Gehirn [Hendrich 2004]

In der Abbildung 38 A sehen wir den Rezeptoranteil, welcher für die Reizaufnahme zu-ständig ist, auf der Abbildung 38 B den motorischen Anteil am menschlichen Körper. Hier fällt auf, dass besonders zwei bereiche sowohl einen hohen Anteil an Rezeptoren als auch Motorik hat, die Hand, also auch jeder Finger, und das Gesicht. Im folgenden Ab-schnitt werden wir uns besonders mit den haptischen Geräten für die Hand befassen.

3.3.1 Spacemouse Die Spacemouse [Spacemouse 2004] vereinigt eine herkömmliche Computermaus mit einer Einheit zur Steuerung von Objekten in einer 3D Welt. Dabei ist die Spacemouse auf 3D CAD (Computer Aided Design) Konstruktionen spezialisiert.

Abbildung 39: SPI Spacemoluse zur Steuerung von 3D-Objekten [Spacemouse 2004]

Die Spacemaus besitzt insgesamt sechs Freiheitsgrade (Abbildung 39). Die ersten drei basieren auf dem einfachen Drücken und Ziehen der Sensorkappe von allen drei Rich-tungen. Dies erlaubt das Bewegen eines Objekts in einem 3D Raum vorwärts und rück-wärts (Z-Achse), nach links oder rechts (X-Achse) und nach oben oder unten (Y-Achse).

Die weiteren drei Freiheitsgrade dienen der lokalen Drehung eines Objekts. Dabei kann die Sensorkappe gedreht werden (Y-Achse), aber auch vorwärts (X-Achse) und seitwärts (Z-Achse) gekippt werden.

Die Vorteile des Geräts liegen auf der Hand. Die eher statische Konstruktion erlaubt eine relativ präzise Bewegung im 3D-Raum. Die Bedienung geschieht recht intuitiv und wird

Page 65: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 65

in 3D CAD Kreisen gelobt. Jedoch ist der Anwendungsbereich eher auf Modellierung von 3D-Konstruktionen beschränkt und damit nicht universell einsetzbar. Auch gibt es keinerlei Rückkopplung zum Benutzer über Force Feedback. So handelt es sich bei die-sem haptischen Gerät eher um ein Entwicklertool als um ein Gerät zur Simulation von VR.

3.3.2 Eye- und Headtracking Beim Eyetracking verfolgt eine Augenkamera die Bewegung, speziell die Blickrichtung des Auges. So kann theoretisch ein System auf die Blickrichtung des Benutzers reagie-ren. Problematisch ist nur, wie wir im Anatomieteil erfahren haben, dass das Auge sich in Wirklichkeit in ständiger, scheinbar willkürlicher Bewegung be-findet. So werden für die Augenverfolgung sehr schnelle Kameras benötigt welche zwi-schen 250 bis 500 Bil-der pro Sekunde aufnehmen, um eine sinnvolle Auswertung der Blickrichtung zu ma-chen. Diese beiden Kameras sind auf einem „Helm“ vor den Augen installiert.

Eine weitere Kamera ist vor dem Nutzer aufgebaut (Abbildung 40), welche vier Markie-rungen auf dem Helm verfolgt um die Kopfposition zu bestimmen. So kann das System die Blickrichtung und die Position des Kopfes zu einem Bildschirm bestimmen. Die räumliche Auflösung beträgt 0,01°, was bei nicht zu großen Entfernungen eine hohe Ge-nauigkeit erlaubt.

Abbildung 40: Eyetrackinghelm mit zwei Kopfkameras vor den Augen [Eyetracking 2004]

Die Anwendung ist bei diesem System sehr vielfältig. Schon heute wird bei den Jagd-flugzeugen und Hubschraubern im Militär Eyetracking verwendet, um Ziele anzuvisie-ren. Auch bei Unterstützung von Behinderten wird dieses System verwendet, um einen Computer ohne die Nutzung von Händen zu ermöglichen.

Ein großer Nachteil ist vor allem die Kalibrierung des Eyetracking Systems (weniger des Headtracking). Auch kommt dazu, dass der Benutzer einfach nur ein Objekt betrachten will, dies aber als ein Befehl vom System interpretiert wird.

3.3.3 PHANToM PHANToM wurde am MIT entwickelt [Phantom 2004] und wird heute von der Firma „SensAble technologies“ vertrieben. Es unterstützt auf eine natürlichere Weise als die Space-mouse das Navigieren und Bearbeiten von Objekten im Bereich der 3D CAD Sys-teme.

Page 66: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

66 Haptic Computing

Abbildung 41: Phantom zum Navigieren und Bearbeiten von 3D-Objekten [Phantom 2004]

Das Gerät besitzt sechs Freiheitsgrade (Abbildung 41), also genau so viele wie die Space-mouse. Der Hauptunterschied liegt aber darin, dass wir gewissermaßen eine Ob-jekt in der Hand halten und wirklich dreidimensional bewegen. Die Spacemouse liegt einfach auf dem Tisch.

Ein weiterer Vorteil liegt darin, dass der PHANToM Force Feedback für drei Grade (1,2 und 3) unterstützt.

Auch die räumliche Auflösung ist sehr hoch. Diese beträgt etwa 0,07mm, was bedeutet, dass sehr präzise, (auch für die Medizin geeignete) Bewegungen ausgeführt werden kön-nen.

Man könnte sich natürlich fragen, ob das unterstützte Force Feedback überhaupt in derar-tigen Geräten sinnvoll ist? Man kann sich zwar vorstellen, dass kleine leichte Gegenstän-de gut simuliert werden, da sie sowieso leicht sind und die kleinen Kräfte der Elektromo-toren im PHANToM ausreichen, aber wie sieht es mit großen bzw. schweren Objekten aus? Aus Versuchen hat sich herausgestellt [Phantom 2004], dass der Widerstand von 20 Newton vollkommen ausreicht, um eine Akzeptant beim Benutzer hervorzurufen.

Mit einem großen Problem haben aber die Entwickler noch zu kämpfen. Die Umsetzung des PHANToM in der VR ist ein einfacher Punkt, den man bewegt. Jedoch entsteht der Eindruck für den Benutzer beim Steuern des Gerätes durch einen Stift oder eigenen Fin-ger, das die Fläche größer ist, als auf dem Bildschirm angezeigt. So werden virtuell eOb-jekte oft einfach fallengelassen, da sie an der virtuellen, aber nicht echten, Kante lagen, was der Benutzer nicht spürt und nicht sieht.

Page 67: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 67

3.3.4 Cybergrasp Der Cybergrasp wir von der Firma Immersion Corporation hergestellt. Hierbei handelt es sich um ein „äußeres Skelett“ (auch Exoskelett genannt), welches über einem Daten-handschuh getragen wird. Es wiegt 350 Gramm und verfügt über fünf Aktuatoren, die einzeln ansteuerbar sind. Auf diese Weise können Greifkräfte von bis zu 12 Newton auf jedem Finger ausgegeben werden [Universität für die Bundeswehr München 2004].

Abbildung 42: CyberGrasp, ein digitaler Handschuh [Universität für die Bundeswehr München

2004]

Das Gerät ermöglicht den Menschen, auf virtuelle Objekte in einem (virtuellen oder ent-fernten) Raum zuzugreifen (Abbildung 42). Der Anwender verspürt durch „Force Feed-back“ den Druck von Gegenständen auf den einzelnen Fingen seiner Hand, welcher Ü-ber Sensoren und Druckpunkte an den Fingern erzeugt wird.

Den 3D-Modellen werden Informationen über die Eigenschaften von Materialien der virtuellen Objekte mitgegeben, aus denen sich ihr Verhalten berechnen lässt. Bei Benut-zer-Zugriffen muss dieses gesetzte Verhalten dann kalkuliert werden; bis zu 1000-mal pro Sekunde, weil Fingerspitzen empfindlich sind und einen Mangel an Realismus weni-ger verzeihen als Augen, denen 25 bis 30 Einzelbilder pro Sekunde als Bewegungsillusi-on reichen. Dem Benutzer wird damit ein realistisches Greifgefühl vermittelt und ein intuitiver Umgang mit dem virtuellen Prototypen ermöglicht [Heise 1999].

Page 68: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

68 Haptic Computing

Abbildung 43: CyberGrasp [Wolff 2002]

Das „Eintauchen“ der Hand in den virtuellen Raum wird als sehr realistisch empfunden, da hierbei kein Zwischenmedium (wie PHANToM, oder Spacemouse) vorhanden ist. Problematisch ist nur die Anzahl der Freiheitsgrade die solch ein Handschuh anbietet. Bei oben vorgestellten Geräten sahen wir häufig 6 Freiheitsgrade. Ein Datenhandschuh (Abbildung 43) bietet bis zu 20, wodurch die Genauigkeit der Berechnungen der Position im VR, also die punktgenaue Steuerung, leidet.

3.4 Anwendungen In diesem Abschnitt werden existierende Anwendungen, aber auch mögliche Zukünftige dargestellt. Dabei geht es vor allem darum, die Fülle an Möglichkeiten zu ordnen.

3.4.1 Anwendung in der Telekommunikation als Erweiterung des Telefons Es ist eine mögliche Videokonferenz vorstellbar, welche in der VR stattfindet. Dabei ge-schieht die Steuerung des Systems mit einem Digitalhandschuh. Die möglichen Ge-sprächspartner erscheinen als digitalisierte Personen. Wir können uns zu jeder drehen und diese mit dem Datenhandschuh zur Kommunikation auswählen. Auch ein Hände-druck wäre durch Force Feedback möglich. Über einen Headtracking System könnte man auch herausfinden, mit welchem Partner wir ins Gespräch kommen wollen. Dies ist zwar eine simple aber hilfreiche Idee, um Meetings zu veranstalten und mit Geschäftspartnern zu kommunizieren, die in verschiedenen Ecken der Welt verstreut sind.

Auch der Zugriff auf mögliche Dateien oder Präsentationen wäre mit dem Datenhand-schuh möglich. Einfache Skizzen oder Diagramme könnten durch Handbewegungen ma-nipuliert oder auch erstellt werden. Jeder Teilnehmer hätte die Möglichkeit, sich an ge-meinsamen Aktionen zu beteiligen.

Natürlich ist es nur eine Idee, aber es fällt sofort auf, wie raffiniert der virtuelle Konfe-renzraum im Vergleich zu einer normalen Videokonferenz ist, wenn man die vorhandene Telefontechnik mit haptischen Geräten kombiniert.

Page 69: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 69

3.4.2 Anwendung in der medizinischen Teleoperration Unter dem Begriff Teleoperation versteht man den Vorgang, der vom Menschen gesteu-ert und vom Roboter ausgeführt wird. Teleoperation ist dort am besten einsetzbar, wo ein Mensch nicht arbeiten kann z.B. im Weltraum oder unter dem Wasser.

Auch in der Medizin hat die Teleoperation die ersten Ansätze gefunden. Heutzutage ist es möglich, dass ein Arzt einen Patienten nicht vor Ort behandelt, sondern mit Hilfe der Teleoperation ihn untersucht und behandelt.

Der Arzt bedient dabei ein Eingabegerät, dessen Bewegungen an einen „Roboter“ über-tragen werden. Ein Roboter führt dann die Operation aus. Um alles durchzuführen, braucht der Arzt natürlich auch ein taktiles Feedback. Beim Operationsverlauf kommt es oft zu Komplikationen z.B. starken Blutungen, oder der Chirurg muss nahezu blind ar-beiten. In solchen Fällen muss sich dieser vorwiegend auf seinen Tastsinn verlassen, um z.B. verschiedene Gewebe von Tumoren unterscheiden zu können.

Auch werden in der Medizin Mikrooperationen durchgeführt. Es sind die Operationen, bei denen Chirurgen über einen schmalen Trichter (Abbildung 44) Instrumente und Be-leuchtung in den Körper einführen. Diese Operationen werden mithilfe eines Mikroskops überwacht. Da der operierte Bereich stark vergrößert wird, können die kleinsten falschen und unkontrollierten Bewegungen des Arztes Schäden verursachen. So ist auch hier die Unterstützung durch haptiche Geräte ein grosser Vorteil und oft unbedingt nötig [GEO 2004].

Abbildung 44: haptisches Bediengerät für die Visceralchirurgie (Kühnapfel U 2000)

Wegen der großen Gefahr, den Patienten zu verletzen, kann man hier Geräte benutzen, mit welchen der Chirurg nicht direkten Kontakt zu dem Menschen benötigt, sondern über einen Operationsroboter operiert, welcher seine Bewegungen verfeinert und verkleinert und damit die Genauigkeit steigert.

Page 70: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

70 Haptic Computing

3.4.3 Anwendungen im CAD und Industriebereich Ob in der Architektur oder in der Industrie finden die haptischen Geräte schon heute ihre Anwendung. So werden Modelle noch vor der Produktion in VR präsentiert und begeh-bar gemacht (auch walk through genannt).

Besonders in der Architektur werden Messhallen, Fabriken oder Einkaufcenter im VR gerne präsentiert. So kann der Bauherr beispielsweise ein virtuelles Einkaufcenter bege-hen und sich so von den Räumlichkeiten, Design oder Funktionalität überzeugen. Bei Fabriken kann der Ingenieur die Lautstärke der Maschinen, die auf die Mitarbeiter wir-ken, messen und gegebenenfalls durch ihre virtuelle Umplatzierung die Störgeräusche vermindern. Auch der Arbeitsweg in der Fabrik bei unterschiedlichen Fällen, z.B. wie der Weg zwischen Maschine A und B, welcher zu einem bestimmten Zeitpunkt durch den Weg zwischen den Maschinen C und D geschnitten wird, kann optimiert werden. Viele Verbesserungen können getroffen werden, welche auf einem Plan oder kleinem nicht begehbaren Modell nicht bemerkt worden wären.

Auch die Flug- und Autoindustrie haben stereoskopische Projektionen (welche einen 3D-Effekt bewirken) in beweglichen Simulatoren für sich entdeckt. Hier können Gefahrensi-tuationen, oder Funktionalität der Fahrzeuge bei hoher Realitätsnähe getestet werden.

Simulatoren sind solche Bewegungsplattformen, die auf dem Prinzip von Force Feed-back funktionieren. Sie können mit bestimmten berechneten Beschleunigungen und rea-listische Bewegungen simulieren, um dem Menschen den Eindruck zu geben, in einem Flugzeug oder Auto zu sitzen.

Flugsimulatoren können dazu dienen, realistische Bewegungen der Flugkörpern zu simu-lieren. Es funktioniert allerdings nicht ohne weitere audiovisuelle Informationen. Erst unter Zunahme von weiteren Reizen kann der Mensch auf ihn wirkende Beschleu-nigungen zuordnen.

Bei Neigungen der Plattform wirkt die Gravitation der Erde von verschiedenen Seiten auf die Insassen, wodurch sie das Gefühl bekommen, sich in einer Kurve oder Steigung zu befinden. Auch die visuelle Darstellung der Umgebung verschiebt sich passend zu dieser Auslenkung. Da man als Insasse nicht aus dem Simulator herausschauen kann, glaubt man dem vorgetäuschten Horizont, welcher auf den Bildschirmen im Inneren projiziert wird. Wenn jedoch die durch Bewegung und graphische Darstellung vermittelten Ein-drücke nicht übereinstimmen, können Schwindelgefühl und Übelkeit ausgelöst werden.

Abbildung 45: Flugsimulator auf einer hydraulischen Plattform [Schubert 2003]

Die gesamte Plattform befindet sich auf hydraulischen Dämpfern (Abbildung 45), welche durch den Simulatorcomputer gesteuert werden. Die Simulatorkapsel ist auch mit einem Direktprojektionssystem, welches mit dazugehörigen 3D-Brillen funktionieren kann, sowie mit einer Audioanlage ausgestattet. Beide Systeme, also das audiovisuelle und das

Page 71: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 71

mechanische arbeiten synchron zusammen, so dass eine glaubwürdige Illusion entstehen kann.

3.5 Fazit und Ausblick Die haptischen Geräte bilden eine der Hauptsäulen, um einerseits die Interaktivität zwi-schen Mensch und Maschine zu steigern, andererseits um einen realistischeren Eindruck von den simulierten Umbebungen z.B. in der VR zu erlangen. Da dieses Forschungsge-biet relativ neu ist, steht noch ein weiter Weg bevor. Aber es zeigen sich in vielen Berei-chen schon jetzt grosse Erfolge, wie z.B. in der Pilotausbildung, bei welcher eine beweg-liche Kabine täuschend echte Eindrücke eines Fluges vermittelt. Aber auch simplere Konstruktionen, wie die Spacemouse, welche die Bearbeitung von 3D Objekten stark vereinfacht, hat ein grosses Potentiel. Auch der Phantom ist eine simple aber zugleich raffinierte Idee. Wenn es aber um einen hohen Freiheitsgrad in der Bewegung des Nut-zers geht, so steht noch viel Forschung bevor. Der Digitalhandschuh (CyberGlove) ist ein gutes Beispiel für den Versuch der Integration einer Handbewegung auf eine sehr natür-liche Weise.

Jedoch ist die Rückmeldung von Druck, Widerstand oder mögliche Kräften, welche auf den Benutzer einwirken sollen, noch immer in einer sehr frühen Entwicklungsphase. Ei-ne in Echtzeit simulierter und realistischer Force Feedback ist immer noch sehr primitiv und bedarf noch viel Verbesserung. Die realistische Umsetzung von spürbaren Gegens-tänden, die wir z.B. mit einem Datenhandschuh in einer VR anfassen, ist physikalisch aber auch als Rückmeldung schwer beschreibbar. Zurzeit wird eine simulierte Berüh-rung eines Gegenstandes zwar vom Menschen registriert, aber nicht als realistisch wahr-genommen. Die Erkennung dynamischer und statischer Hautverformung steht als neues Forschungsgebiet vor den Ingenieuren.

Ein weiterer Schritt ist die sinnvolle Kombination und Aufeinanderabstimmung der heute entwickelten Geräte. So ist es bis heute immer noch problematisch, zu verstehen, wie ein Mensch, der eine Zeitung liest und nebenbei einen Kaffee trinkt, während er konzentriert liest und seinen Blick nicht abwendet, die Tasse findet, diese ergreift, zum Mund führt, den richtigen Winkel auswählt, damit die Flüssigkeit in den Mundraum gelangt und diese präzise auf den Tisch zurückstellt. Das ganze ist eine Folge von Geschpür für des Ge-wicht der Tasse, Anpressdruck der Hand, Lippenkontakt und Anpressdruck an die Lip-pen. Diese hohe Komplexität bei so einem banalen Vorgang wie Kaffeetrinken veran-schaulicht die Probleme, vor denen man heute steht.

Ein weiterer Punkt, der zurzeit noch selten Beachtung findet, da noch entsprechende Ge-räte in der geforderten Funktionalität nur teilweise existieren, ist die Ausfallsicherheit. Besonders in der Medizin (aber auch bei geplanten vollelektronischen Lenksystemen in der Automobilindustrie) muss zugesichert werden, dass das System nicht ausfällt und auch wahrhaftiges und realistisches Feedback liefert. Hierbei kann es sich um eine Le-bensbedrohliche Situation handeln. So sollten diese Systeme mit Vorsicht in empfindli-chen Bereichen eingesetzt werden. Es ist schließlich keine Computermaus, welche bei Störungen einfach im laufenden Betrieb geputzt oder ausgetauscht werden kann.

Page 72: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

72 Ad-hoc Netzwerke

Page 73: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 73

4 AD-HOC NETZWERKE

Die zunehmende Mobilität der Endgeräte und der Bedarf nach Vernetzung schaffen Raum für die Entwicklung neuer Kommunikationstechnologien. Für viele dieser Vernet-zungsarten kommt nur eine Ad-hoc-Vernetzung in Frage. Ausgangspunkt ist dabei die serverlose Kommunikation, die Peer-to-Peer-Kommunikation, deren Grundlagen zu An-fang kurz erläutert werden.

Microsoft stellt hierfür mit dem Advanced Networking Pack for Windows XP eine eige-ne Entwicklungsumgebung für Peer-to-Peer-Netzwerke zur Verfügung, die die Schwä-chen der bisherigen Windows-für-Workgroups-Plattform überwinden soll. Authenfizie-rungs-, Sicherheits- und Groupingfunktionen ermöglichen fortschrittliche Kommunikati-on und Datenaustausch zwischen den Endgeräten und die gemeinsame Nutzung von Res-sourcen.

Die Jini Technologie von Sun erlaubt, Netzwerkgeräten und Diensten in einer verteilten dynamischen Netzwerkumgebung spontan miteinander zu interoperieren. Die Idee von Jini ist, ein Netzwerkverbund ohne komplizierte Netzwerkkonfiguration, Treiberinstalla-tion oder Ähnliches zu bilden. Obwohl Jini bisher noch keinen wirklichen Durchbruch geschafft hat, bleibt die Anwendung von Jini für Gerätehersteller und Software-Entwickler eine interessante Grundlage, aufgrund der Erweiterungen der bisherigen Java Technologie sowie andere Merkmale wie Flexibilität und Skalierbarkeit. Jini kann für verteilte Aufgaben im Netzwerk mit mobilen Endgeräten benutzt werden, wo Dienste oder Anwendungen nur für begrenzte Zeit mit dem Netzwerk verbunden sind.

Auch das von Sun initiierte JXTA Projekt ist eine interessante Entwicklungsumgebung für Peer-to-Peer Anwendungen. JXTA ist eine Plattform für Netzwerkprogrammierung, die als Lösung für Anwendungen und Dienste im Peer-to-Peer Netzen dienen kann und Vorteile wie Kompatibilität, Betriebsystem- und Hardwareunabhängigkeit enthält. Es wird somit auch die Entwicklung von komplexen, verteilten Anwendungen in Ad-hoc-Netzen ermöglichen. Viele Projekte, die an der JXTA-Technologie arbeiten, können je-doch im Rahmen dieses Kapitels nur kurz erwähnt werden.

Abschließend werden einige Praxisbeispiele für die Ad-Hoc-Vernetzung aus den Berei-chen Verkehr, Heimvernetzung und Grid-Computing genannt, die die Notwendigkeit, die Möglichkeiten aber auch die Probleme der Ad-Hoc-Vernetzung aufzeigen.

Die Kombination von mobilen Netwerkknoten zu einem dezentralisierten selbstverwal-tenden drahtlosen Ad-hoc Netwerk bietet ein neues Konzept von dynamischen autono-men Informationssystemen. Solche Systeme sind für viele Situationen sehr gut geeignet und besitzen viele neue Eigenschaften, aber auch einige Probleme. In diesem Kapitel werden die Grundlagen und Konzepten von Peer-to-Peer Netwerken beschrieben. Weiter werden die Technologien Jini und JXTA mit Beispielen dargestellt und kurz bewertet. Zum Schluss werden einige Anwendungsbeispiele für Ad-hoc Netzwerk vorgestellt.

Jedes Notebook mit WLAN-Karte kann zum Teilnehmer eines Ad-hoc-Netzes werden. Dieses bietet gegenüber der herkömmlichen Ethernetz-Vernetzung einige Vorteile:

Page 74: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

74 Ad-hoc Netzwerke

Normales Ethernet WLAN Ad-hoc-Netz Anschluß ans Netzwerk Crossover-Kabel oder –

Adapter bzw. Switch und entsprechend viele Kabel notwendig

WLAN-Modul kann sowohl mit Access-Points, als auch mit anderen PCs kommunizie-ren

Komplexitiät Für ungeübte User nicht leicht zu installieren (Welches Ka-bel? Welcher Port?)

Installation durch Mausklicks und Online-Hilfe

Mobilität Ortsgebunden (Reichweite = Kabellänge)

Abhängig von Entfernung und Hindernissen (z.B. Wänden)

Robustheit Stecker und Kabel anfällig für Beschädigungen

In modernen Notebooks fest eingebaut ohne sichtbare An-tenne

Struktur Strukturiert (Switch als zent-rales Element)

Unstrukturiert, jeder Client kann mit jedem anderen di-rekt kommunizieren

Tabelle 2: Vergleich von Ethernet und WLAN Ad-hoc-Netzen

Daraus ergibt sich, dass ein WLAN im Ad-hoc-Modus im Vergleich zum normalen E-thernet folgende Merkmale besitzt:

• Schnell installiert (deswegen Ad-hoc)

• Einfach zu installieren

• Preiswert (möglichst ohne Zubehör)

• Universell (Nutzt alle Möglichkeiten - Ethernetdose am PC wäre auch mit Um-schalter denkbar)

• Mobil

• Robust

• Ggf. größere Reichweite als WLAN im Infrastrukturmodus durch Unstrukturiertheit

Diese Kriterien können beispielhaft als Grundlage für die Entwicklung künftiger Ad-hoc-Netze dienen.

4.1 Peer to Peer Networking Der breiten Öffentlichkeit sind Peer-to-Peer (P2P) Netze mit der Berichterstattung über die Tauschbörsen Napster, Gnutella, Kazaa u.a. bekannt geworden. Auch wenn es in die-sem Kapitel nicht um Tauschbörsen gehen soll, so führen diese Netze doch anschaulich vor, welche Möglichkeiten und Probleme in P2P-Netzen stecken.

4.1.1 Typen von P2P-Netzen Beim puren Peer-to-Peer (Bsp.: Gnutella) gibt es keinen zentralen Server. Jeder Rechner kann sich am Netz beliebig an- und abmelden. Administration, Skalierung und Abrech-nung sind jedoch schwierig bis unmöglich [Mayer 2002].

Das hybride Peer-to-Peer Netz (Bsp. Napster) zeichnet sich durch eine oder mehrere vor-her festgelegte zentrale Instanzen aus. Verwaltung und Abrechnung sind hier zwar einfa-cher, dafür sind diese Netze aber auch sehr anfällig für Störungen und Angriffe. Zusätz-lich wird die Performance des gesamten Netzes durch die Serverkapazität beschränkt.

Page 75: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 75

Beide Vorteile verbinden soll das Super Peer-to-Peer Netz (Bsp.: Kazaa). Hier liegt eine Mischung aus hybridem und purem P2P-Netz vor. Die Server sind jeweils untereinander verbunden. Allerdings ist hierbei auch der Overhead für die Verwaltung des Netzes in den Servern größer als bei anderen Lösungen. In privaten non-profit Netzen wird es da-her schwierig sein, entsprechende Server zu finden.

Die Schlüsselfunktion des P2P-Netzes ist jedoch die Suchfunktion. Ihre Ausgestaltung entscheidet über Performance und Funktion des ganzen Netzes. Bei Gnutella beispiels-weise besteht 70% des Traffics allein aus Suchanfragen.

4.1.2 Suchmethoden In P2P-Netzen lassen sich grundsätzlich drei Suchalgorithmen unterscheiden:

Flooding: Weitergabe von Suchanfragen mit TTL (Time To Live) Information. Ist TTL=0, wird die Suche beendet.

Iterative Deeping: Flooding mit Resend-Option, falls nicht genügend Resultate gefun-den wurden.

Directed BFS: Flooding-Anfrage wird nur an Nachbarn mit kurzen Warteschlagen oder schnellen Antwortzeiten gesendet.

Die vorgenannten Suchalgorithmen verwenden jedoch keine Indizierung. Mit diversen Verfahren wie Local Indices, Routing Indices, Compound Routing und Hop-Count Rou-ting werden zusätzlich Informationen über die Dateien der unmittelbaren Nachbarn und deren Pfade gespeichert.

Noch einen Schritt weiter geht der Chord-Algorithmus, der die Indizes gleichmäßig über das gesamte Netz verteilt. Aus Platzgründen wird hier jedoch auf eine detaillierte Be-schreibung verzichtet.

4.1.3 Vorteile Peer-to-peer Kommunikation hat gegenüber der Client/Server Kommunikation folgende Vorteile [MS-SP2 2004]:

• Keine hierarchische Struktur, Ressourcen können von jedem gleichberechtigt ge-nutzt werden.

• Einfache Skalierung und höhere Verfügbarkeit (des gesamten Netzes gegenüber ei-nem einzelnen Server)

• Teilen von Prozessorkapazitäten für verteilte Verarbeitung

• Direkter Zugriff auf freigegebenen Ressourcen

• Multipoint-Kommunikation, aufbauend auf IP Multicast Infrastruktur

• Ermöglicht oder verbessert Echtzeitkommunikation

4.1.4 Peer-to-Peer in Windows XP Service Pack 2 Für Windows XP Service Pack 2 hat Microsoft erweiterte P2P-Funktionalitäten imple-mentiert [MS-P2P SDK 2004]. Diese sind Bestandteil des IPv6 -Protokolls und können auch, getrennt vom Service Pack 2, mit dem „Advanced Networking Pack for Windows XP“ installiert werden.

Erstmals können so nun mit dem „Microsoft Windows XP Peer-to-Peer Software Deve-lopment Kit (SDK)“ eigene P2P-Anwendungen unter Windows XP entwickelt werden.

Page 76: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

76 Ad-hoc Netzwerke

4.1.4.1 Grundlagen Bestandteile sind [MS-P2P SDK]:

• Peer-to-Peer Graphing API: Gewährt den Datenaustausch zwischen den Knoten des Netzes.

• Peer-to-Peer Grouping API: Sicherheit - Nur „eingeladene“ Clients können der Gruppe beitreten. Multiplexing Kommunikationsschicht, damit alle Anwendungen denselben Port und dieselbe Datenbank nutzen können.

• Peer-to-Peer Identity Manager API: Erstellen sicherer Peer-Namen (Identitäten)

• PNRP (Peer Name Resolution Protocol): PNRP sorgt als serverlose DNS-Technologie für die Namensauflösung im Netzwerk. PNRP läuft nur mit IPv6.

4.1.4.2 Peer-Namen Peer-Namen bestehen aus einem Text-String im Format: „Authority.Classifier“, wobei der Classifier, der eigentliche Peer-Name, bis zu 150 Zeichen lang sein kann. Authority ist gleich null, wenn es sich um einen unsicheren Namen handelt, bzw. enthält den SHA-Wert des Classifiers, wenn es sich um einen sicheren Namen handelt.

4.1.4.3 Clouds Mehrere Rechner werden zu einer cloud zusammengefasst, ähnlich der Arbeitsgruppe in heutigen Windows-Netzen. Ein Rechner kann Mitglied einer oder mehrere clouds sein (z.B. über VPN oder durch mehrere Netzwerkkarten). Die Liste der Rechnernamen wird von den Rechnern innerhalb der cloud verwaltet.

Es werden drei Arten von clouds unterschieden:

• Eine global cloud für alle Rechner im gesamten Internet

• Site-Specific: Netzwerke mit einer festgelegten Grenze (z.B. Firmennetze, Intranets)

• Link-Specific: Subnetze (z.B. unterhalb von Firmennetzen)

Sinnvoll ist diese Einteilung z.B. bei der Verteilung von Audio- und Videoinhalten, die von zentralen Servern an einige wenige Rechner gesendet werden. Diese senden die Da-ten dann an alle Rechner innerhalb ihrer cloud weiter.

4.1.4.4 Fazit Im Zuge der ständig wachsenden Bedrohung durch Viren und Würmer bietet Windows Peer-to-Peer Networking bessere Möglichkeiten der Administration freigegebener Res-sourcen. So können Ressourcen und Dienste sogar über die Grenzen eines firmeninternen LANs hinaus (z.B. für die Mitarbeiter im Außendienst oder zu Hause) genutzt werden. Dies setzt jedoch eine genaue Kenntnis der verwendeten Ports und deren Freischaltung in der Firewall voraus. Weiterhin wird die Installation von IPv6 vorausgesetzt, die mit zu-sätzlichem Aufwand verbunden ist.

4.2 Die JINI-Technologie Jini stammt aus der früheren Java-Entwicklung von Sun. Der geistige Urheber von Jini ist Bill Joy, Mitbegründer und Vizepräsident der Sun Microsystems, Inc. 1994 legte er die funktionale Definition für Jini fest. Die aktuelle Version von Jini ist 2.0.

Page 77: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 77

4.2.1 Jini-Einführung Jini steht für Java Intelligent Network Architecture. Das Hauptziel von Jini ist, einen dy-namischer Verbund von Geräten und Software zu einem einzigen robusten, verteilten und leicht zu administrierenden System zu bilden. Es soll dynamische Entwicklung und ver-einfachte Konfiguration dieser Verbundsysteme ermöglichen. Ein Gerät oder eine Dienstanwendung kann sich mit diesem Netzwerkverbund verbinden und Präsenz zeigen. Andere Clients im Netzwerk können dann diese Diente, egal wo sie sich befinden, lokali-sieren und benutzen. Der Nutzer kann Dienstanwendungen (Software) oder Geräten (Hardware) ganz spontan ohne komplizierte Konfiguration dem Netzwerk hinzufügen oder aus diesem entfernen. Ein Drucker kann sich z.B. mit dem Netwerk verbinden und stellt dabei seine Dienste anderen Geräten und Systemen im Netz zur Verfügung. Ein Dienstnutzer (z.B. ein Fotoapparat) kann diesen Drucker, nachdem er den gesuchten Dienst (z.B. print) gefunden hat, ohne spezielle Installation nutzen [JiniGuideJan 2004].

4.2.2 Jini – Architektur und Funktionsweise Das Jini System ist wie eine Föderation von Nutzern und deren Ressourcen. Ressourcen können als Hardware, einschließlich Haushalts- und kleine mobile Geräte mit Mikropro-zessoren, Software (in Java geschrieben) oder eine Kombination von beiden Komponen-ten betrachtet werden. Die Fähigkeit, Programmcode in Form von Java Objekten zu downloaden und diesen auszuführen, ist das Hauptmerkmal von Jini und spielt damit eine große Rolle der Jini -Technologie.

4.2.2.1 Jini - Architektur Die Jini Architektur nutzt die Charakteristik der Sprache Java, um die Konstruktion eines verteilten Systems zu vereinfachen und dadurch einen unkomplizierten „Plug-and-Play“ Mechanismus auch in Ad-hoc- Netzwerken zu ermöglichen. Abbildung 46 [JiniNet-Tech] zeigt den Aufbau eines Jini-fähigen Systems. Die Vorraussetzungen für ein solches System sind JVM (Java Virtual Machine), ausreichende Speicherressourcen und ein IP-Protokollstack. Die Jini Technologie-Schicht umfasst eine Laufzeitinfrastruktur, ein Pro-grammiermodell und Services [JiniArchSpec].

Abbildung 46: Jini-Architektur

Ein laufendes Jini System besteht aus drei Hauptkomponenten: Der Service, zum Bei-spiel ein Drucker, ein Digitalkamera oder eine Kaffeemaschine. Der Client, welcher die-se Dienste benutzt und der der Lookup Service (LUS), welcher wie ein Vermittler zwi-schen Services und Client spielt. Als Transportprotokoll zwischen diesen drei Kompo-nenten dient TCP/IP. Die Abbildung 47 [JiniGuideJan] zeigt die Basiskomponente von Jini.

Page 78: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

78 Ad-hoc Netzwerke

Abbildung 47: Jini-Basis

4.2.2.2 Jini - Funktionsweise Wenn ein Dienstanbieter seine Dienste zur Verfügung stellen möchte, benutzt er das so genannte Discovery and Join-Protokoll, um einen Lookup Service zu finden und dann diesem beitreten zu können. Er lokalisiert den Lookup Service (discovery) und lädt von diesem das Service Registrar Objekt, welches für den Zugriff auf LUS notwendig ist. Das Service Registrar Objekt implementiert die Lookup Service’s Schnittstellen und die Protokolle für die Kommunikation zwischen dem Serviceanbieter und dem Lookup Ser-vice. Der Dienstanbieter kann dann ein Service Object auf dem LUS uploaden. Ein Ser-vice Object fungiert wie ein Proxy, der vom Dienstanbieter geladen soll.

Falls ein LUS bekannt ist, kann sich ein Dienstanbieter direkt per TCP- Unicast mit dem LUS verbinden, andernfalls geschieht es mit UDP-Multicast.

Ein Client bzw. ein Dienstnutzer kann ebenfalls mit dem LUS kontaktieren (Discovery) und die Verfügbarkeit des gewünschten Dienstes beim LUS erfragen. Dabei lädt er wie-derum ein registrar Objekt vom Lookup Service auf seine JVM (Java Virtual Machine) und schickt eine Anfrage zum Lookup Service. Als Antwort bekommt er ein so genann-tes Service Proxy (auch Service Objekt), welches dann eine Kommunikation über die Java RMI (Remote Method Invocation) mit dem Dienstanbieter und anderen auf diesen implementierten Objekten ermöglicht. Nur das Service Objekt ist für den Dienstnutzer sichtbar. Die eigentlichen Protokolle bleiben ihm jedoch verborgen. Abbildung 48 [Jin-iNetTech] illustriert Interaktionen zwischen den Parteien.

Abbildung 48: Jini-Funktionsweise

Page 79: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 79

4.2.3 JINI- Komponente und Protokolle Die Stärke von Jini liegt im RMI (Remote Method Invocation) – Protokoll. RMI erlaubt Methodenaufrufe von Objekten, die auf anderen JVMs erzeugt wurden. Andere spezielle Protokolle, die den Datenaustausch zwischen den Entitäten regeln, sollten ebenfalls in der Zukunft unterstützt werden.

Das wichtigste Konzept der Jini Infrastruktur sind die Dienste (Services). Ein Dienst kann eine Berechnung, Speicherung, eine Informationsquelle, Netzwerkgeräte oder Ge-rätezugriff bereitstellen. Ein Dienst kann von einer Person, einem Programm, oder auch einem anderen Dienste benutzt werden. Im Folgenden werden die Eigenschaften der wichtigsten Jini-Komponenten und -Mechanismen kurz beschrieben.

• Lookup: Ein Jini Service, welcher Dienstseinträge (Service Objects) enthält und de-ren Funktionalitäten, die vom Dienstanbieter zur Verfügung gestellt werden. Service Objects in einem LUS können bei einem oder mehren Dienstnutzern anhand der Diensteigenschaften gewählt werden und auch andere Lookup Services enthalten, was eine hierarchische Struktur ermöglicht.

• Leasing: Die Benutzung von Ressourcen ist nur auf eine bestimmte Zeitperiode, Lea-se, gewährleistet. Nach Ablauf des Leasingzeitraumes gibt der LUS die Ressourcen wieder frei. Während dieser Laufzeit kann der Service den Lease erneuern. Mit Hilfe von Leasing kann festgestellt werden, ob ein Service noch verfügbar ist oder nicht. Dieser Mechanismus ist für Ad-hoc-Netzwerkumgebungen interessant, um Teilneh-mer jeder Zeit hinzuzufügen oder zu entfernen.

• Events: Die Jini Architektur unterstützt verteilte Ereignisse, welche eine Erweiterung von einem bekannten Java Events Modell sind. Hierbei erlaubt ein Objekt auch ande-re entfernte Objekte über seine Zustandsänderungen zu informieren. Dieser Mecha-nismus bietet eine Konsistenz von Statusinformationen in der Föderation.

• Transaction: Eine Transaktion ist die Serie von mehreren zusammenhängenden Ope-rationen, welche innerhalb eines einzigen Services oder mehrerer Services existieren. Die Ausführung dieser Operationen haben lediglich zwei Resultate: entweder werden alle Operationen erfolgreich ausgeführt oder alle schlagen fehl. Das bedeutet, wenn nur eine Operation fehlerhaft ist, so werden alle bisher ausgeführten Operationen wieder rückgängig gemacht, und somit der Systemzustand vor Beginn der Transakti-onen wiederhergestellt.

• Security: Das Basis Sicherheitmodell basiert auf dem JDK 1.2 Sicherheitsmodell. Das Security Manager Modell kontrolliert den Zugriff auf Ressourcen. Das Package net.jini.security [JiniAPI 2003] in der neuen Jini Starter Kit 2.0 bietet dieses Sicher-heitsmanagement.

Um einem Dienstanbieter oder Dienstnutzer die Teilnahme an einem Netzwerk zu er-möglichen, muss dieser zunächst eine Jini-Förderation finden, die ihn aufnehmen kann (Discovery). Als Ergebnis einer Suche nach einer Jini-Förderation erhält der Teilnehmer eine oder mehrere Referenzen auf verfügbare Lookup Services. Der Anmeldevorgang wird als Join bezeichnet. Zur Kommunikation mit einem Lookup-Service kommen die drei folgenden Protokolle ins Spiel:

• Multicast Request Protocol: Dieses Protokoll wird bei der Aktivierung eines Netz-teilnehmers (Discovering Entity) verwendet, um existierende Lookup-Services zu ermitteln.

Page 80: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

80 Ad-hoc Netzwerke

• Unicast Request Protocol: Dieses Protokoll wird verwendet, falls dem Netzteilneh-mer ein Lookup-Service schon bekannt ist. Somit kann er direkt über bestimmter IP Adresse des Lookup-Services kommunizieren.

• Multicast Announcement Protocol: Dieses Protokoll wird von Lookup-Services verwendet, um ihr eigenes Vorhandensein im Netz anzukündigen. Beim Neustart von Lookup-Services werden alle interessierten Teilnehmer im Netz mit Hilfe dieses Pro-tokolls darüber informiert.

Mit den Discovery and Join-Protokollen können sich beliebig viele Services bei beliebig vielen LUSs eintragen lassen.

4.2.4 Jini Fazit Im Vergleich zu anderen Techniken wie COBRA, das ebenfalls entfernte Methodenauf-rufe ermöglicht, bietet Jini weitere Vorteile durch Verwendung der Java RMI. Hierdurch kann der Client ein Service Proxy (oder einen Treiber) runterladen, ohne das dieser vor-her installiert sein muss. Ein weiterer Vorteil von Jini ist die offene Architektur, welche die Einrichtung einer dynamisch verteilten skalierbaren Netwerkumgebung ermöglicht.

Langfristiges Ziel von Jini ist die vereinfachte Nutzung und Kopplung von Geräten, wo-bei die bisherige Jini-Spezifikation schon eine interessante Grundlage für verteilte An-wendungen durch die Verschmelzung von Dienstanbieter und –nutzer schafft.

Die Fähigkeit von Jini, ein Rahmenwerk für ein Ad-hoc-Netwerk mit drahtlosen Techno-logien (Bluetooth, WLAN) zu bilden, ist für die Interoperabilität von kleinen mobilen Geräten (Handy, PDA, Notebooks) sehr nützlich. Ein interessantes Jini-Projekt ist die JMatos Software, welche von der Firma PsiNaptic vorgestellt wurde [JiniApp 2001].

Allerdings könnte das für kleine mobile Geräten auch hohe Kosten und Aufwand bei der Entwicklung und Implementierung bedeuten, da diese nur mit beschränkten Hardware-Ressourcen (Speicher, Rechenleistung) und mit speziellen Micro- JVMs auskommen müssen

Jini ist zwar plattformunabhängig, doch ist es schwer zu glauben, dass Jini in der Zukunft auch ohne Probleme mit Konkurrenz-Produkten (z.B. unter Microsoft-Betriebsystemen) auskommt. Und nur wenn die Hardwarehersteller ihre Produkte Jini-fähig machen, kann Jini den Durchbruch schaffen.

4.3 Die JXTA - Technologie Das Projekt JXTA wurde von Sun Microsystems initiiert. Das Ziel dieses Projektes ist die Vereinfachung der Realisierung von P2P-Anwendungen. JXTA ist eine Sammlung von Protokoll- und XML-Spezifikationen. Es soll eine solide und ausgereifte P2P-Entwicklunsbasis für Geräte aller Art (PC, Handheld, Handy) definieren, welche Mängel und Schwächen der zurzeit existierenden P2P-Systeme behebt. JXTA ist sprachunabhän-gig und es existiert bereits eine Referenzimplementierung in Java, die so genannte „JXTA J2SE Plattform“.

4.3.1 JXTA – Grundlagen und Architektur JXTA fungiert mit seinen Protokollen als virtuelles Netzwerk. Anders als traditionelle Client-Server Netze, die auf einen Zentralpunkt beruhen, erlaubt das JXTA-Netzwerk eine direkte Kommunikation zwischen untereinander verbundenen Knoten, den so ge-nannten Peers, auch wenn diese durch eine Netzwerk-Barriere (Firewall/ NAT) getrennt sind. NAT (Network Address Translation) ist ein Verfahren, bei dem private IP-Adressen

Page 81: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 81

auf öffentliche IP-Adressen abgebildet werden. Abbildung 49 [JXTAArch] illustriert das virtuelle JXTA-Netzwerk.

Abbildung 49: Funktionsweise des Jxta-Netzes

Im Folgenden werden die einzelnen JXTA–Elemente und deren Funktionsweise kurz erklärt.

4.3.1.1 JXTA-Elemente Peer Ein Peer ist ein System, welches durch eine IP Adresse und einen Port an das Netzwerk gekoppelt ist. Es ist möglich, auf einem Rechner mehrere Peers zu starten, wenn jeder dieser Peers an einen anderen Port gebunden ist. Die Netzwerkadresse wird als Peer Endpoint bezeichnet und dazu genutzt, direkte Verbindungen zwischen zwei Knoten auf-zubauen. Ein solcher Peer arbeitet asynchron und unabhängig von allen anderen Peers. Er wird eindeutig durch eine Peer ID identifiziert. Peers können je nach Aufgabe in vier Typen eingeteilt werden:

• Minimal peer: Dieser Peer bietet eine grundlegende Funktionalität an: das Empfan-gen und Versenden von Nachrichten. Diese Art von Peer hat in der Regel begrenzte Ressourcen.

• Simple peer: Zum Empfangen und Versenden von Nachrichten werden Informatio-nen über bekannte Ressourcen (z.B. andere Peers, Peergruppen oder Dienste) lokal abgespeichert. Diese Informationen werden später benutzt, um Suchanfragen anderer Peers zu beantworten.

• Rendezvous peer: Diese leiten Suchanfrage an bekannte Rendezvous-Peers und alle andere Peers weiter. Jeder Peer kann als Rendezvous-Peer arbeiten.

• Relay peer: Speicherung von Informationen über Wege zu anderen Peers. Diese In-formationen dienen dazu, Nachrichten von Peers, welche keinen direkten Zugriff auf das Netzwerk haben, weiterzuleiten.

Page 82: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

82 Ad-hoc Netzwerke

Peer Groups Peers können sich selbst in so genannten Peer Groups organisieren. Peer Groups werden ebenfalls durch eine eindeutige ID in einem JXTA-Netzwerk identifiziert – die Peer Group ID. Als eine besondere Gruppe ist hier die „Net Peer Group“ zu nennen. Jeder Peer in einem JXTA-Netzwerk ist Mitglied dieser Gruppe. Zusätzlich hat er dann noch die Möglichkeit, Mitglied in weiteren Gruppen zu werden. Diese Peer Group bietet zum einen eine sichere Umgebung, da sie bestimmte Sicherheitsrichtlinien festlegen kann, und zum anderen die Schaffung einer Umgebung für Peers, die die gleichen Interessen verfolgen. Jede Gruppe kann weitere Gruppen anlegen und jede Gruppe, ausgenommen der NetPeerGroup, hat genau eine Gruppe als Vater. Des Weiteren kann eine solche Gruppe eine Menge von Diensten anbieten. Gewisse Grunddienste stellt JXTA selbst bereit, doch können weitere Dienste für spezielle Interessen entwickelt und angeboten werden. Um die Dienste einer solchen Gruppe in Anspruch nehmen zu können, müssen die entsprechenden Peers Mitglied in dieser Gruppe sein.

Messages Eine Nachricht ist die kleinste Einheit, die von einem Peer gesendet oder empfangen werden kann. Sie besteht aus einer geordneten Reihenfolge von Elementen bzw. Werte-paaren. Ein Element besteht aus einem Namen und dem dazugehörigen Inhalt, wobei die-ser nicht an einem bestimmten Datentyp gebunden ist. Solche Nachrichten können ent-weder als binärer Datenstrom oder als XML-Dokument repräsentiert werden.

Pipes Pipes sind Kommunikationskanäle. Eine Pipe ist immer unidirektional. Eine bidirektio-nale Verbindung wird über zwei entgegengesetzt gerichtete unidirektionale Pipes er-reicht. Eine Pipe ermöglicht den Transport von Messages von einem Endpoint zum nächsten. Eine Pipe kann sich über mehr als zwei Endpoints erstrecken.

IDs In einem JXTA-Netzwerk wird jeder Peer, jede Peergruppe, jede Pipe sowie Modulklas-sen und Modulspezifikationen durch eine ID identifiziert. Diese ID ist ein Uniform Re-source Name (URN), welcher ähnlich wie URI (Uniform Resource Identifier) auch in klarem Text dargestellt ist. Die Länge dieser ID ist von ihrem Typ abhängig. Außer die Eindeutigkeit muss eine ID kanonisch und undurchsichtig sein. Das bedeutet, dass aus einer ID keine weiteren speziellen Informationen über die Ressource ausgelesen werden können. In JXTA werden die IDs zufällig generiert. Die spezielle NULL ID und die Net Peer Group ID, welche die Standard-Peergruppe identifiziert, werden reserviert.

Beispiel einer Peer ID: urn:jxta:uuid-59616261646162614A78746150325033F3BC76FF13C24144CBC0AB663666DA53903

Advertisements

Advertisements haben die Struktur von Metadateien (XML), die von JXTA genutzt wer-den, um Ressourcen in einem Netzwerk, wie zum Beispiel Peers, Peergruppen, Pipes oder Dienste zu repräsentieren. Die Advertisements werden von JXTA-Protokolle be-nutzt, um Ressourcen zu beschreiben und im Netzwerk zu veröffentlichen. In JXTA wer-den die Advertisements in mehreren Typen definiert:

• Peer Advertisement: Im Peer-Advertisement ist Informationen über einen Peer ent-halten, wie z.B. seinen Namen, seine ID und verfügbare Endpunkte.

• Peer Group Advertisement: enthält den Namen, die ID und eine Beschreibung der Peergruppe.

Page 83: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 83

• Pipe Advertisement: Im diesem Advertisement wird ein Kommunikationskanal mit einer eindeutigen ID beschrieben. Die Endpunkte des Kommunikationskanals werden jedoch nicht gespeichert sondern zur Laufzeit ermittelt.

• Module Class Advertisement: Die Existenz eines Moduls wird in diesem Adverti-sement beschrieben.

• Module Specification Advertisement: Dieses Advertisement beschreibt die Spezifi-kationen eines Moduls.

• Module Implementation Advertisement: Dieses Advertisement enthält spezielle Informationen über die Implementierung eines Moduls.

• Peer Info Advertisement: Dieses Advertisement enthält spezielle Informationen über den Zustand eines Peers.

• Rendezvous Advertisement: Dieses Advertisement beschreibt einen Peer, der als Rendezvous-Peer in einer Peergruppe arbeitet.

Advertisements haben eine bestimmte Lebenszeit. Diese dient dazu, veraltete Ressourcen zu entfernen ohne dabei eine zentrale Kontrollinstanz zu nutzen. Um die Advertisement-Lebenszeit zu verlängern, muss es neu veröffentlicht werden.

Netzwerkdienste Ein Peer kann seine eigenen Dienste, die auf diesem Peer implementiert wurden, im Netzwerk zur Verfügung zu stellen. Im Falle, dass dieser Peer ausfällt, werden seine Dienste immer noch zur Verfügung, auch, wenn einer oder mehrere Peers dieser Gruppe ausfallen. Solche Dienste können bei einem Peer bereits vorinstalliert sein. Es ist aber durchaus möglich, dass ein Peer einen Dienst aus dem Netzwerk runterladen kann und diesen Diesnt während der Laufzeit bei sich installiert. Die Grunddienste, die JXTA be-reitstellt, sind im Folgenden kurz beschrieben:

• Discovery-Service: Dieser Service dient dazu, neue Peers, Peergroups oder Dienste zu finden.

• Membership-Service: Dieser Service wird von den Mitgliedern einer Gruppe ge-nutzt, um Anfragen neuer Peers auf Gruppenteilenahme zu akzeptieren oder abzuleh-nen.

• Access-Service: Dieser Service wird genutzt, um Anfragen anderer Peers zu überprü-fen. Der anfragende Peer bekommt dann Informationen darüber, ob er den Zugriff auf diesen Peer erhält oder nicht.

• Pipe-Service: Dieser Service legt Verbindungen zwischen den Mitgliedern einer Gruppe an und verwaltet diese.

• Resolver-Service: Dieser Service ist verantwortlich für das Versenden von generi-schen Anfragen. Solche Anfragen können von Peers genutzt werden, um bestimmte Informationen (z.B. die Erreichbarkeit eines Dienstes) abzufragen.

• Monitoring-Service: Dieser Service ermöglicht das Monitoring anderer Mitglieder von einer Peergruppe.

Diese Dienste müssen jedoch nicht von einer Peergruppe angeboten werden. Jede Gruppe kann sich frei entscheiden, nur die sinnvollen Dienste für die Arbeit zu implementieren.

Page 84: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

84 Ad-hoc Netzwerke

4.3.1.2 Architektur Die JXTA Architektur ist in drei Schichten gegliedert (Abbildung 50 [JXTAInColla]). Ganz unten befindet sich die Kernplattformschicht (core layer), welche sich mit dem Lo-kalisieren und der Identifizierung von Peers, Sicherheit und Kommunikationsprotokollen befasst. Diese Schicht bildet sozusagen die fundamentale Kernplattform für die anderen oberen Schichen. In der Mitte befindet sich die Dienste-Schicht (service layer), welche sich mit höheren Konzepten wie Indexing, Suchen und Dateiaustausch befasst. Die o-berste Schicht ist die Ebene für Anwendungen wie E-Mail-Dienste, Speichersysteme usw. Einige Eigenschaften, wie z. B. Sicherheit, sind in allen drei Ebenen präsent, auch wenn in verschiedener Formgemäß der Position im gesamten P2P-System.

Weiterhin sind in den beiden oberen Schichten neben den öffentlichen auch von SUN erstellte Applikationen und Dienste zu finden. Die JXTA Shell ist eine Konsolenanwen-dung, die verschiedene Kommandos bereitstellt, um ohne großen Programmieraufwand mit der JXTA Technologie und den darauf basierenden Diensten und Anwendungen zu arbeiten.

Abbildung 50: JXTA Architektur

4.3.2 JXTA-Protokolle Auf höchster Abstraktionsebene stellt JXTA eine Zusammenstellung von Protokollen dar. Jedes Protokoll wird durch eine oder mehrere Nachrichten bestimmt, die zwischen den Protokollteilnehmern ausgetauscht werden. Jede Nachricht hat ein vordefiniertes Format und kann verschiedene Datenfelder enthalten. JXTA ist vom Transportsprotokoll unabhängig und kann somit TCP/IP oder andere Transportprotokolle benutzen.

Es sind folgende 6 Grundprotokolle [JXTAVNet] definiert:

• Peer Discovery Protocol

• Peer Resolver Protocol

• Peer Information Protocol

• Rendezvous Protocol

• Pipe Binding Protocol

• Endpoint Routing Protocol

Page 85: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 85

Außer diesen sechs Protokollen können auch weitere Protokolle in JXTA definiert wer-den. Die Interaktionen der Protokolle sind in Abbildung 51 [JXTABrendon 2002] darge-stellt.

Abbildung 51: JXTA Protokolle [JXTABrendon 2002]

4.3.3 JXTA Beispiele Auf der Projekt-Homepage [JXTAProj] von JXTA sind über zwanzig Projekte vorge-stellt, welche auf JXTA Plattform basieren. Das voP2P (voice over P2P) Projekt ist zum Beispiel ein Projekt, welches versucht, über JXTA ein dezentralisiertes Telefonnetzwerk aufzubauen. Das Projekt Venezia-Gondel ist eine neue Art von P2P Online-Transaktionsservice und Framework für verschiedene E-Commerce Modelle, welches ohne zentralen Server funktioniert. MyJXTA2 ist eine auf JXTA basierte kollaborative Anwendung und hat u.a. Merkmale wie Gruppenchat, Ressourcenteilung. Ein anderes Forschungsprojekt wie Expeerience [JXTAExpeer] benutzt auch JXTA Technologie als fundamentales Framework, um neue Eigenschaften und Services für Entwickler im mo-bilen Ad-hoc- Netzwerk [MANET] zu bieten.

4.3.4 JXTA Fazit Aufgrund der Unabhängigkeit von Hard- und Software der einzelnen Peers sowie der Interoperabilität zwischen diesen, könnte JXTA an großer Beliebtheit gewinnen. Die Vorteile von JXTA sind u.a. die Vereinfachung des Nachrichtenaustauschs im XML-Format zwischen den einzelnen Peers und die Möglichkeit der Überwindung von Fire-

Page 86: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

86 Ad-hoc Netzwerke

walls oder NAT-Umgebungen durch den Einsatz von Rendezvous- und Relay-Peers. Entwickler von Peer-to-Peer-Anwendungen brauchen nicht mehr um grundlegende Kommunikationsmechanismen wissen, sondern sich nur auf die eigentliche Anwendung konzentrieren. Für die Entwicklung unter Java existiert bereits eine vollständige Imple-mentierung der JXTA-Protokolle. Implementierungen in anderen Sprachen, wie zum Beispiel C++ oder C sind noch in der Entwicklung. Bereits vorhanden ist eine Implemen-tierung für die Entwicklung von P2P-Anwendungen für Java-fähige mobile Endgeräten wie die JXTA-J2ME Plattform. Ein weiterer wichtiger Aspekt ist die Sicherheit, welche im Kontext von P2P-Anwendungen natürlich eine wichtige Rolle spielt. So bietet JXTA Möglichkeiten für eine sichere Kommunikation durch Verschlüsselungsalgorithmen für die Übertragung von Daten, wie zum Beispiel TLS.

JXTA könnte eine der bedeutendsten Zukunftstechnologien der nächsten Jahre werden, wenn die kommende Entwicklung die noch bestehenden Hürden in der P2P-Entwicklungsgemeinde überwindet und es das Interesse der Nutzer gewinnt.

4.4 Anwendungsbesipiele für Ad-hoc Netze Die folgenden Beispiele verdeutlichen die Notwendigkeit einer alternativen Konzeption für die Vernetzung mobiler Endgeräte.

4.4.1 Mobile Ad-Hoc-Netze über Forwarding Nodes Heutige WLAN-Access Points haben zwei gravierende Nachteile. Erstens kommunizie-ren sie nicht untereinander, so dass jeder Access Point ein eigenes Subnetz bildet. Zwei-tens benötigen sie Stromanschlüsse und Netzwerkanschlüsse zum Backbone.

Die Fraunhofer-Einrichtung für Systeme der Kommunikationstechnik entwickelt deshalb z.Zt. eine drahtlose Ad-hoc-Vernetzung.

Dieses selbstorganisierende Netz besteht aus so genannten Forwarding Nodes, die so-wohl WLAN, als auch Bluetooth unterstützen [e/Home 2004]. Abbildung 52 veranschau-licht die Vorteile dieser Techologie. Die geringe Reichweite (insbesondere bei Blue-tooth) wird durch die untereinander über WLAN verbundenen Forwarding Nodes kom-pensiert. Zusätzlich sorgt ein Handover-Verfahren dafür, dass Verbindungen von einem Node zum anderen übergeben werden können. Da die Nodes untereinander mit WLAN kommunizieren, entfällt die aufwändige Ethernetverkabelung. Zusätzlich sollen die Gerä-te auch mit Batterien funktionieren, was sie sogar vom Stromnetz unabhängig macht.

Mögliche Anwendungen sind:

• Übermitteln von Gebäudeinformationen (Orientierung, Öffnungszeiten) und Per-sonenortung (bei Notfällen)

• Gebäude-Automatisierung

• Datenaustausch

• Temporäre Verbindungen zum Internet (z.B. bei Veranstaltungen)

Page 87: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 87

Abbildung 52: Multi-hop Kommunikation über Forwarding Nodes [Fraunhofer ESK 2004]

Grundsätzlich soll die Einbindung der mobilen Endgeräte für den Benutzer problemlos und möglichst unsichtbar vonstatten gehen. Problematisch dürfte in diesem Fall aller-dings die Gewährung der Datensicherheit sein.

4.4.2 Ad-hoc-Netze in Fahrzeugen zur Stau- und Unfallvermeidung Die Vernetzung von Fahrzeugen ist die konsequente Fortsetzung der Digitalisierung mo-derner Autos. Diese sind heutzutage mit einer Vielzahl von Fahrerassistenzsystemen und Sensoren ausgestattet [Kosch 2004].

Beispiele:

• Elektronischer Tachometer

• Positionsbestimmung (GPS)

• Regensensor (automatischer Scheibenwischer)

• Temperatursensor (Eiswarner)

• Abstandsmessung zum vorausfahrenden Fahrzeug mit entsprechender Warnung bei Unterschreiten des Sicherheitsabstands

• Fahrbahnkontakt messen (blockieren/ wegrutschen eines Rades)

Anhand dieser Beispiele ist leicht zu erkennen, dass die Vernetzung und Auswertung dieser Daten wichtige Informationen über Verkehrslage und Straßenzustand liefern kön-nen. Dabei ist der entscheidende Grund für die Notwendigkeit eines Ad-hoc-Netzes die permanente Standortänderung der Teilnehmer. Herkömmliche GSM-Netze sind in Zellen unterteilt, an deren Basisstationen sich die Teilnehmer jeweils anmelden müssen. Dieses Verfahren bietet sich somit weniger für die technische Umsetzung an.

Weiterhin ist für die funktechnische Umsetzung ein Funkstandard mit einer Reichweite von mehreren hundert Metern und einem kurzen Verbindungsaufbau vonnöten. In den USA ist hierzu der 802.11p-Standard definiert worden (27 Mbit/s, 5,9 Ghz).

Page 88: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

88 Ad-hoc Netzwerke

Um die Verbreitung dieses Systems zu forcieren, wird empfohlen, diesen Dienst durch Location-Based-Services (z.B. Touristikinformationen, Virtuelles Stadtportal) zu ergän-zen.

Über die praktische Ausgestaltung des Systems muß allerdings noch viel diskutiert wer-den. Erstens fehlen z.Zt. einheitliche Standards der Fahrzeughersteller. Auch deshalb gibt es zu wenig Teilnehmer. Weiterhin muß geklärt werden, welche und wie viele Daten ausgewertet werden. Die Stärken des Systems liegen eindeutig in der Auswertung vieler Fahrzeugdaten: Werden 20 Fahrzeuge auf der Autobahn in einem bestimmten Abschnitt plötzlich langsamer, liegt sicherlich ein Stau vor. Die Entwickler möchten aber auch die Daten einzelner Fahrzeuge nutzen (z.B. bei Ölspuren). Dies könnte zu einer unerwünsch-ten Datenflut führen.

4.4.3 5.3 Wireless Grids Herkömmliche Grids können durch WLAN mit mobilen Endgeräten erweitert werden. Hierdurch ergeben sich Möglichkeiten der schnellen und flexiblen Erweiterung des Grids, wodurch die Gesamtleistung steigt. Außerdem bringen diese Geräte zusätzliche Funktionen wie Kameras, Mikrofone, GPS oder Sensoren mit. Sie können den anderen Rechnern als mobile Terminals mit vereinfachter Datenein- und ausgabe dienen. Für die mobilen Geräte bieten sich Vorteile hinsichtlich der erhöhten Rechen- und Speicherkapa-zität des Grids. Die oft geringe Batterieleistung mobiler Geräte kann durch Auslagerung von Funktionen besser genutzt werden [DS-Online 2004].

Voraussetzungen für Wireless Grids sind:

• Ressourcenbeschreibung: Client und Server müssen Informationen darüber aus-tauschen, welche Ressourcen angeboten bzw. benötigt werden.

• Ressourcenvermittlung: Schaffung einer einheitlichen Basis für die Informationen über Ressourcen. Unterschiedliche Standards wie ZeroConf, Plug and Play, Grid Re-source Description Language und Quality of Service müssen hier zusammengeführt werden.

• Koordination der Ressourcen

• Sicherheit: Identität der Kommunikationspartner und Datensicherheit müssen ge-währleistet sein.

• Clearing: Methoden zur Abrechung oder andere Voraussetzungen für die Teilnahme (Beispiel Filesharing: Andere Benutzer müssen Dateien zum Download bereitstellen.)

Als Beispiel nennen McKnight und Howinson das System DARC (Distributed Ad Hoc Resource Coordination) der Syracruse University. Beispielsweise können hiermit bei Großveranstaltungen verschiedene Mikrofone einer Aufnahmequelle zugeordnet werden. Die Bedienung kann hierbei von einem PC, PDA oder Handy aus erfolgen.

Generell könnte die Mobilität der Endgeräte mit der beschränkten Darstellung und Ein-gabemöglichkeit in Verbindung mit hoher Leistung dazu führen, PDAs und Handys als Datenterminals für PCs und Sever zu benutzen [Beispiel: Heise 2004].

4.5 Fazit und Ausblick "Ein Nachteil der reinen Ad-hoc-Netze ist der erhebliche Mehraufwand an Signalisierung zur Aufrechterhaltung der Dienste. Aufgrund der Mobilität und der Nichtexistenz einer zentralen Einheit müssten nämlich sämtliche Veränderungen, die durch Bewegung oder An- und Abschaltung einzelner Terminals hervorgerufen werden, an die weiteren Teil-nehmer des Netzes weitergeleitet werden. Die Zeittakte seien dabei nicht im Minutenbe-

Page 89: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 89

reich der IP-Festnetze, sondern vielmehr im Sekunden oder gar Millisekunden-Bereich angesiedelt, was eine Größenbeschränkung von Ad-hoc-Netzen auf wenige Dutzend Teilnehmer innerhalb einer Domäne nach sich ziehe.“ [about IT 2003]

Ad-hoc-Netze sind also kein Allheilmittel für die Vernetzung von Endgeräten, sondern haben ein sehr begrenztes und spezielles Einsatzgebiet.

Die Vielzahl der Möglichkeiten, die sich heutzutage mit Computern und Netzwerken bieten, überfordern einige Benutzer. Beispielsweise hat ein Benutzer, der mit seinem Notebook ins Internet will ca. 10 verschiedene Anschlußmöglichkeiten – mit jeweiligen Kosten- und Geschwindigkeitsunterschieden.

Die hier vorgestellten Konzepte können dabei helfen, Geräte und Dienste untereinander zu vernetzen. Zusätzlich bieten sie Konzepte zur Absicherung des Netzwerkes. Dabei verlagert sich jedoch die Administration und Verantwortung immer mehr auf die Endbe-nutzer. Genau hier liegt die Herausforderung bei der Entwicklung zukünftiger Anwen-dungen: Vernetzungen zu entwickeln, die einfach und schnell hergestellt und mit gerin-gem Aufwand abgesichert werden können.

Page 90: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

90 Sentient Computing

Page 91: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 91

5 SENTIENT COMPUTING

Computer und intelligente Gegenstände werden in Zukunft immer mehr unseren Alltag durchdringen. Der Computer in Form des herkömmlichen PCs wird zwar weiterhin noch einige Zeit existieren, wir werden jedoch eine verstärkte Allgegenwärtigkeit und Vernet-zung von Informations- und Kommunikationstechniken erleben, die für den Menschen unsichtbar die Tätigkeiten des täglichen Lebens wahrnehmen, uns bei unseren Aufgaben unterstützen und wertvolle Informationen liefern werden.

Ein besonderes Augenmerk wird dabei auf die immer stärker werdende Mobilität der Menschen gelegt. Unsere Umgebung wird sich unserer Anwesenheit bewusst sein, sich unseren Bedürfnissen anpassen und auch ein neuartiges Interagieren zwischen Mensch und Maschine ermöglichen.

Die Verwirklichung dieser Ideen wird durch eine Reihe von technischen Hilfsmitteln realisiert. Vor allem werden Sensoren eingesetzt, um ein aktuelles Model der Umgebung zu erstellen, das als Grundlage für weitere kontextsensitive Anwendungen dient. In die-sem Zusammenhang spricht man auch vom Sentient Computing.

Dieses Kapitel führt in die grundlegenden Ideen und Konzepte des Pervasive- und Sen-tient Computing ein, stellt mögliche und bereits reale Anwendungsszenarien vor und diskutiert sowohl die Vorteile, als auch die möglichen negativen Folgen, die sich aus einer weiter fortschreitenden Digitalisierung unserer Umwelt ergeben.

Mit RFID behandeln wir eine Technik, die sich zwar schon seit einigen Jahrzehnten im Einsatz befindet, jedoch durch den fortwährenden technischen Fortschritt nun auch Ein-zug in den Alltag der Menschen finden wird und eine der Kerntechnologien des Sentient Computing darstellt.

Abschließend befassen wir uns mit Smart Dust. Dabei handelt es sich um Netzwerke aus kleinen kabellosen Sensoren, die massenhaft in der Umgebung verteilt werden können, um eine möglichst kostengünstige, einfache und flexible Erfassung von Messwerten zu ermöglichen.

Die Idee des Ubiquitous Computing, der Allgegenwärtigkeit von Computern, wurde zu-erst von Mark Weiser, dem damaligen Leiter des Computer Science Laboratory bei Xe-rox PARC, in seinem Artikel „The Computer for the 21st Century“ formuliert [Weiser, 1991].

Computer sollen unaufdringlich den Menschen bei seinen täglichen Aufgaben unterstüt-zen, dabei aber scheinbar unsichtbar im Hintergrund bleiben und trotzdem immer und überall verfügbar sein. Diese Idee kehrt unsere bisherige Vorstellung von der Arbeit mit Computern um. Der Rechner verschwindet als Mittelpunkt, dem wir uns anpassen müs-sen, an seine Stelle tritt der Mensch, der von Computern umgeben ist, die sich ihm anpas-sen.

Um dieses Ziel zu erreichen sind nicht nur weitere Fortschritte im Bereich der Prozessor-technik, der künstlichen Intelligenz, der Miniaturisierung von Maschinen und möglichst effizienter Energienutzung oder der Erschließung neuer Energiequellen notwendig, es erfordert vor allem, dass die Computer ihre Umgebung aktiv wahrnehmen und sich ge-gebenenfalls der aktuellen Situation anpassen können.

Dies erfordert einen weit reichenden Einsatz von Sensoren, die die notwendigen Informa-tionen über die vorhandene Umgebung liefern und dem Computer somit die Hinweise

Page 92: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

92 Sentient Computing

geben, ob und welche Aktionen er vornehmen muss. Für diese Spezialform des Ubiqui-tous Computing wurde der Begriff des Sentient Computing geprägt.

Bereits in der Praxis befindliche Beispiele sind Wärmesensoren, die automatisch die Temperatur in Räumen auf angenehme Werte regeln, Bewegungssensoren, die beim Ein-treten von Personen das Licht einschalten oder eine Überwachungsanlage aktivieren, und Gesichtserkennungssysteme, die ohne Benutzereingriff den Zugang zu geschützten Be-reichen erlauben, falls eine berechtigte Person erkannt wurde.

Eher Zukunftsmusik, wenn auch schon technisch sicher möglich, wäre die intelligente Kaffeetasse, die anhand des Füllstands, der Temperatur des Inhalts und des Aufenthalts-orts selbständig feststellen kann, ob sich ein Mitarbeiter gerade in der Kaffeepause befin-det und dann automatisch alle Anrufe zum Sekretariat umleitet oder ein Fahrstuhl, der die Mitfahrenden erkennt und automatisch zum korrekten Stockwerk fährt.

Für viele dieser Szenarien eignet sich eine Technologie besonders gut, die sich zwar schon seit Jahrzehnten im Einsatz befindet, aber erst in letzter Zeit durch verstärkte Prä-senz in den Medien und dem geplanten Einsatz zur Produktkennzeichnung in Supermärk-ten und Warenhäusern für Gesprächsstoff sorgt: RFID (Radio Frequence Identification). Mit RFID ist es möglich, kontaktlos Daten aus kleinen und kostengünstigen Transpon-dern auszulesen, die an beliebigen Gegenständen und Personen angebracht werden kön-nen und somit z.B. eine genaue Identifizierung oder Lokalisierung erlauben.

5.1 Definitionen Beim Sentient Computing handelt es sich um eine Form des Ubiquitous Computing, bei der Sensoren verwendet werden, um ein Modell der Umwelt („world model“) im Com-puter abzubilden. Dieses Modell erlaubt es, kontextbezogene Dienste anzubieten, da bei-spielsweise für jeden Benutzer bekannt ist, an welchem Ort im Gebäude er sich zur Zeit aufhält.

5.1.1 Ubiquitous Computing / Pervasive Computing Ubiquitous Computing (lat. ubique = überall, allgegenwärtig) beschreibt eine Idee von Marc Weiser, die er durch seine Arbeit „The Computer for the 21st Century“ [Weiser, 1991] geprägt hat. Der Computer in seiner bisherigen Form wird demnach durch intelli-gente Gegenstände abgelöst, die den Menschen im Alltag unterstützen und ihm viele Aufgaben abnehmen. Einige Szenarien der Allgegenwärtigkeit von Computern haben wir bereits in der Einleitung vorgestellt.

Pervasive Computing (lat. pervadere = durchdringen) kann als Synonym zum Ubiquitous Computing verstanden werden. Es beschreibt das Durchdringen der Alltagswelt mit ver-netzten, intelligenten Gegenständen, die miteinander kommunizieren.

Pervasive Computing wird dabei häufig als die von der Industrie geprägte Variante des Ubiquitous Computing angesehen. In diesem Zusammenhang muss auch das automati-sche Sammeln und Verknüpfen von Daten, das so genannte Data Mining, genannt wer-den. Problematisch sind vor allem ein ausreichender Schutz von persönlichen Daten und der Privatsphäre [Wikipedia - Pervasive Computing, 2004].

5.1.2 Sentient Computing Sentient Computing (engl. sentient = empfindungsfähig) ist eine spezielle Form des Ubi-quitous Computing. Sentient Computing Systeme passen ihr Verhalten an ein Modell ih-rer Umwelt an, das sie mit Hilfe einer Vielzahl von Sensor erzeugen und auf dem jeweils aktuellen Stand halten.

Page 93: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 93

In den AT&T Laboratories in Cambridge wurde ein Sentient Computing System imple-mentiert und über einen langen Zeitraum hinweg unter realen Bedingungen eingesetzt. Als Testfeld steht ein komplettes Bürogebäude mit 50 Mitarbeitern zur Verfügung, die alle Teil des sog. „Weltmodells“ sind [Addlesee, 2001].

5.1.3 Geteilte Wahrnehmungen Um Sentient Computing zu erreichen, muss dem Computer ein Modell unserer realen Welt bzw. des notwendigen Ausschnitts zur Verfügung stehen. Die Teilnehmer des Pro-jekts interagieren dabei über die reale Welt mit dem Computer und seinen Applikationen und dieser wiederum über sein Weltmodell mit den Benutzern. Die Umgebung wird für den Menschen zur Benutzerschnittstelle zum Computer, Mensch und Maschine teilen sich eine gemeinsame Wahrnehmung (Abbildung 53) [Spirit, 2001].

Abbildung 53: Interaktion zwischen Computer und Benutzer durch ein gemeinsames Weltmodell [Spirit, 2001]

5.1.3.1 Ultrasonic Location System Eine Herausforderung für das Projekt war die Schaffung eines Sensorsystems, das mög-lichst genaue Positionsangabe für den Aufbau und die ständige Aktualisierung des Welt-modells liefert.

Den Forschern von AT&T gelang es, ein auf Ultraschallwellen basierendes Sensorsystem zu erschaffen, das mit einer Genauigkeit von 3cm die Position der jeweiligen Person lie-fert. Abbildung 54 zeigt die Funktionsweise des „Bat“ (engl. Fledermaus) getauften Sys-tems:

(1) Die Bat-Einheit wird über ein Funksignal aktiviert, (2) das Gerät sendet einen Ultra-schall-Impuls in seine Umgebung, (3) an der Decke befestigte Sensoren registrieren die Schallwellen und berechnen aufgrund der Laufzeitdifferenzen die genaue Position der Person [Bat, 2001].

Page 94: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

94 Sentient Computing

Abbildung 54: Schema des Bat Ultraschall-Systems [Bat, 2001]

5.1.3.2 Verwalten des Weltmodells Die Status- und Positionsdaten der gesamten Objekte, aus denen das Weltmodell besteht, wurden als persistente CORBA-Objekte implementiert. Zu den verschieden Objekttypen gehören u.a. Personen, Computer, Computermäuse, Kameras, Scanner, Drucker und Te-lefone.

Jedes dieser Objekte stellt dabei dieselben Schnittstellen softwareseitig zur Verfügung, die auch in der realen Welt vorhanden sind. So kann z.B. ein Drucker über sein Objekt-modell genauso angesprochen und zum Drucken aufgefordert werden, wie über seine Benutzerschnittstelle in der realen Welt.

Die Gesamtheit aller CORBA-Objekte stellt das bereits mehrfach erwähnte Weltmodell dar [Spirit, 2001].

5.1.4 Anwendungen des Sentient Computing Sentient Computing Systeme stellen eine völlig neuartige Form von Benutzerschnittstel-len bereit. Im Folgenden werden wir die wichtigsten Anwendungen des Systems vorstel-len.

5.1.4.1 Browsing Die einfachste Anwendung ist das Browsen im Modell des Gebäudes. Es erlaubt dem Benutzer, alle Personen und sonstigen Objekte in Echtzeit zu beobachten (siehe Abbil-dung 3). Der Nutzen dieser Anwendung liegt in der schnellen Auffindung von Personen und Gegenständen im Gebäude und z.B. in der Möglichkeit, auf ein in der Nähe der ge-suchten Person befindliches Telefon zu klicken um damit direkt einen Anruf zu diesem Apparat durchzuführen [Spirit, 2001].

Page 95: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 95

Abbildung 55: Browsen im visualisierten Weltmodell [Spirit, 2001]

5.1.4.2 Follow me Mit Hilfe einer VNC-Software (Virtual Network Computing), die zur Benutzung von grafischen Benutzerschnittstellen auf entfernten Computern dient, wurde eine Anwen-dung implementiert, die es dem Benutzer erlaubt, sich an einen beliebigen Rechner zu setzen und durch einen einfach Knopfdruck auf seiner Bat, seinen persönlichen Desktop auf diesen Rechner umzulenken.

Zusätzlich routet das System auch sämtliche Telefonrufe an den neuen Arbeitsplatz des Benutzers und die nächstliegende Kamera wird bei Bedarf auf ihn fokussiert um z.B. Videokonferenzen zu ermöglichen.

5.1.4.3 Datenerzeugung, -speicherung und -rückgewinnung Daten die von einem Benutzer erzeugt werden, seien es Textdokumente, Fotos, Grafiken oder Programmquellcode, werden eindeutig dem Benutzer zugeordnet und auf einer Zeit-leiste abgelegt, die man sich z.B. mit einem Webbrowser anschauen kann [Spirit, 2001].

Dies ermöglicht eine schnelle und effiziente Datenverwaltung, ohne dass der Benutzer besondere Maßnahmen dafür ergreifen müsste.

5.1.4.4 Allgegenwärtige Benutzerschnittstellen Wie bereits erwähnt, handelt sich quasi beim gesamten Gebäude um eine große Benut-zerschnittstelle. Daher ist es z.B. möglich, beliebige Stellen an einer Wand als Startknöp-fe für Applikationen und Kommandos zu verwenden. Zur leichteren Orientierung kann die Darstellung dieser Schnittstelle aus der Modellwelt ausgedruckt und als „Intelligentes Poster“ an die Wand gehangen werden. In Abbildung 56 sehen wir einen Benutzer, der mit Hilfe seines Bats und eines „Intelligenten Posters“ einen Netzwerkscanner bedient.

Page 96: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

96 Sentient Computing

Abbildung 56: Intelligentes Poster [Spirit, 2001]

5.2 RFID RFID steht für Radio Frequence Identification und bezeichnet ein System, das zur kon-taktlosen Übertragung von Daten eingesetzt wird. RFID-Systeme bestehen aus so ge-nannten RFID tags, die auch alle gespeicherten Daten enthalten, Lesegeräten, die die Daten aus den Tags auslesen können und daran angeschlossene Server, die die empfan-genen Daten verarbeiten.

RFID ist eine der Schlüsseltechnologien des Sentient Computing und ermöglicht es, kon-textabhängige Dienste anzubieten.

5.2.1 Anwendungsgebiete Für RFID-Systeme gibt es viele unterschiedliche Einsatzzwecke, von denen wir nun ei-nige exemplarisch vorstellen werden.

5.2.1.1 Zutrittskontrollen Herkömmliche Zutrittskontrollsysteme basieren meist auf einfachen mechanischen Schlössern oder elektronischen Lösungen, die Chipkarten oder Zahlencodes als Schlüssel verwenden. Diese Systeme sind oft umständlich zu bedienen und leiden häufig unter me-chanischen Beanspruchungen. Mit RFID ist es möglich, berührungslose Zutrittskontrol-len zu implementieren, die sowohl vom Bedienkomfort als auch der Robustheit her-kömmlichen Systemen überlegen sind.

Als gutes Beispiel dient hier die Entwicklung in der Automobiltechnik, bei der vor allem in höherpreisigen Autos das Tür- und Zündschloss immer häufiger einem RFID-basierten System weicht. Zum Öffnen der verschlossenen Tür muss der Fahrer nur noch den Tür-griff betätigen. Sobald dies vom Fahrzeug registriert wird, aktiviert dieses ein RFID-Lesegerät, das den geheimen Code aus dem RFID-Tag ausliest, der sich beispielsweise in der Hosentasche des Fahrers befindet. Entspricht der Code dem vom Zugriffssystem Er-warteten, wird die Tür entriegelt. Man spricht in diesem Zusammenhang häufig von „Keyless Entry“-Systemen. Die Vorteile liegen klar auf der Hand: Das System bietet

Page 97: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 97

weniger Angriffsfläche gegen Diebstahlversuche, ist unempfindlicher gegen äussere Ein-flüsse, wie z.B. Vereisung und ist komfortabler für den Fahrer, da zum Öffnen kein Schlüssel mehr benötigt wird.

Für das Starten des Fahrzeugs und die vorherige Freischaltung der elektronischen Weg-fahrsperre wird ebenfalls bereits seit einigen Jahren RFID eingesetzt. Der Transponder befindet sich dabei im Schlüssel und wird ausgelesen, sobald der Schlüssel im Zünd-schloss umgedreht wird.

5.2.1.2 Sportveranstaltungen Bei Marathonläufen kann die Zeitmessung mit Hilfe von RFID-Systemen durchgeführt werden. Dazu trägt jeder Läufer einen RFID-Tag am Schuh. Über die Laufstrecke verteilt werden Lesegeräte angebracht, die direkt mit dem Zeitmessungssystem verbunden sind. Dies bietet nicht nur einen besseren Schutz vor Manipulationsversuchen von Läufern, die Teile der Strecke abkürzen wollen, sondern ermöglicht auch eine sehr präzise und detail-lierte Zeitmessung. Die Daten der Teilnehmer können dabei in Echtzeit verarbeitet und zeitgleich im Internet veröffentlicht oder dem Läufer per SMS zugesandt werden, wie beispielsweise beim Berlin Marathon 2004 geschehen [Berlin Marathon, 2004].

5.2.1.3 Identifikation von Tieren Eines der ersten Einsatzgebiete von RFID war die Kennzeichnung von Tieren in der Massentierhaltung, um diese eindeutig und schnell identifizieren zu können. Durch die fortschreitende Miniaturisierung werden Transponder mittlerweile auch Haustieren unter die Haut implantiert. Auf dem RFID-Tag ist dabei eine 15-stellige Zahl gespeichert, die das Tier eindeutig kennzeichnet. Sollte das Tier verloren gehen, kann diese Zahl beim Tierarzt oder im Tierheim ausgelesen und über ein zentrales Haustierregister dem Besit-zer zugeordnet werden [Quarks, 2004].

5.2.1.4 Identifikation von Waren In der Logistik ermöglicht RFID eine enorme Steigerung der Effizienz. Der Warenein- und Ausgang kann automatisch und zuverlässig erfasst und der Aufenthaltsort von Wa-ren im Lager schnell bestimmt werden.

Eine relativ neue Anwendung von RFID sind so genannte Smart Labels, die im Einzel-handel den bisher verwendeten Barcode ablösen sollen. Möglich sind automatische Kas-sensysteme, bei denen der Einkaufswagen nur an einem RFID-Lesegerät vorbeigescho-ben werden muss, um zur Abrechnung seinen Inhalt zu bestimmen. Mit EPC, dem elect-ronic product code, steht auch bereits ein neues System zur Verfügung, das eine weltweit eindeutige Kennzeichnung aller Artikel über RFID ermöglichen soll. Dazu wird im Tag ein 64 bis 256 Bit langer Code gespeichert, der den bisher verwendeten EAN-Strichcode ablösen soll [EPC, 2004].

5.2.1.5 Öffentlicher Personennahverkehr (ÖPNV) Der ÖPNV in der in Deutschland vorrangig anzutreffenden Form, ist im Bezug auf die Preisgestaltung relativ unflexibel und von der Handhabung her oft recht umständlich. Der Fahrgast zahlt normalerweise einen Pauschalbetrag, der ihn berechtigt, die Verkehrsmit-tel für einen gewissen Zeitraum oder Weg zu nutzen. Dabei wird aber preislich meist nicht unterschieden, ob der Fahrgast mit der Bahn nur eine Strecke von fünf Bahnhöfen zurücklegt oder zwei Stunden lang kreuz und quer das Streckennetz durchquert. Wird hingegen von Pauschalangeboten abgesehen und stattdessen das Streckennetz in ver-schiedene Zonen aufgeteilt, die eine differenzierte Preisgestaltung anhand des Weges

Page 98: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

98 Sentient Computing

zulassen, so führt dies oft zur Verwirrung der Fahrgäste beim Fahrkartenkauf, besonders wenn es sich um ortsfremde Personen handelt.

Mit elektronischen Tickets und dem Einsatz von RFID können Fahrten so abgerechnet werden, dass der Kunde nur für die in Anspruch genommene Leistung zahlen muss. Mit Hilfe von Zutrittskontrollen kann zusätzlich das „Schwarzfahren“ eingedämmt werden und die Verkehrsunternehmen erhalten detaillierte Auskünfte über die jeweilige Ausnut-zung der verschiedenen Bahnstrecken und Buslinien und können somit bedarfsgerechtere Fahrpläne erstellen.

5.2.1.6 Intelligente Umgebungen Durch das Zusammenspiel von RFID-Techniken mit allgegenwärtigen Computersyste-men kann eine Fülle von Diensten und Anwendungen geschaffen werden, die uns im Alltag unterstützen und Arbeitsabläufe optimieren:

Kleidungsstücke könnten mit RFID-Etiketten versehen werden, die die jeweiligen Reini-gungshinweise beinhalten. Eine intelligente Waschmaschine würde diese Hinweise vor dem Waschgang auslesen und automatisch das richtige Programm bestimmen und bei problematischen Wäschekombinationen den Benutzer darauf hinweisen.

Kühlschränke könnten die per RFID angebrachten Verfallsdaten der Lebensmittel ausle-sen und rechtzeitig vor dem Ablauf warnen. Ebenso könnte der Kühlschrank feststellen, wenn ein benötigtes Produkt zur Neige geht und selbständig über das Internet Nachschub ordern.

Intelligente Büroumgebungen können den Aufenthaltsort eines Mitarbeiters jederzeit bestimmen und seinen Arbeitsplatz zu diesem Ort migrieren. Dazu gehört das Umleiten von Telefonaten oder eine automatische Abwesenheitsschaltung, die Bereitstellung des persönlichen Computerprofils am nächstgelegen Rechner oder das Informieren von Kol-legen über den momentanen Aufenthaltsort.

5.2.2 RFID Technologie Das RFID-System besteht aus zwei wesentlichen Bestandteilen, einem Transponder, im RFID-Jargon Tag genannt, und einem Lesegerät, um RFID-Tags in der Umgebung ausle-sen zu können. An das Lesegerät können beliebig umfangreiche Applikationen ange-schlossen werden, die die gesammelten Daten auswerten.

RFID wird in sehr verschiedenen Anwendungsgebieten eingesetzt, daher unterscheiden sich die auf dieser Technik basierenden Systeme vor allem bezüglich der Bauform des Tags, der Speicherkapazität, der Energieversorgung, der Übertragungsfrequenz und der Reichweite.

Abbildung 57: Intelligentes Poster [Spirit, 2001]

Page 99: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 99

5.2.2.1 Funktionsweise Die Daten werden auf Transpondern gespeichert, im RFID-Jargon Tags genannt. Gelesen werden die Daten über elektromagnetische Wellen; je nach verwendeter Frequenz ent-weder induktiv oder über Funkwellen. Bei aktiven (batteriebetriebenen) Tags weist das Lesegerät über ein Funksignal den Transponder an, seinerseits auf dieses Signal mit den gewünschten Daten zu antworten, bei passiven (batterielosen) Chips bezieht das Tag sei-ne Energie zum Übertragen der Informationen aus den empfangenen Funkwellen.

Aktive RFID-Transponder können grössere Mengen an Informationen speichern und auch per Funk beschrieben werden. Sie bieten darüber hinaus auch die Möglichkeit Da-ten über einen eingebauten Microcomputer zu verarbeiten.

Passive RFID-Transponder speichern hingegen nur eine sehr begrenzte Anzahl von Da-ten, meist eine eindeutige Identifikationsnummer, und können auch nicht kontaklos be-schrieben werden.

5.2.2.2 Bauformen RFID-Tags gibt es in sehr unterschiedlichen Bauformen, die hauptsächlich vom Einsatz-gebiet abhängen. Die Größe wird wesentlich durch die Form der Energieversorgung und die verwendete Antenne bestimmt.

Für Zutrittskontrollen werden sie häufig in Form einer Chipkarte oder eines Schlüsselan-hängers realisiert, Smart Labels zur Produktkennzeichnung im Einzelhandel werden als Aufkleber auf der Ware angebracht. Leistungsfähigere und wesentlich größere Tags fin-den sich z.B. in der Containerlogistik, diese verfügen dann häufig über eine aktive Stromversorgung und größere Antennen.

5.2.2.3 Reichweite RFID-Systeme werden in drei Reichweiteklassen eingeteilt: Close Coupling, Remote Coupling und Long Range [Finkenzeller, 2002].

Close Coupling Close Coupling-Systeme verwenden Frequenzen von unter 30MHz und ihre Reichweite beträgt bis zu 30cm, was sie vor allem zur Anwendungen bei Zutrittskontrollsystemen und kontaktlosen Zahlungssystem empfiehlt.

Die Datenübertragung erfolgt entweder über eine induktive oder, bedingt durch den ge-ringen Abstand, auch über eine kapazitive Kopplung zwischen Transponder und dem Lesegerät.

Remote Coupling Remote Coupling-Systeme bieten eine Reichweite von bis zu einem Meter und arbeiten in Frequenzbereichen von 100-135 kHz, 6,75 MHz, 13,56 MHz und 27,125 MHz. Diese induktiv arbeitenden Systeme machen etwa 90% des derzeitigen Marktes aus.

Long Range Long Rang-Systeme verfügen über Reichweiten von bis zu 15m und arbeiten mit Träger-frequenzen im Mikrowellenbereich (868 MHz, 2,4 GHz und 5,8 GHz).

5.2.2.4 Energieversorgung RFID Transponder können bezüglich ihrer Energieversorgung in zwei Klassen eingeteilt werden, in aktive und in passive Tags [Wikipedia RFID, 2004].

Passive RFID Tags

Page 100: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

100 Sentient Computing

Passive Transponder verfügen über keine eigene Stromversorgung, sie beziehen ihre E-nergie vollständig aus den empfangenen Funkwellen. Die auf dem Tag enthaltenen Daten können nur ausgelesen, aber nicht beschrieben werden. Sie sind sehr günstig und klein herzustellen und verfügen über eine lange Lebensdauer. Die Reichweite und Speicherka-pazität ist jedoch recht begrenzt. Eingesetzt werden sie z.B. bei Smart Labels und kon-taktlosen Chipkarten.

Aktive RFID Tags Aktive Tags verfügen über eine Batterie und können üblicherweise auch beschrieben werden. Die Reichweite und die Speicherkapazität ist um ein Vielfaches höher als bei den passiven Modellen. Der Sender befindet sich normalerweise im Ruhezustand und wird von der Leseeinheit mit einem speziellen Signal aktiviert. Nachteil aktiver RFID-Transponder, gegenüber den passiven Modellen, ist ihr wesentlich höherer Preis, die grösse Bauform und bedingt durch die Batterie, eine weitaus geringere Lebensdauer.

5.2.3 Datenschutzrechtliche Bedenken Die technischen Möglichkeiten, die uns RFID bietet, sind vielfältig und dienem einem breiten Spektrum von neuartigen Anwendungen, von autonomen Kassen im Einzelhan-del bis zur Realisierung von Sentient Computing Systemen, als Basis. Dennoch darf man bei all den potentiellen Vorteilen auch nicht die Schattenseiten dieser Technik vernach-lässigen. Besonders im Bereich der Smart Labels scheint der Datenschutz und die Privat-sphäre der Verbraucher gefährdet.

5.2.3.1 Konsumentenprofile In der Vision von RFID und EPC erhält in der Zukunft nahezu jedes Konsumprodukt eine weltweit eindeutige Kennzeichnung. Dies alleine wäre noch kein ernsthaftes Prob-lem; dieses liegt jedoch in der Möglichkeit, die Informationen berührungslos und auch unbemerkt auszulesen.

Praktisch würde es bedeuten, dass der Verbraucher, ohne es immer zu bemerken, an vie-len Orten des Alltags sein Konsumverhalten anhand der mitgeführten Produkte offen legt. So könnte der Verkäufer eines Bekleidungsgeschäfts bereits beim Betreten eines Kunden feststellen, welche Kleidung er trägt, wie teuer sie war und wie lange der Kauf zurückliegt.

Endgültig zum gläsernen Kunden werden wir durch die Verwendung von personenbezo-genen Kunden-, Rabatt- oder Kreditkarten, durch die man einem Produkt auch zusätzlich noch dem Käufer zuordnen kann. Dies ermöglicht ein genaues Konsumentenprofil mit weit reichenden Einschnitten in die informationelle Selbstbestimmung.

5.2.3.2 Bewegungsprofile Neben unserem Konsumverhalten kann RFID auch die Erstellung von genauen Bewe-gungsprofilen der Bürger ermöglichen. Beim Einsatz von elektronischen Tickets im ÖPNV wird jede Fahrt, mit Anfangs- und Zielpunkt protokolliert, Mautsysteme auf Au-tobahnen, aber auch in den Städten, überwachen jede Fahrt. In Firmen wird aufgezeich-net, wo sich ein Angestellter wann aufhält, wie oft er die Toilette besucht, wie lange sei-ne Raucherpausen dauern und mit wem er sich regelmäßig in der Teeküche trifft. Zu-sammen mit Videoüberwachungssystemen könnte eine lückenlose Überwachung von Bürgern realisieren werden.

Page 101: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 101

5.2.3.3 Angriffe auf RFID Nicht nur der Kunde kann in seiner Privatsphäre durch RFID verletzt werden, auch Fir-men drohen Gefahren, wenn man sich zu sehr auf die Technik verlässt. So ist es bei-spielsweise möglich, den Transponder am Senden zu hindern, indem man ihn mit einem Faradayschen Käfig umgibt. Dazu reicht schon das Umwickeln mit Alufolie [Wikipedia RFID, 2004]. Des Weiteren ist es möglich, mit so genannten Blockertags [FoeBuD Blo-ckertags, 2004] durch Störsignale die Kommunikation zwischen dem Tag und dem Lese-gerät zu verhindern. Bei vollständig elektronischen Kassen kann dies für den Einzelhan-del ernsthafte finanzielle Risiken mit sich bringen.

Bei unsicher implementierten RFID-Zutrittsystemen besteht die Gefahr, dass das Signal eines berechtigten Benutzers aufgefangen und gespeichert wird, um es zu einem späteren Zeitpunkt erneut zu senden und sich somit unbefugten Zutritt zu verschaffen (sog. Replay-Attacken).

5.2.3.4 Lösungen Es ist nicht die Technik, die in Wahrheit die Probleme bereitet, es ist der falsche Umgang mit ihr. Wie wir dargestellt haben, ist der Datenschutz durch den Missbrauch von RFID-Systemen ernsthaft gefährdet, hier liegt es an Wirtschaft und Politik, zweifelhaften Prak-tiken zu vermeiden, um das Vertrauen der Konsumenten nicht zu verspielen. Den Verbrauchern muss immer die Möglichkeit gegeben werden, die Tags nach dem Kauf deaktivieren zu lassen. Vor allem hat ein jeder das Recht, darüber informiert zu werden, in welchen Produkten RFID-Technik eingebaut ist und wo diese Informationen ausgele-sen werden können. Des Weiteren muss offen gelegt werden, wie Daten aus verschiede-nen Quellen miteinander verknüpft und zu welchen Zwecken sie verwendet werden.

5.3 Smart Dust Das Smart Dust Projekt wurde an der Universität von Kalifornien in Berkeley von Pro-fessor Kris Pister und seiner Arbeitsgruppe erforscht. Ein Ziel dieses Projekts war die Entwicklung eines Netzwerks, bestehend aus kleinen, einfachen und energiesparenden Geräten, die Motes genannt wurden. Motes benutzen Sensoren, um Informationen über ihr Umfeld zu sammeln und übertragen die gesammelten Daten drahtlos zu einer Zentra-le, die sie weiter analysiert und verarbeitet. Jeder Mote soll möglichst klein sein, idealer-weise die Größe eines Staubpartikels besitzen. Davon stammt der Name „Smart Dust“ (engl. „schlauer Staub“). Die Geräte enthalten Sensoren, einen Mikroprozessor, bidirek-tionale drahtlose Kommunikationseinrichtungen und eine Energieversorgung. Als Ener-giequellen können Batterien, Solarzellen oder Bewegungsenergie benutzt werden. Des Weiteren war es ein Ziel der Entwickler die Geräte möglichst kostengünstig zu produzie-ren, damit sie massenweise verwendet und große Netzwerke von tausenden von Motes gebildet werden können.

Die Defense Advanced Research Projects Agency (DARPA) war eine der initialen För-derer des Smart Dust Projekts, da ursprünglich hauptsächlich ein militärischer Einsatz von Motes geplant war. Verstreut auf einem Schlachtfeld können die Motes die Feind-bewegungen überwachen und wegen ihrer winzigen Größe vom Gegner nur schwer ent-deckt werden.

Die Smart Dust Technologie eröffnet dem Sentient Computing ein großes Potential, da sehr einfach und kostengünstig eine Vielzahl von Sensorinformationen aufgezeichnet und verarbeitet werden können, die ein sehr exaktes Abbild der Umgebung ermöglichen.

Page 102: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

102 Sentient Computing

5.3.1 Smart Dust Technologie Um die Zielgröße von nur wenigen mm3 zu erreichen, wurden verschiedene Technolo-gien zur Miniaturisierung, Integration und sparsamer Energietechnik eingesetzt. Um die kleinen Sensoren sowie die Komponenten für optische Kommunikation und Energiever-sorgung aufzubauen, werden mikroelektromechanische Systeme (MEMS) verwendet. Die Forschungsfortschritte im Bereich der Mikroelektronik wurden dazu genutzt, die notwendige Rechenleistung unter der Bedingung eines geringen Energieverbrauchs zu gewährleisten. Abbildung 58 stellt das konzeptuelle Design eines Smart Dust Motes dar.

5.3.2 Bausteine eines Motes Ein Mote besteht im Wesentlichen aus einem oder mehreren Sensoren, einer Energiever-sorgung und einer Kommunikationseinrichtung.

5.3.2.1 Sensoren Abhängig vom Anwendungsbereich können verschiedene Sensoren für Licht, Tempera-tur, Vibration, magnetische Felder, Akustik oder Luftdruck in den Mote integriert wer-den.

5.3.2.2 Energieversorgung Wegen der winzigen Größe der Motes, ist der Platz für Energiequellen auf dem Gerät begrenzt. Mögliche Energiequellen sind Batterien oder Solarzellen. Damit das Smart Dust-Prinzip richtig funktionieren kann, muss der Energieverbrauch eines Mote auf ein Niveau von wenigen Mikrowatt begrenzt werden. Um dieses Ziel zu erreichen, werden die verschiedenen Komponenten eines Mote nur eingeschaltet, wenn es unbedingt not-wendig ist [Kahn, 2000].

5.3.2.3 Kommunikation Die Kommunikation ist ein sehr wichtiger Aspekt des Smart Dust Prinzips, da die ge-messenen Sensordaten an eine zentrale Instanz übertragen werden müssen. Die drahtlose Kommunikation ermöglicht die Sammlung von Daten von tausenden von Sensoren auf einer Vielzahl von Motes. Bei der Auswahl der Kommunikationsart für Smart Dust soll als erstes der Energieverbrauch berücksichtigt werden, da die Größe der Energiequelle stark begrenzt ist. Es gibt zwei Hauptmöglichkeiten für die Kommunikation mit Mote-Systemen, den Rundfunk und die optische Kommunikation. Beide Technologien haben Vor- und Nachteile.

Abbildung 58: Konzeptuelles Design eines Smart Dust Mote [Kahn, 2000]

Page 103: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 103

Der größte Nachteil von Rundfunk ist der auf dem Mote beschränkte Platz für die Anten-nen, daher wird eine extrem kurze Wellenlänge (d.h. Hochfrequenz) für die Übertragung verwendet. Radioempfänger sind außerdem relativ komplexe Schaltungen, bei denen Komponenten zur Modulation, Bandpassfilterung und Demodulation benötigt werden. Der große Vorteil beim Einsatz von Rundfunktechnik ist die Tatsache, dass Motes und Empfänger auch ohne Sichtkontakt miteinander kommunizieren können.

Die optische Kommunikation hat zwei Hauptnachteile. Zum einen wird eine Sichtver-bindung zwischen den Kommunikationspartnern vorausgesetzt, zum anderen wird eine sehr präzise Ausrichtung zwischen dem Empfänger und dem Sender benötigt. Demge-genüber verbraucht die optische Verbindung bedeutend weniger Energie pro übertrage-nem Bit als die Rundfunkverbindung [Kahn, 2000]. Wegen des niedrigen Energie-verbrauchs wurde diese Kommunikationsart von den Erfindern der Smart Dust-Technologie detaillierter untersucht als die Kommunikation über Radiowellen.

Es können zwei verschiedene Arten von optischer Kommunikation für Smart Dust Motes verwendet werden: passive reflektierende Systeme und aktivgerichtete Laser Systeme.

Passive reflektierende Systeme Bei passiver Kommunikation kann ein Mote modulierte optische Signale übertragen, wobei keine eigene Lichtquelle benötigt wird. Mit einem speziellen System von Spiegeln kann das Mote entweder das Licht einer entfernt liegenden Quelle reflektieren oder nicht reflektieren. In der Smart Dust Architektur ist der Basestation Transceiver (BTS) sowohl Lichtquelle als auch Empfänger, der die Signale einer großen Anzahl von Motes emp-fängt. Diese Motes sind an verschiedenen Orten innerhalb des BTS-Sichtfeldes verteilt. Der BTS ist mit einem kompakten Bildempfänger ausgestattet, wobei die Aufnahmen von verschiedenen Motes auf verschiedene Pixel im empfangenen Bild abgebildet wer-den. Dies ermöglicht dem BTS den gleichzeitigen Empfang und die Dekodierung der Signale vieler Motes und stellt eine Form des Space Division Multiple Access (SDMA) dar [Kahn, 2000].

Eine Komponente auf dem Mote, die ermöglicht, den Lichtstrahl des BTS zu reflektieren, heißt Corner-Cube-Retroreflector (CCR). Abbildung 59 stellt einen CCR dar. Diese Einheit besteht aus 3 gegenseitig orthogonalen Spiegeln. Der einfallende Strahl wird vom CCR zurück zur Quelle reflektiert, vorausgesetzt, der einfallende Strahl liegt in einem bestimmten Winkelbereich. In der CCR-Konstruktion wird einer der drei Spiegel auf einer Feder montiert, wobei der Spiegel von der senkrechte Position zu den anderen zwei Spiegeln ablenkt. In dieser Position wird der einfallende

Strahl nicht direkt zur Quelle reflektiert, dies repräsentiert eine digitale 0. Wird der auf der Feder sitzende Spiegel durch die Elektrode unter dem Spiegel unter Druck gesetzt, wird der Spiegel senkrecht zu den anderen zwei Spiegeln positioniert. Der einfallende Strahl kann jetzt wieder zu seiner Quelle reflektiert werden, was eine digitale 1 erzeugt. Die Masse der bewegten Spiegel ist sehr klein, deswegen kann ein CCR bis zu eintau-sendmal pro Sekunde zwischen diesen zwei Zuständen wechseln. Weniger als 1 Nano-joule wird verbraucht um den Wechsel von 0 auf 1 zu ermöglichen, der Wechsel von einer 1 zu einer 0 ist praktisch ohne Energieeinsatz möglich [Warneke, 2001]. Es wurde nachgewiesen, dass ein CCR, der von einer externen Lichtquelle angestrahlt wurde, ein moduliertes Signal mit einer Datenrate von mehreren Kilobits pro Sekunde zurück zur

Abbildung 59: Corner Cube Retro-reflector (CCR) [Kahn, 2000]

Page 104: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

104 Sentient Computing

Quelle übertragen kann [Kahn, 2000]. Der große Vorteil der passiven optischen Kom-munikation ist ihr geringer Energieverbrauch, da das Mote kein Licht ausstrahlt, sondern nur das Signal des BTS moduliert.

Eine wichtige Voraussetzung für die Funktionalität von CCR-basierter Kommunikation ist die richtige Ausrichtung des CCR. Die Übertragung zwischen dem CCR und dem BTS kann nur dann erfolgen, wenn die Diagonale vom CCR Körper genau auf den BTS gerichtet ist. Dabei ist eine Genauigkeit von bis zum einigen Zehntel Grad notwendig. Damit die Kommunikation von einem Mote in verschiedene Richtungen funktionieren kann, können mehrere CCRs, die unterschiedlich ausgerichtet sind, auf einen Mote un-tergebracht werden. Dies steigert natürlich auch die Größe und Komplexität eines Motes.

Bei passiver Kommunikation wird fast alle Energie, die benötigt wird, vom BTS gelie-fert. Der BTS strahlt die Motes dabei mit einem Laserstrahl an, wobei dieser Strahl ent-weder ein moduliertes oder ein nicht moduliertes Signal enthalten kann. Bei einem mo-dulierten Signal handelt es sich um die Downlinkdaten, wie zum Beispiel der Befehl auf-zuwachen oder um Programmcode. Falls der Strahl nicht moduliert ist, können die Motes den CCR benutzen, um das Signal selber zu modulieren und die Uplinkdaten zur Basis-station zu übertragen. Abbildung 60 stellt das Design eines optischen Netzwerks dar, bei dem ein Laserstrahl von der Basisstation die optische Energie für Downlink und Uplink liefert und damit die Kommunikation zwischen dem Mote und dem BTS ermöglicht. Ei-ne Hochbildfrequenz-CCD Videokamera empfängt die Signale von verschiedenen Motes in Form von blinkenden Bildern. Die Dekodierung dieser Signale liefert die Uplinkdaten der auf den Motes angebrachten Sensoren [Kahn, 2000].

Trotz des großen Vorteils durch den geringen Energieverbrauch, hat diese Technologie auch ihre Nachteile. Einer davon ist die Abhängigkeit der Motes von der Basisstation. Smart Dust Motes können nicht miteinander, sondern nur mit dem BTS kommunizieren, deswegen kann die Größe von dem ganzen System nicht über 1 km hinausgehen. Falls ein Mote keine Sichtverbindung zur Basisstation hat, gibt es keine Möglichkeit, über andere Motes das Signal zu routen. Die Anwendung von aktiver optischer Kommunikati-on kann die oben genannten Begrenzungen umgehen.

Abbildung 60: Design von einem optischen Netzwerk für Smart Dust [Kahn, 2000]

Page 105: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 105

Aktivgerichtete Laser Systeme Bei aktiver optischer Kommunikation hat jeder Mote seine eigene Lichtquelle, um den Strahl, der präzise auf seinen Empfänger gerichtet ist, senden zu können. Der Sender auf einem Mote ist aus einem Lasergerät, einer Linse und einem beweglichen Spiegel zu-sammengesetzt. Das Lasergerät sendet den infraroten Strahl aus, der von der Linse kol-limiert und auf den Spiegel gerichtet wird. Der bewegliche Spiegel lenkt den Strahl di-rekt und präzise auf den Empfänger aus. MEMS Technologie wird verwendet, um diese optischen Komponenten zu bauen, die ein Volumen von nur 8 mm3 aufweisen können [Warneke, 2001].

Eines der wichtigsten Einsatzgebiete ist der Aufbau von Ad hoc Multihop Netzwerken zwischen den Motes. Da aktive optische Kommunikation energieaufwendiger ist als pas-sive, muss bei der Auswahl des Routingpfads der Energieverbrauch der Sender und Emp-fänger berücksichtigt werden.

5.3.3 Funktionsweise eines Mote Die Smart Dust Motes werden von einem Mikroprozessor gesteuert, der die Bearbeitung der Signale, die von den Sensoren empfangen wurden, die Datenspeicherung, die Be-rechnung von Routingpfaden und das Energiemanagement durchführt. Wegen der knap-pen Energieresourcen sollen Motes effizient funktionieren und möglichst viel Energie sparen. Im Vergleich zur traditionellen Rechnerarchitektur, die auf der Minimierung der Rechenzeit ausgerichtet ist, wird beim Smart Dust Mote der Fokus auf die Reduzierung des Energieverbrauch für eine bestimmte Aufgabe gesetzt.

Zu diesem Zweck befindet sich das Mote die meiste Zeit in einem ausgeschalteten Zu-stand und aktiviert sich nur periodisch. Dazu ist im Mote ein Zeitgeber integriert, der den Mote in definierten Abständen für die Erfüllung einer Aufgabe einschaltet und nach Be-endigung dieser wieder in den Ruhezustand versetzt.

Es gibt einige Timer, die die Funktionalität von Sensoren kontrollieren. Nach der vorpro-grammierten Zeit, wird der entsprechende Sensor eingeschaltet, um die Messung durch-zuführen, und danach wieder ausgeschaltet. Die gemessenen Parameter werden in digita-le Daten konvertiert und entweder gleich im SRAM gespeichert oder vom Mikroprozes-sor weiter verarbeitet, falls es notwendig ist. Die Datenübertragung und Messung mit Sensoren ist energieaufwendiger als die Datenverarbeitung, daher ist es sinnvoll, Opera-tionen, wie Filtern, Spektralanalyse, Klassifizierung und Verschlüsselung vom Mikro-prozessor ausführen zu lassen [Warneke, 2001]. Datenverschlüsselung und Komprimie-rung trägt dazu bei, dass der Speicherplatz effizienter genutzt wird. Die Filterung und Klassifizierung von Information reduziert die Datenmenge, die übertragen werden muss. Falls die Datenverarbeitung vom Prozessor benötigt wird, wird der Prozessor hochgefah-ren, um entsprechende Aufgaben auszuführen und nach dem Operationsende wieder he-runtergefahren.

Das Mote hat auch einen Timer, der den Empfänger steuert. Wenn die Zeit auf dem Ti-mer abläuft, schaltet sich der Empfänger ein und überprüft, ob ein Paket zu ihm von an-deren Motes oder von der Basisstation übertragen wird. Falls er in einer bestimmten Zeitperiode keine Pakete empfängt, schaltet er sich aus und der Timer wird erneut gestar-tet. Falls ein Mote eine neue Nachricht erhält, wird der Prozessor hochgefahren, um die Nachricht zu dekodieren [Warneke, 2001].

Ein Mote kann als Paket ein neues Programm erhalten, das dann im Programmspeicher hinterlegt wird. Fernprogrammierung und Fernsteuerung von Smart Dust Motes ist we-gen ihrer großen Menge, die in einem Gebiet verstreut werden können, sehr wichtig. Das Signal mit dem neuen Programm wird von der Basisstation ausgesendet und program-

Page 106: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

106 Sentient Computing

miert viele Motes gleichzeitig um, ohne zuerst alle Motes wieder sammeln und einzeln neu programmieren zu müssen.

Falls es sich um aktive Kommunikation handelt, können Motes auch die Nachrichten empfangen, die für die andere Motes bestimmt sind und diese Pakete weiterleiten, bis sie ihre Ziele erreichen.

5.3.4 Anwendungsbereiche von Smart Dust Ursprünglich waren hauptsächlich militärische Einsatzbereiche, vor allem Umfeldüber-wachung, für Smart Dust vorgesehen, es gibt jedoch auch Anwendungsmöglichkeiten in zivilen Bereichen. In vielen dieser Bereiche wird Sensortechnologie schon angewandt, aber theoretisch ist Smart Dust weit weniger „aufdringlich“ und billiger, als festverdrah-tete Geräte, weil die Verkabelungskosten gespart werden können [Metz, 2004].

Eines dieser Einsatzbereiche ist die Gebäudeautomatisierung. Dieser Bereich umfasst die Erfassung des Energieverbrauchs, der Klimatisierung, Kontrollsysteme für Heizung und Ventilation, Brandschutz usw. In einem Supermarkt kann Smart Dust zum Beispiel Tem-peratursensoren benutzen, um Kühlregale besser zu überwachen und die Energiekosten zu reduzieren [Eng, 2004].

Ein anderes Anwendungsbeispiel ist die Überwachung von Maschinen. In einem Mote können Sensoren eingebaut werden, die Zustand der Maschinen, wie Temperatur, Dreh-zahl, Ölstand usw. überwachen und die gesammelten Informationen übertragen. Dadurch wird kein Wartungspersonal mehr benötigt, das diese Werte selber messen müsste.

Ein Landwirt oder Ökologe kann Smart Dust Motes, die mit Temperatur- oder Feuchtig-keitsensoren ausgestattet sind, auf Feldern, auf Weinbergen oder im Wald verstreuen, um damit das Mikroklima zu beobachten.

Neben den genannten Vorteilen hat diese Technologie jedoch auch mögliche Nachteile. Da Smart Dust Motes schwer zu entdecken sind, können sie auch dazu genutzt werden, die Privatsphäre von Menschen zu verletzen.

5.3.5 Anwendung von Smart Dust in der Praxis Es gibt noch kein Produkt auf dem Markt, das allen Anforderungen des Smart Dust Kon-zepts erfüllt, aber einige Firmen beschäftigen sich mit der Weiterentwicklung dieser Technologie. Es werden schon Motes produziert, die mit Sensoren die Informationen aus dem Umfeld sammeln und weiter übertragen können. Diese Motes haben leider noch kein Volumen, das den 1-3 mm3 entspricht, wie es ursprünglich geplant war. Eines der größten Hindernisse ist der Mangel an Energieversorgungsgeräten, die klein genug sind, um dieses Ziel zu erreichen. Im Moment ist die Solartechnologie für einen massenweisen Einsatz in Motes zu teuer. Daher ist die Minituarisierung der Motes durch die Größe der verwendeten Batterien begrenzt.

Der Erfinder des Smart Dust Konzept, Kris Pister, hat die Firma Dust Networks gegrün-det, die sich mit dem Umsetzung seines Konzepts in die Praxis beschäftigt. Im Septem-ber 2004 hat diese Firma die Verfügbarkeit der SmartMesh Plattform angekündigt. SmartMesh ist eine drahtlose mesh-Netzwerk Plattform, die in Bereichen von Gebäude-automatisierung, gewerblichen Monitoring und Sicherheitsdiensten angewendet werden kann.

Auf der Abbildung 61 ist die Architektur der SmartMesh Plattform dargestellt. Diese Ar-chitektur besteht aus drei wichtigen Komponenten: dem SmartMesh Manager, Motes und der SmartMesh Software. Der SmartMesh Manager koordiniert das Datenrouting, sam-melt die Pakete und Sensorangaben von Motes und veröffentlicht die Daten für Entschei-

Page 107: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 107

dungssysteme im XML Format. Motes sind drahtlose Kommunikationsknoten, die gleichzeitig als Router dienen. Jeder Mote ist ein Siliziumchip, der das Schaltschema für einen kleinen Funksender, Empfänger und auch die entsprechende Software enthält und ungefähr die Größe einer 50ct-Münze hat. Falls die Antenne, die Batterien und andere notwendige Komponenten eingeschlossen sind, wird das Mote ungefähr die Größe eines Kartenspiel-Stapels haben. Da das Senden von Radiowellen im Mote durch den Mikro-prozessor optimiert wird, kann das Mote bis zu 3 Jahren funktionsfähig sein, wenn er mit 2 AA Batterien betrieben wird [Eng, 2004]. Die dritte Komponente - die SmartMesh Software - ist für die Funktionen wie Routing- und Topologieoptimierung, zeitliche Re-gulierung und Netzverwaltung zuständig [Dust Networks, 2004].

Im Moment können bis zu 50 Motes in SmartMesh Netzwerk effizient eingesetzt werden. Laut der Aussage von Prof. Pister arbeitet die Firma an der Optimierung der Software, so dass zukünftig tausende von Motes drahtlos und zuverlässig in einem Netzwerk kommu-nizieren können [Eng, 2004].

Crossbow Technologies ist ein weiteres Unternehmen, das Smart Dust Motes für gewerb-liche und landwirtschaftliche Einsatzbereiche produziert. Die Motes von Crossbow Technologies werden vom Betriebssystem TinyOS gesteuert. TinyOS basiert auf Linux für eingebettete Systeme. Es ist ein open-source Betriebssystem, das für drahtlose em-bedded Sensor Netzwerke vorgesehen ist. TinyOS enthält Netzwerkprotokolle, Sensor-treiber, eine Datenbank, ein Zeitplanungsprogramm, Power Management und auch Ver-schlüsselungstechnologien [TinyOS, 2004]. Der von Crossbow produzierte Mote hat un-gefähr die Größe einer 50ct-Münze [Metz, 2004].

5.4 Fazit und Ausblick Sollte Mark Weisers Vision des Ubiquitous Computing Realität werden, wird sich ein radikaler Wandel im Umgang mit Computern vollziehen. Wir gehen weg von der ge-wohnten Arbeitsweise mit Einzelplatzrechnern, hin zu einer umfassenden Umgebung von intelligenten Geräten, die uns bei den alltäglichen Aufgaben unterstützen, immer und überall verfügbar sind und sich an den jeweiligen Benutzer und seine Bedürfnisse anpas-sen.

Wir haben ein System vorgestellt, das eine Schlüsselrolle bei der Verwirklichlichung der allgegenwärtigen Computer spielen wird: Radio Frequence Identification. Auch heute schon kann man mit RFID-Systemen viele Abläufe im Haushalt, im Handel und in der

Abbildung 61: Architektur von SmartMesh Plattform [Dust Networks, 2004]

Page 108: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

108 Sentient Computing

Logistik effizienter gestalten. Die Zukunft steht uns jedoch erst bevor, mit einer komplett vernetzten Umwelt, die uns Dienste anbieten wird, welche unseren Alltag deutlich än-dern könnten.

Smart Dust ist eine relativ neue Technologie und wird im Moment noch erforscht und entwickelt. Die Hauptidee von Smart Dust ist, ein drahtloses Netzwerk zu bauen, dessen Knoten kleine Geräte sind, die mit Sensoren und Kommunikationskomponenten ausges-tattet sind, um von Sensoren gemessene Parameter zu übertragen. Ursprünglich wurde passive oder aktive optische Kommunikation für Smart Dust geplant, da die Kommuni-kationskomponenten dafür sehr klein sein können. Im Moment haben sich Funktechno-logien als praktischere Kommunikationsmöglichkeit erwiesen und in den Motes, die der-zeit produziert werden, sind Funksender und -empfänger eingebaut. Die Smart Dust Mo-tes, welche jetzt auf dem Markt angeboten werden, haben nicht das Volumen von einigen Kubikmillimetern, wie ursprünglich geplant. Ursache dafür ist die Größe der Batterien, welche meist als Energiequelle für die Motes verwendet werden. Smart Dust ist eine wei-tere Kerntechnik des Sentient Computing und bietet die Möglichkeit, Sensornetzwerke an Orten und in Größenordnungen aufzubauen, die mit herkömmlichen kabelgebundenen Sensoren nicht oder nur schwer realisierbar wären.

Wer die Fachmedien in den letzten Monaten verfolgt hat, wird kaum um die Meldungen zu RFID herumgekommen sein. Keine Branche im IT-Bereich wächst derzeit so schnell, wie die Anbieter von RFID-Soft- und Hardware. Obwohl die Technik bereits seit Jahr-zehnten eingesetzt wird, gelingt ihr erst heute der große Durchbruch. Begründen kann man dies durch die mittlerweile sehr günstigen Herstellungspreise und die drastische Re-duzierung der Größe, die auch einen Einsatz als Smart Label erlauben.

Ebenso häufig, wie vom Erfolg von RFID gesprochen wird, kommen jedoch auch kriti-sche Stimmen von Datenschützen, die in der Technik eine Bedrohung der Privatsphäre sehen. Einige Firmen, wie z.B. der Metro-Konzern mit seinem „Future-Store“, sind auf-grund von Verbraucherprotesten [FoeBuD Metro, 2004] auch wieder von ihren sehr weitgehenden Plänen zum Einsatz von RFID im Einzelhandel abgerückt [Heise Metro, 2004].

Das Pervasive Computing stellt im wahrsten Sinne des Wortes noch eine viel weiterge-hende Durchdringung unseres Alltags dar. Der Industrie, dem Handel und auch dem Staat muss bewusst sein, dass mit den jetzt oder in Zukunft zur Verfügung stehenden Techniken sorgsam und verantwortungsbewusst umgegangen werden muss, ansonsten werden sich die Visionen Mark Weisers nicht realisieren lassen.

Page 109: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 109

6 ONTOLOGIEN UND SEMANTISCHE NETZE

Da mit der Verbreitung des Internets Daten und Informationen, die verteilt auf vielen Millionen Rechnern in verschiedenen Formen gespeichert sind, enorm wachsen, entste-hen Schwierigkeiten, diese Informationen vernünftig zu verwalten und zu benutzen. Ü-berhaupt sind Menschen nicht in der Lage, diese gewaltigen Mengen von Daten ohne Unterstützung von Computern effizient zu verarbeiten.

Hier helfen Ontologien, die das Wissen explizit beschreiben, so eine effektive Verwal-tung, Benutzung und Suche von Informationen zu ermöglichen. Da der Begriff „Ontolo-gie“ leider für viele konzeptuelle Modelle herhalten muss, gibt es keine universelle Werkzeuge und Methoden, Ontologien zu erstellen und zu pflegen. Für maschinelle Ver-arbeitung von Informationen und Wissensaustausch zwischen Maschinen braucht man hauptsächlich Ontologien, die in einer formalen Sprache beschrieben werden. Zu diesem Zweck werden viele formale Beschreibungssprachen für Ontologien entwickelt. Das „Semantic Web“ ist ein Projekt, das durch eine dieser Sprachen beschriebenen Ontolo-gien benutzt, um im Internet semantische Suche und Agententechnologien zu ermögli-chen.

Eine Unterart von Ontologien sind semantische Netze, die eigentlich aus der Sprachwis-senschaft kommen. Semantische Netze besitzen Graphstrukturen und dienen hauptsäch-lich dazu, Wissen zu visualisieren und Beziehungen zwischen Konzepten anschaulich darzustellen. Mit der graphischen Darstellung kann man leichter implizite Beziehungen erkennen.

Das Wort Ontologie stammt aus dem griechischen Wort „ontos“ ab, das „sein“ bedeutet. In der Philosophie ist die Ontologie die Lehre vom Seien und Seienden.

In der Informatik werden unter einer Ontologie eine Kategorisierung von Termen in ei-nem Wissensbereich (Domäne) und ihren Beziehungen miteinander verstanden. Eine Ontologie modelliert somit das Wissen einer Domäne. Dabei werden Begriffe aus dem Wissensbereich eindeutig definiert, formalisiert, kategorisiert und mit einander in Bezie-hung gesetzt. Einfache Beispiele für Ontologien sind Web-Verzeichnisse (Yahoo!, Google-Verzeichnis etc.), die thematisch gegliederte Sammlungen von Web-Seiten sind.

Es gibt viele Definitionen für den Begriff „Ontologie“ in der Informatik, die zum Teil gegenseitig widerspricht. Eine der Definitionen ist [Gruber 1993]:

An Ontology is a formal, explicit specification of a shared conceptualization.

In diesem Kapitel werden unter Ontologien formale explizite Beschreibungen von Beg-riffen (Klassen, Kategorien etc. genannt) einer Domäne, deren Eigenschaften (Attributen einer Kategorie) und Beziehungen (Vererbungsrelation, Funktionen, logische Regeln etc.) verstanden. Ontologien und Instanzen der Kategorien bilden zusammen eine Wis-sensbasis.

Die wichtigsten Bestandteile einer Ontologie sind Kategorien. Kategorien definieren Konzepte eindeutig und sind in einer hierarchischen Struktur von Kategorien und Unter-kategorien organisiert. Die Kategorien entsprechen Klassen der Objekt-Orientierten Pro-grammierung, die keine Methoden enthalten.

Warum benutzt man Ontologien und welche Vorteile bringen die Benutzung der Ontolo-gien? Es gibt viele Gründe dafür:

Page 110: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

110 Ontologien und Semantische Netze

• Wissensaustausch: Um Wissen auszutauschen, müssen Menschen/Software-Agenten mit einander kommunizieren. Dabei können viele Probleme auftreten. Zum Beispiel kann ein Wort/Symbol einem Kommunikationsteilnehmer bekannt und einem ande-ren nicht bekannt sein oder den beiden Teilnehmer bekannt aber jeder kann darunter Verschiedenes verstehen. Hier kommen Ontologien zum Einsatz. Sie definieren Beg-riffe formal und eindeutig, um Kommunikation zwischen Agenten zu ermöglichen und Missverständnisse zu vermeiden.

Was ist ein "Jaguar"?

Abbildung 62: Ein Jaguar

• Wissensverwaltung: Da die Ontologien das Wissen klar strukturiert und klas-sifiziert verwalten, ist effektivere Suche und Verwendung von Informationen mög-lich. Die Ontologien können die Suchergebnisse einschränken oder expandieren. Zum Beispiel kann ein Wissensverwaltungssystem bei der Suche nach einem Begriff ähn-liche und verwandte Begriffe vorschlagen (Expandierung der Suchergebnisse). Das sind meist Begriffe, die mit dem ursprünglichen Begriff über Relationen verbunden sind. Oder das System kann durch Weiter-Spezifieren des Begriffes die Suchergeb-nisse semantisch einschränken, ohne weitere Schlüsselwörter einzufügen. So ein se-mantisches Suchsystem wird einem normalen lexikalischen Suchsystem haushoch überlegen sein. Das ist ein Ziel von so genannten „Semantic Web“.

• Wissensvisualisierung: Da einfache Beziehungen zwischen Begriffen in einer Onto-logie eine graphische Struktur besitzen, können explizite Zusammenhänge graphisch visualisiert und verdeckte Zusammenhänge aufgedeckt werden. Auch eine grafische Navigation durch hierarchische Struktur von Kategorien ist möglich.

• Wissensextraktion: Als Wissensextraktion wird ein Verfahren bezeichnet, das In-formationen automatisch aus einer Quelle, meistens einem Textdokument, gewinnt. Mit Ontologiebasierter Wissensextraktion können zum Beispiel Agenten ihre Anwei-sungen automatisch aus der informalen Texteingabe von Nutzern extrahieren und entsprechend handeln. Wenn Web-Seiten ihre Informationen mit Hilfe von Ontolo-gien (alle benutzten Wörter in einer Ontologie definieren) veröffentlichen würden, dann würden Agenten diese Informationen selbstständig verarbeiten und benutzen können. Das ist übrigens ein anderes Ziel von so „Semantic Web“.

• System-Engineering: Ontologien sind sehr einfach erweiterbar und wieder verwend-bar. Bereits entwickelte Ontologien wie Zeit etc. können importiert und benutzt wer-den. In der Entwicklung einer Ontologie sollte man darauf achten, dass sie nicht zu spezifiziert ist, da man sie schlechter wieder verwenden und auch schlechter erwei-tern kann. Jede Ontologie sollte auch nicht zu allgemein sein, da sie schlecht benutz-bar ist. Es ist schwierig, eine vernünftige Mitte zu finden. Es existieren bereits viele

Page 111: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 111

kommerzielle und frei verfügbare Ontologiepakete, die wieder verwendet werden können.

• Inferenz: In einer Ontologie können logische Regeln über Relationen zwischen Beg-riffen definiert sein. Deshalb ist möglich durch logischer Schlussfolgerungen (Infe-renzen) implizite Relationen aufzudecken. So können neues Wissen gewonnen wer-den. Die Abbildung 63 zeigt die Schlussfolgerung, dass A Großvater von C ist, wenn A Vater von B und B Vater von C ist.

A

B

C

Vater_von

Vater_von

Grossvater_von

Abbildung 63: Inferenz

6.1 Ontologietypen Da viele Definitionen für Ontologien existieren, gibt es auch entsprechend viele Mög-lichkeiten, Ontologien in Typen einzuteilen. Hier werden einige davon vorgestellt.

Guarino [Guarino 1998] hat Ontologien in vier Typen nach der Abhängigkeit der Prob-lemstellung eingeteilt:

top−level ontology

domain ontology task ontology

application ontology

Abbildung 64: Ontologietypen nach Guarino [Guarino 1998]

• Top-Level Ontology: Die „Top-Level Ontology“ beschreibt sehr allgemeine Kon-zepte unabhängig von einer Domäne oder Problemstellung wie Raum, Zeit, Objekt, Aktion etc. Zum Beispiel: Die Vokabel „Raum“ als das, was andere Dinge beinhalten kann.

• Domain Ontology: Die „Domain Ontology“ beschreibt Vokabeln, die die Begriffe aus der „Top-Level Ontology“ spezialisieren, für eine Domäne oder Subdomäne. Zum Beispiel: Das Wort „Arbeitsspeicher“ bezogen auf die Domäne „Computer“. Beispielontologien sind „E-commerce Ontologies“, „Engineering Ontologies“, „Me-dical Ontologies“ etc.

Page 112: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

112 Ontologien und Semantische Netze

• Task Ontology: Die „Task Ontology“ beschreibt allgemeine Aktivitäten wie zum Beispiel Planung und Verkauf.

• Application Ontology: Die „Application Ontology“ hängt von der Problemstellung ab und beinhaltet alle nötigen Definitionen für dieses Problem. Meistens spezifizieren sie die Vokabeln von „Domain Ontologies“ und „Task Ontologies“.

Man kann auch Ontologien in drei Gruppen einteilen, wie sie Informationen und Wissen verwalten:

• Dokumentation (Wissensverwaltung): Einmal gespeicherte Informationen können mit Hilfe der Dokumentation gezielt wieder gefunden werden. Dabei benutzte Techniken sind beispielsweise Indizierung, Klassifizierung und Metadaten. Suchmaschinen sind eher eine Art der Dokumentationssysteme als eine Datenbank.

Abbildung 65: Pragmatische Ontologietypen [Voß 2003]

• Datenbank (Wissensbasis): Der Unterschied zwischen Dokumentation und Da-tenbank besteht darin, dass eine Dokumentation auf schon gespeicherte Informatio-nen verweisen, während Informationen direkt in einer Datenbank gespeichert werden. Konkrete Beispiele für diese Art der Ontologien sind Fakten (Instanz einer Kategorie) und Expertensysteme.

• Nachschlagewerk: Die letzte Gruppe sind Nachschlagewerke, in denen Wissen nach bestimmten systematischen Kriterien aufgestellt sind. Beispiele sind Wörterbücher, Thesauri usw.

Eine andere Möglichkeit ist die Teilung von Ontologien nach dem Formalisierungsgrad.

Page 113: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 113

‘ordinary‘Glossaries

(Yahoo!)

ad hocHierarchies

DataDictionaries

(EDI)

structuredGlossaries

XMLSchema

formalTaxonomies

Data Models(UML, STEP)

Frames(OKBC)

DescriptionLogics

(DAML+OIL)

GeneralLogic

DBSchema

Glossaries &Data Dictionaries

MetaData,XML Schemes,& Data Models

Formal Ontologies& Inference

Principled

hierarchiesinformal

Terms XML DTDsThesauri

TaxonomiesThesauri,

Abbildung 66: Formalisierungsgrade von Ontologien [Sure 2004]

• Informal: Informale Ontologien sind in natürlicher Sprache beschrieben und dienen hauptsächlich dem Wissensaustausch zwischen Menschen.

• Semi-informal: Interaktionen zwischen Mensch und Computer erfordern semi-formale Ontologien, die in der restriktiven, klar strukturierten natürlichen Sprache geschrieben werden.

• Semi-formal: Kommunikationen zwischen Agenten benutzen diese durch künstliche, formale Sprache beschrieben Ontologien.

• Formal: Das sind Ontologien, die Sprachen mit formaler Semantik nutzen.

6.2 Entwicklung von Ontologien Es gibt leider keine universelle Methode, Ontologien zu entwickeln. Dafür ist der Begriff „Ontologie“ zu allgemein und umfasst zu viele verschiedene Modelle von einem einfa-chen Glossar bis zum formal beschriebenen Begriffssystem. In diesem Abschnitt werden wir eine mögliche Vorgehensweise [Noy 2001] für den in diesem Kapitel benutzten On-tologietyp besprechen. Diese Vorgehensweise besteht aus 7 Schritten und manche davon sind optional:

4) Die Domäne und den Umfang der Ontologie bestimmen: Um überhaupt Onto-logien entwickeln zu können, muss man sich dessen im Klaren sein, was die be-schreibende Domäne ist und welches Wissen die Ontologie modellieren soll. Der Umfang einer Ontologie hängt von vielen Kriterien ab. Insbesondere sollte man mög-lichst eine Ontologie mit zu vielen Kategorien oder viele kleine Ontologien mit sehr wenigen Kategorien vermeiden.

5) Bereits existierenden Ontologien wieder verwenden: Wenn bereits Ontologien für verwandte oder allgemeine Domänen existieren, dann sollte man diese Ontologien weiter entwickeln und wieder verwenden, um den Entwicklungsaufwand niedrig zu halten. Es gibt viele Ontologiebibliotheken wie zum Beispiel „Ontolingua ontology library“ (http://www.ksl.stanford.edu/software/ontolingua/) und „DARPA Agent Markup Language (DAML) ontology library“ (http://www.daml.org/ontologies/).

Page 114: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

114 Ontologien und Semantische Netze

6) Die wichtigen Begriffe der Ontologie aufzählen: Im diesen Schritt werden alle re-levante Begriffe mit ihren Eigenschaften und mit ihren Beziehungen aufgezählt, um in den nächsten Schritten als Kategorien, Attributen und Relationen definiert zu wer-den.

7) Kategorien und Kategorienhierarchien definieren: Aus den Begriffen des dritten Schritts werden Kategorien und Kategorienhierarchien definiert. Dabei können zuerst allgemeine Kategorien und dann spezielle Kategorien (Top-down Prozess) oder zu-erst Kindkategorien und dann Elternkategorien (Bottom-up Prozess) oder kombiniert definiert werden. Bei diesem Schritt muss man darauf achten, dass es keine zyklische Hierarchien entsteht. Neben einfachen Vererbungen dürfen auch mehrfache Verer-bungen zugelassen sein.

8) Attribute definieren: Die Eigenschaften einer Kategorie werden als Attribute de-finiert. Dabei werden Attributtypen (Neben einfachen Typen wie Integer und String sind auch komplexe Typen wie Kategorien möglich.) bestimmt und Attribute können mit Initial- und Defaultwert initialisiert werden.

9) Beziehungen definieren: Alle andere Beziehungen als Vererbungsrelation werden in diesem Schritt als Relationen, Funktionen und logische Regeln definiert. Meistens braucht man aber nur Vererbungsrelationen und deshalb ist dieser Schritt optional.

10) Instanzen erzeugen: Im letzten Schritt werden Kategorien der Ontologie mit konkre-ten Werten initialisiert und so Instanzen (auch Fakten genannt.) erzeugt. Instanzen bilden mit der Ontologie eine Wissensbasis.

6.3 Formale Sprachen für Ontologien Für Agententechnologien sind die Ontologien interessant, die durch eine formale Sprache beschrieben sind. Zurzeit existieren viele formale Sprachen für Ontologien. Einige davon sind DARPA Agent Markup Language + Ontology Interchange Language (DAML+OIL), Web Ontology Language (OWL), F-Logic, Knowledge Interchange For-mat (KIF/SKIF), Ontolingua etc.

Als Beispiel werden wir die im Distributed Artificial Intelligent (DAI) Labor der TU Berlin für das Java-based Intelligent Agent Componentware (JIAC) Projekt entwickelte Java-Agent Description Language (JADL) Sprache betrachten.

JADL Ontologie Die JADL Sprache wird für die Steuerung und Kommunikation von Agenten in JIAC be-nutzt. Eine von vielen Fähigkeiten der JADL Sprache ist die Möglichkeit, Ontologien zu beschreiben. Diese Ontologien werden als Sprachvokabular von Agenten während der Kommunikation verwendet.

In JADL beginnt eine Ontologie mit dem Schlüsselwort ont. Die Ontologien enthält Ka-tegorien, die mit dem Schlüsselwort cat beginnen. Die Kategorien enthalten wiederum Attribute, die die Schlüsselwörter init, default, needed, fixed, defined und private haben können.

Durch init und default werden den Attributen Initial- bzw. Default-Werte zugewiesen.

Das Schlüsselwort needed besagt, dass die Attribute unbedingt initialisiert werden müs-sen und fixed bedeutet, dass der Wert eines Attributes nach der Initialisierung nicht mehr verändert werden darf. Kombiniert mit init oder default kann fixed konstante Werte er-zeugen.

Page 115: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 115

Die private Attribute werden während der Kommunikation nicht propagiert. Das heißt, dass die Kommunikationsteilnehmer auf diese Attribute nicht zugreifen können.

Das Schlüsselwort defined wird benutzt, um Instanzen einer Kategorie zu unterscheiden. Der Wert des defined Attributes muss in Instanzen der Kategorie eindeutig sein.

Wie in der Objekt-Orientierter Programmierung kann auch eine Kategorie vererbt wer-den. Das geschieht durch das Schlüsselwort ext. (Anmerkung: Die private Attribute der JADL Sprache sind nicht identisch mit den private Attributen der Objekt-Orientierten Programmierung. So kann die Kindkategorie auf die private Attribute der Elternkatego-rie zugreifen.) Dabei kann eine Kategorie auch gleichzeitig mehrere Kategorien verer-ben.

Eine Ontologie enthält neben Kategorien auch Funktionen (fun) und Vergleiche (comp). Die Ontologiefunktionen sind im Sinne der Mathematik. Das bedeutet, dass eine Ontolo-giefunktion bei der gleichen Eingabe immer gleiche Ausgabe erzeugen muss. Vergleiche sind Funktionen, die boolesche Werte zurückliefern. Die Implementierungen der Funkti-onen werden in Java geschrieben und durch Schlüsselwörter #begincode und #endcode geklammert.

Durch Schlüsselwörter incl und #import werden andere Ontologien und Java-Klassen importiert und benutzt.

Die Abbildung 67 zeigt eine Ontologie ohne Funktionen und Vergleiche, die die Domäne „PC-Komponente“ beschreibt.

(package de.dailab.examples.pc.ontology (ont PCComponent:DAI_1 /* * A PC component. * It is identified by a name and a manufacturer. * The level gives the price/quality (high, medium, low). * It has a flag to handle ordering of the pc. */ (cat PCComponent (name string) (manufacterer string) (level string) (ordered bool (init false)) ) (cat PCComponentSocket (ext PCComponent) (socket string) ) (cat MainBoard (ext PCComponentSocket)) (cat CPU (ext PCComponentSocket) (mhz int) ) (cat RAM (ext PCComponent) (mb int) ) (cat Graphics (ext PCComponent) (mb int) ) ) )

Abbildung 67: Eine JADL Ontologie (PCDemo Projekt)

Instanzen können durch das Schlüsselwort „obj“ aus einer Kategorie, deren Ontologien durch „ont“ importiert werden müssen, erzeugt und in einer JADL Datei gespeichert werden.

Page 116: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

116 Ontologien und Semantische Netze

(package de.dailab.examples.pc.knowledge.testAssembly (ont de.dailab.examples.pc.ontology.PCComponent:DAI_1) (obj Intel_Pentium4_2000 CPU (name "Pentium 4") (manufacterer "Intel") (level "medium") (socket "478") (mhz 2000) (ordered true) ) (obj MSI_845 MainBoard (name "845") (manufacterer "MSI") (level "medium") (socket "478") ) (obj NVidia_GForce_4 Graphics (name "GForce 4") (manufacterer "NVidia") (level "medium") (mb 128) ) (obj Infineon_256 RAM (name "DDR") (manufacterer "Infineon") (level "medium") (mb 256) ) )

Abbildung 68: JADL Fakten (PCDemo Projekt)

6.4 Ontologietools Normalerweise erfordern formale Sprachen relativ hohe Einarbeitung. Aus diesem Grund gibt es viele Editoren und Entwicklungstools für Ontologien. Die Wichtigsten davon sind:

• Protoge-2000 (Stanford)

• OntoEdit (Ontoprise GmbH)

• OilEd (Manchester)

OntologyBuilder Für JADL Ontologien wird ein „OntologyBuilder“ im DAI-Labor entwickelt. Mit Onto-logyBuilder kann man eine JADL Ontologie erzeugen, editieren und Instanzen (Fakten) von einer Kategorie erzeugen und bearbeiten.

Neben normaler Masken-Editierung unterstützt OntologyBuilder aufgrund der Graph-struktur von Ontologien auch eine UML Modellierung. Ontologien und deren Kategorien werden als UML Klassen, die nur Funktionen bzw. Attributen enthalten können, model-liert.

Die Abbildung 69 zeigt die UML Modellierung der in der Abbildung 67 gezeigten Onto-logie.

Page 117: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 117

Abbildung 69: OntologyBuilder

6.5 Semantische Netze Eine verwandte Thema zu Ontologien sind semantische Netze, die zur formalen Wis-sensrepräsentation benutzt werden. Ein semantisches Netz ist ein gerichteter Graph, der Begriffe und ihre Beziehungen miteinander visualisiert. Dabei werden die Begriffe als Knoten und Beziehungen als Kanten dargestellt. Manchmal werden semantische Netze auch als Wissensnetze bezeichnet.

Der Unterschied zwischen Ontologien und semantischen Netzen besteht darin, dass On-tologien komplexer als semantische Netze sein können. Unter anderem können Ontolo-gien Regeln enthalten.

Ein Beispiel eines semantischen Netzes (auch einer Ontologie) ist ein Thesaurus, ein kontrolliertes Vokabular, dessen Begriffe miteinander durch Relationen verbunden sind.

Es gibt 6 allgemeine Typen für semantische Netze [Sowa 1987]:

• Definitional Networks

• Assertional Networks

• Implicational Network

• Executable Networks

• Learning Networks

• Hybrid Networks

Manche Typen werden für die Informatik und manche für andere Gebiete entwickelt. Jeder dieser Typen werden unten einzeln kurz besprochen.

Page 118: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

118 Ontologien und Semantische Netze

6.5.1 Definitional Networks „Definitional Networks“ definieren Begriffe und zeigen Eigenschaften von Begriffen wie zum Beispiel Vererbung, Gruppierung, Individualisierung etc. auf. Meist benutzte Typen für Beziehungen in „Definitional Networks“ sind:

• IS-A, AKO (a kind of): Vererbung und Generalisierung

• PART-OF, HAS-A-PART: Aggregation

• MEMBER-OF, INSTANCE-OF: Individualisierung

Die Abbildung 70 zeigt die Vererbungshierarchien von „albatross“, „kiwi“, „bird“ und „animal“. Dabei stellen alle anderen Relationen außer der Vererbungsrelation IS-A Attri-bute eines Begriffs dar. Die Kindknoten können die Attribute der Elternknoten über-schreiben. Das passiert in der Abbildung 70 bei dem „kiwi“ Knoten, der „active_at“ und „moving_method“ Attribute des „bird“ Knotens überschreibt.

6.2 Assertional Networks

„Assertional Networks“ stellt im Gegensatz zum „Definitional Networks“ logische Aus-sagen und Zusammenhänge dar. Mit Hilfe von „Assertional Networks“ kann man die Prädikatenlogik erster Stufe komplett visualisieren. Es gibt einige Subtypen für „Asser-tional Networks“. Zwei davon werden hier vorgestellt.

animal

bird flydaylightactive_at moving_method

isa

kiwi

isa isa

albatross

black and white

AlbertRoss

colourisa isa

Kimnight

active_atisa

walk

colourbrown

moving_method

Abbildung 70: Definitional Networks [Bratko 2001]

6.5.1.1 Relationale Graphen Relationale Graphen können nur zwei Operationen, der Existenz-Quantor und die Kon-junktion, darstellen und besteht aus so genannten „Identitätslinien“, an deren Enden Prä-dikate stehen. Der relationale Graph in der Abbildung 71 visualisiert die folgende For-mel:

( )( ) ( ) ( ) ( ) ( )( )yxbeatsyxownsyisaDonkeyxisaFarmeryx ,, ∧∧∧∃∃

beats

owns

is a donkeyis a farmer

Abbildung 71: Ein relationaler Graph [Sowa 1987]

Page 119: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 119

6.5.1.2 Existentiale Graphen Der Nachteil von relationalen Graphen ist, dass sie die Negation, Disjunktion, Imp-likation und den All-Quantor nicht darstellen können. Aber mit Hilfe von Negation und zusätzlich Operationen von relationalen Graphen ist es möglich, alle anderen Operatio-nen der Prädikatenlogik erster Stufe darzustellen. Das war die Idee von existentialen Graphen. In den existentialen Graphen wird ein ovales Konstrukt eingeführt, das darin enthaltene Aussagen negiert. Damit ist zum Beispiel die folgende Aussage möglich:

„If a farmer owns a donkey, then he beats it“

owns

beats

farmer donkey

Abbildung 72: Ein existentialer Graph [Sowa 1987]

Die Abbildung 72 zeigt die folgende Formel, die mit der vorherigen Aussage äquivalent ist:

( )( ) ( ) ( ) ( ) ( )( )( )( ) ( ) ( ) ( ) ( )( )yxbeatsyxownsydonkeyxfarmeryx

yxbeatsyxownsydonkeyxfarmeryx,,

,,→∧∧∀∀⇔¬∧∧∧∃∃¬

6.5.1.3 Implicational Networks Die Kanten von „Implicational Networks“ bestehen hauptsächlich aus Implikationen. Die Knoten dürfen in sich Relationen enthalten, aber diese Relationen werden bei der Verar-beitung ignoriert. Die Abbildung 73 stellt ein einfaches kausales Netz dar, das die Ursa-che des nassen Rasens zeigt.

Sprinkler in use

Rainy season

Recently rained

Wet grass

Slippery

F T

Abbildung 73: Implicational Networks [Sowa 1987]

6.5.2 Executable Networks Als „Executable Networks“ werden semantische Netze bezeichnet, die ihre Struktur selbst verändern können. Dafür gibt es drei Techniken:

Page 120: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

120 Ontologien und Semantische Netze

• Message passing: In diesem System können Daten zwischen Knoten fließen. Diese Daten können Token (auch Marker und Trigger genannt), numerische Werte und be-liebige Nachrichten sein.

• Attached procedure: Das sind Programme, die die Knoten ausführen können. Dabei kann zum Beispiel eine Berechnung auf die Daten des Knotens durchgeführt werden.

• Graphentransformation: Diese Systeme können ihre Graphstrukturen modifi-zieren.

Number

Number

Number

S2N Number

Number

String

+

X

Abbildung 74: Ein Datenflussgraph [Sowa 1987]

Diese Techniken können auch miteinander kombiniert sein. Einfache Beispiele für „Atta-ched procedure“ und „Message passing““ Systeme sind Datenflussgraphen (Abbildung 74) bzw. Petri-Netze (Abbildung 75).

Busarriving

Bus stops

Buswaiting

Bus starts

Busleaving

Personwaiting

One persongets on bus

Personon bus

Abbildung 75: Ein Petri-Netz [Sowa 1987]

6.5.3 Learning Networks „Learning Networks“ sind Netze, die ihre interne Wissensrepräsentation an neue Um-gebung anpassen können. Die Anpassungen können auf drei Wege passieren:

• Mechanisches Gedächtnis: Neue Information werden in die Netzstruktur kon-vertiert und an bestehendes Netz eingefügt.

• Gewichtsanpassung: Die Kanten oder Knoten mancher Netze können Gewichte ent-halten und diese Gewichte können an neuen Informationen angepasst werden.

• Restrukturierung: Ähnlich wie in „Executable Networks“ wird die Netzstruktur an neue Umgebung angepasst. Für die Vorbereitung der Restrukturierung werden meis-tens die vorherigen zwei Techniken benutzt.

Beispiele für „Learning Networks“ sind neuronale Netze, deren Gewichte an den Knoten und Kanten verändert werden können.

Page 121: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 121

6.5.4 Hybrid Networks „Hybrid Networks“ sind Netze, die Eigenschaften von mindestens zwei von vorherigen fünf Netztypen enthalten. Die „Unified Modeling Language“ (UML) ist ein Beispiel da-für. Dabei können Klassendiagramme als „Definitional Networks“, Statecharts und Akti-vitätsdiagramme als „Executable Networks“ angesehen werden.

6.6 Fazit und Ausblick Ontologien sind in vielen Bereichen anwendbar. Grosse Unternehmen können ihre Da-ten, die verteilt in verschieden Formen als Datenbank oder als Datei gespeichert sind, durch Ontologien verwalten. Dabei arbeiten Ontologien nur als Schnittstelle zwischen Nutzer und Daten. Deshalb müssen diese bereits informal gespeicherten Daten nicht mo-difiziert werden. Ontologien können dem Nutzer grafische Navigation durch Begriffhie-rarchien bieten und bei der Suche nach bestimmter Information semantische Vorschläge geben. So können Information schneller gefunden und Zeit gespart werden.

Neben der klassischen Wissensverwaltung dienen Ontologien auch zum Wissensaus-tausch zwischen Agenten in der Agententechnologie. Agenten benutzen Ontologien als ihr Sprachvokabular, um Missverständnisse und Kommunikationsprobleme zu vermei-den.

Ein Nachteil von Ontologien ist, dass es zu viele formale Beschreibungssprache gibt. Wenn man eine bereits entwickelte Ontologie in eine Ontologie, die aber in einer anderen formalen Sprache beschrieben sind, importieren und benutzen will, muss man die Onto-logie zwischen diesen beiden Sprachen sowohl syntaktisch als auch semantisch überset-zen („Ontology Translation“). Ein anderes Beispiel ist ein Agent, der durch Web Ontolo-gy Language (WOL) beschriebene Informationen verarbeiten will aber intern eine andere Agentensprache benutzt.

Ein anderer Forschungsschwerpunkt liegt im so genannten „Ontology Merging“. Dieses Verfahren benutzt man, wenn zwei Agenten miteinander kommunizieren wollen aber jeder der beiden eine andere Ontologie zur internen Wissensrepräsentation benutzt. In diesem Fall muss eine allgemeine Ontologie von beiden Ontologien erzeugt werden, die die vorherigen Ontologien abdeckt, um einen fehlerfreien Wissensaustausch zwischen Agenten zu ermöglichen.

Page 122: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

122 Kollaboration von Agenten

Page 123: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 123

7 KOLLABORATION VON AGENTEN

Multiagentensysteme (MAS) haben heute ein weites Spektrum von Anwendungsgebie-ten. Nach einer kurzen Erklärung von Multiagentensystemen werden zwei davon näher behandelt. Zuerst behandeln wir die Planung von Geschäftsprozessen. Deren Ziel ist die Optimierung von Geschäftsprozessen in großen Firmen. Darauf folgt eine Erklärung des Anwendungsgebiets Produktionsplanung, welches im Prinzip eine häufige Untergruppe der Planung von Geschäftsprozessen ist.

Zur Koordination und Kooperation in Multi-Agenten-Systemen benötigten Agenten die Fähigkeit zum Austausch ihres Wissens mit anderen Agenten und wissensbasierten Sys-temen. Grundsätzlich kann ein wissensbasiertes Software-System sein Wissen intern auf beliebige Art und Weise verwalten. Dies hat über die Jahre dazu geführt, dass sich viele unterschiedliche Systeme herausgebildet haben, die alle ihr Wissen in unterschiedlicher Form repräsentieren. Solche Heterogenität erschwert zwangsläufig den Wissensaustausch zwischen Agenten oder anderen Software-Systemen mit verschiedenen Wissensreprä-sentationen. Der Knowledge Sharing Effort ist ein in den frühen neunziger Jahren gestar-tetes Großprojekt mit dem Ziel, den Austausch von Wissen zwischen Software-Systemen zu erleichtern und die Heterogenität der verschiedenen Wissensrepräsentationen zu ü-berwinden. Im Rahmen dieses Projekts sind eine Reihe von Lösungsansätzen für die Probleme des Wissensaustausches entstanden. Dazu gehört u.a. die Wissensrepräsentati-ons- und -austauschsprache KIF, die Agentenkommunikationssprache KQML, sowie das Konzept der Common Ontologies zur Vereinheitlichung der ontologischen Grundkon-zepte unterschiedlicher Wissensrepräsentationen. Auf Basis von KQML ist später die Agenten-Kommunikationssprache FIPA-ACL entstanden, die komplexere Interaktionen mittels so genannter Interaktionsprotokolle unterstützt.

Allgemein werden als intelligente Software-Agenten (kurz: intelligente Agenten) Soft-ware-Agenten angesehen, die im Zuge ihrer Zielvorgaben sowohl auf Änderungen ihrer Umwelt reagieren, als auch ihre Umwelt pro-aktiv, also ohne direkte Reaktion auf ein Ereignis, beeinflussen können. Intelligente Agenten zeichnet dabei die Fähigkeit zur In-teraktion mit anderen Agenten aus. Heutzutage gibt es viele Einsatzfelder für intelligente Agenten, beispielsweise E-Commerce-Anwendungen, das Management verteilter Soft-ware-Systeme oder Anwendungen in der Telekommunikation.

Damit (intelligente) Agenten zielgerichtet handeln können, benötigen sie Wissen über ihre Umwelt. Beispielsweise muss ein Agent, der stellvertretend für eine reale Person an einer Online-Auktion teilnimmt, das aktuelle Gebot für das zu erwerbende Gut kennen, um feststellen zu können, ob bzw. zu welchem Preis die Abgabe eines höheren Gegenge-bots sinnvoll ist. Anders als beispielsweise Wissen von Expertensystemen ist Agenten-wissen allerdings typischerweise unvollständig; Agenten sammeln sukzessive Wissen über ihre Umwelt und erzeugen neues Wissen aus bereits vorhandenem Wissen. Je ge-nauer das Wissen eines Agenten über seine Umwelt ist, desto besser kann er die Auswir-kungen des eigenen Handelns abschätzen. Um neues Wissen zu erlangen, ist es daher sinnvoll, wenn Agenten die Fähigkeit besitzen, ihr Wissen mit anderen Agenten auszu-tauschen.

Ein weiterer Aspekt, der den Austausch von Agentenwissen notwendig macht, ist das so genannte kooperative Problemlösen. Da ein einzelner Agent lediglich über unvoll-ständiges Wissen und begrenzte Ressourcen zum Folgern über vorhandenem Wissen (engl. reasoning) verfügt, kann er ein Problem häufig nicht alleine lösen. Einen Lösungs-

Page 124: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

124 Kollaboration von Agenten

ansatz bietet hier die Zusammenarbeit mit anderen Agenten, soweit sich das Problem zerlegen lässt und Teilergebnisse zwischen den Agenten ausgetauscht werden können.

Der Wunsch, Wissen über die Welt in computergestützten Systemen zu verwalten, exis-tierte bereits lange vor den ersten Multi-Agenten-Systemen. Seit den siebziger Jahren sind infolgedessen viele verschiedene wissensbasierte Systeme entstanden. Die wachsen-de Bedeutung von Agentensystemen und die über die Jahre entstandene Heterogenität nicht-agentischer wissensbasierter Systeme hatten zur Folge, dass während der neunziger Jahre die Forschung zur Verbesserung der Interaktionsfähigkeit be- und entstehender Systeme stark vorangetrieben wurde. Mit den Problemen und Errungenschaften, die im Zusammenhang mit diesem Forschungszweig stehen, befasst sich Abschnitt 7.2.

Der Themenkomplex der Multiagentensyteme ist äußerst vielfältig. Es gibt sehr viele Forschungsdisziplinen, deren Ergebnisse für Multiagentensysteme genutzt werden. Zum einem wäre da die klassische Künstliche Intelligenz und somit auch die Geis-teswissenschaftlichen Forschungsgebiete, welche die KI beeinflussen: Psychologie, Kognitionswissenschaften, Linguistik und Philosophie. Weitere Gebiete sind Orga-nisationslehre, Verhaltensforschung und Robotik.

Multiagentsysteme basieren aber nicht nur auf vielfältigen Forschungsgebieten. Sie sind auch vielseitig einsetzbar. Sie sind überall dort einsetzbar wo verschiedene Rol-len/Akteure koordiniert agieren sollen/müssen. Die Anwendungsgebiete umfassen z.B das (schon fast klassischen Anwendungsgebiet) Roboterfußball, Produktionsplanung, Informationsbeschaffung, Onlinehandel, medizinische Anwendungen und Spiele. Nach einer kurzen Einführung über die Grundidee von Multiagentensystemen (MAS) werden einige dieser Anwendungsgebiete näher erläutert.

7.1 Multiagentensysteme: Ein Überblick "Multi Agent Systems are concerned with coordinating intelligent behavior among a col-lection of autonomous intelligent agents, how they coordinate their knowledge, goals, skills, and plans joinly to take action or solve problems.” [Bond 1988]

7.1.1 Was sind Multiagentensysteme Multiagentensysteme (MAS) definieren sich über 3 Eigenschaften.

• Multiagentensysteme beinhalten autonome Agenten, die gegen- oder miteinander (“Kooperation”) arbeiten.

• Multiagentensysteme sind kein geschlossenes System und werden nicht in einem Stück entworfen.

• Multiagentensysteme stellen die Infrastruktur zur Verfügung, die für die Kom-munikation und die Interaktion der autonomen Agenten benötigt wird.

Wenn mehrere Agenten innerhalb eines Systems arbeiten sollen, ist es nötig, dass diese Agenten miteinander kommunizieren. Die Kommunikation von Agenten wird in Ab-schnitt 7.2.3 näher erläutert.

Kommunikation alleine reicht aber nicht aus. Wenn Agenten miteinander arbeiten sollen ist (wie auch bei Menschen) Koordination nötig. Hierbei kann man grundsätzlich tren-nen, ob die Agenten miteinander (“Kooperation”) oder gegeneinander (“Wettbewerb”) arbeiten sollen. Wenn die Agenten kooperieren, verfolgen sie ein gemeinsames globales Ziel. Wenn man die Autonomie der Agenten dabei einschränkt, spricht man von Planen bzw. verteiltem Planen (im Gegensatz zu zentralem Planen, welches die Autonomie der Agenten aufhebt). Wenn die Agenten gegeneinander arbeiten, dann verfolgen sie unter-

Page 125: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 125

schiedliche Ziele. Diese Ziele können sich ähneln, decken sich aber niemals vollständig. Z.B. haben die Agenten eines Onlinemarktplatzes alle das Ziel, den besten Handel durch-zuführen. Allerdings unterscheidet sich in diesem Fall der Auftraggeber. Wenn es er-wünscht ist, dass möglichst viele gegeneinander agierenden Agenten erfolgreich sind, besteht noch die Möglichkeit von Verhandlungen unter den Agenten. Hierbei können sie sich auf gemeinsame Ziele einigen.

7.1.2 Anwendungsgebiet MAS: Geschäftsprozesse Die Wirtschaft ist ständig Veränderungen wie neuen Technologien, Globalisierung oder neuen Umweltauflagen ausgesetzt. Damit Unternehmen sich behaupten können, müssen sie sich diesen Veränderungen anpassen und ihre Effizienz steigern oder zumindest hal-ten können. Das bedeutet, dass sämtliche Unternehmensaktivitäten schneller, mit höherer Qualität und zu geringeren Kosten ablaufen müssen.

7.1.2.1 Traditionelles Geschäftsprozessmanagment Eine Möglichkeit, Geschäftabläufe hinsichtlich ihrer Planung, Ausführung, Überwa-chung und Koordination zu optimieren, sind Geschäftsprozessmanagmentsysteme (GPMS). Ein solches Managementsystem unterliegt insbesondere für große Unterneh-men einer Reihe von Anforderungen:

• Prozesse gestalten sich dynamisch und unvorhersehbar. Eine vollständige Vor-ausplanung ist also nicht möglich.

• An Prozessen sind Menschen und Maschinen beteiligt. Das Verhältnis zwischen den beiden hängt von dem Prozess und der Applikation ab, die den Prozess verwendet.

• An Prozessen können mehrere Unternehmen mit unterschiedlichen Zielen beteiligt sein.

• Benötigte Ressourcen liegen teilweise verteilt vor.

• Beteiligte Gruppen innerhalb eines Unternehmens handeln relativ autonom. Sie ent-scheiden selbständig, wann welche Ressourcen für welchen Prozess eingesetzt wer-den.

• Ablaufende Prozesse müssen koordiniert werden, da sie gleiche Ressourcen be-anspruchen können, die in der Regel nur begrenzt zur Verfügung stehen.

Der traditionelle Ansatz des Geschäftsprozessmanagments geht von einer zentralen Sichtweise aus. Jeder Prozess muss im Vorfeld komplett definiert sein, damit er ausge-führt und kontrolliert werden kann. Dieser Ansatz widerspricht aber einigen der oben aufgeführten Anforderungen. Er kann nicht dynamisch auf Veränderungen reagieren, was ihn insbesondere für große Unternehmen nutzlos macht. Eine weitere Schwäche dieses Ansatzes ist das fehlen der Möglichkeit, das System “on-the-fly” zu erweitern.

7.1.2.2 Geschäftsprozessmanagement mit Multiagentensystemen Agentenbasierte Managementsysteme verfolgen einen grundsätzlich anderen Ansatz. Jedem Geschäftsprozess wird eine eigene Einheit zugeordnet, der die volle Verantwor-tung für die Ausführung des Prozesses unter vorgeschriebenen Rahmenbedingungen trägt. Somit werden viele Entscheidungen nun erst zur Laufzeit getroffen. Diese Agenten besitzen vier Eigenschaften. Sie sind autonom (können also Probleme selbständig lösen), besitzen soziale Kompetenz (können mit anderen Einheiten interagieren) und reagieren auf ihr Umfeld. Sie vereinen also genau die Kerneigenschaften von intelligenten, auto-nomen Softwareagenten.

Page 126: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

126 Kollaboration von Agenten

Ein Projekt, das ein agentenbasiertes Geschäftsprozessmanagementsystem umsetzt, ist ADEPT (Advanced Decision Environment for Process Tasks)[Jennings 2000].

7.1.2.3 ADEPT Jeder ADEPTagent bietet einen oder mehrere Dienste an. Ein Dienst entspricht einer oder mehrerer Unternehmensaktivitäten. Seine Spezifikation werden in einer speziellen Spra-che angegeben, der SDL (Service Description Language).

Für jeden Geschäftsprozess gibt es einen Agenten, der zur Durchführung seines Ge-schäftsprozesses auf einen oder mehrere der von ihm angebotenen Dienste zugreifen muss. Benötigt er darüber hinaus noch Dienste, so muss er diese von anderen Agenten anfordern. Da die anderen Agenten auch autonom handeln, kann die Dienstnutzung aber nicht erzwungen werden, sondern muss durch ein SLA (Service Level Agreement) aus-gehandelt werden. Das aushandeln der SLAs hat stets die gleiche Struktur und läuft nach einem vorgeschriebenen Protokoll ab. Außerdem benötigen die Agenten eine gemeinsa-me semantische Grundlage (Information Sharing Language). Kann ein Dienst nicht von einem einzelnen Agenten erbracht werden, so muss der Dienst aus den Diensten ver-schiedener Unteragenten zusammengesetzt werden.

Bei vielen Geschäftsprozessapplikationen ist es nötig, dass die Organisationsstruktur des Unternehmens widergespiegelt wird. Deshalb bietet ADEPT zwei Beziehungsarten zwi-schen Agenten. Punkt-zu-Punkt Beziehungen und Hierarchien. Es gibt sogenannte A-gencys, welche aus einem Agenten, einer Menge von elementaren Diensten und einer Menge von Unteragenten bestehen. Ein Agency ist also ein übergeordneter Agent für die Unteragenten der Agency. Wollen die Unteragenten mit einem Agenten außerhalb der Agency kommunizieren, so müssen sie über den verantwortlichen Agenten gehen. Die Verhandlung zwischen Agency und Unteragenten läuft dementsprechend kooperativ ab. Der Unteragent handelt aber weiterhin innerhalb seiner Domäne autonom.

Durch die Strukturierung in Hierarchien werden eine Kapselung und Abstraktion von Diensten erreicht. Das hat zur Folge, dass einen Agenten nicht interessiert, wie ein Dienst erbracht wird (da er keinen Zugriff auf diese Information hat), sondern nur, dass der Dienst erbracht wird (und von wem bzw. von welchem Agency).

7.1.3 Anwendungsgebiet MAS : Produktionsplanung und –steuerung Produktionsplanung und -steuerung (PPS) bezeichnet den Einsatz rechnerunterstützter Systeme zur organisatorischen Planung, Steuerung und Überwachung der Produktions-abläufe von der Angebotserstellung bis zum Versand unter Mengen-, Termin- und Kapa-zitätsaspekten [Steinaecker 2004].

7.1.3.1 Anforderungen an PPS Die relevanten Aspekte der PPS sind die folgenden:

• Planungsgrößen: Dies bezeichnet die Art der Produkte (End- und Zwischenpro-dukte), die benötigten Ressourcen (Zeit/Kosten), die Menge der Produkte und den Fertigungstermin.

• Funktionsebenen: PPS wird in 3 Funktionsebenen unterteilt. Es wird unterschieden zwischen Planung (ein eher langfristiger, einmaliger Prozess), Steuerung (ein kurz-fristiger, reaktiver Prozess, in welchem die Aufgabendurchführung hinsichtlich Men-ge, Termin und Qualität besteht) und Durchführung (Übernahme der von der Steue-rung zugewiesenen Aufträge inklusive deren detaillierten Durchführung). Als Spezi-alfall gibt es hier das sogenannte iterative PPS, bei dem nur eine unscharfe Trennung zwischen Planung und Steuerung besteht. Das heißt, dass die Ergebnisse der vorgela-

Page 127: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 127

gerten Ebene eher als “Vorschläge” dienen und modifiziert werden können. Die itera-tive PPS ist die Grundlage für den Einsatz von selbstlernenden Systemen.

• Organisation: Hier wird zwischen aufbau- und ablauforientierter PPS unterschieden. Im ersten Fall übernimmt eine zentrale Stelle alle planerischen und steuernden Auf-gaben. Dies hat einen hohen Koordinationsaufwand zur Folge. Dieser wird verursacht durch komplexe Wechselwirkungen und Fehlplanungen (bedingt durch mangelnde Kenntnis der Zentrale). Im zweiten Fall kümmern sich dezentrale Instanzen durch Nachfrage um Planung und Steuerung. Dies hat zur Folge, dass Entscheidungen von der Instanz mit dem größten Know-how getroffen werden. Außerdem wird der Koor-dinationsaufwand geringer. Es besteht allerdings die Gefahr von sog. Suboptima, da die dezentralen Teilbereiche übergeordnete Interessen nur schwer überschauen kön-nen.

• PPS Funktionen: Hier gibt es informatorische und physische Faktoren. Erstere sind Absatz, Projektakquisition, Konstruktion und Arbeitsvorbereitung. Letztere sind Ma-terialbeschaffung, Fertigung und Montage.

Die konzeptionellen Anforderungen an ein System für PPS sind:

• Unternehmensintegration: Das verbinden von Orginationseinheiten (Management) über Netzwerke

• Verteilte Organisation: Die dezentrale Ressourcen-/Kapazitätsplanung und -steuerung.

• Interoperabilität: Ein heterogenes Informationssystem besteht in der Regel aus hete-rogenen Bestandteilen (z.B. Programmiersprachen, Rechnerplattformen). Ein solches System muss Möglichkeiten zur Interoperation bzw. Interaktion zur Verfügung stel-len.

• Offene und dynamische Architektur: Systemkomponenten müssen im laufenden Be-trieb (oder wenigstens ohne Neuinitialisierung) hinzugefügt und entfernt werden können.

• Effiziente Kooperation: Kooperation mit Kunden, Zulieferern und Geschäftspartner benötigt die Möglichkeit von Realzeitverhalten.

• Anpassungs- und Reaktionsfähigkeit: Die Fähigkeit, auf kontinuierliche und un-vorhersehbare Änderungen zu reagieren.

• Fehlertoleranz: Bei einem Systemfehler müssen die Konsequenzen so gering wie möglich gehalten werden.

7.1.3.2 PPS und Multiagentensysteme Die Einbettung von Agenten in ein System unterliegt zwei grundsätzlichen Ansätzen. Der funktionalen und der physikalischen Eingliederung des Agenten. Unter die funktio-nale Eingliederung von Agenten fallen Auftragsaquisition, Materialbehandlung, Steue-rung, Transportmanagement und Vertrieb, also alle Aspekte der PPS, bei der keine Zu-ordnung des Agenten auf ein physikalisches Element vorgenommen werden kann. Falls so eine Zuordnung vorgenommen werden kann, fällt dieses Element unter die physikali-sche Eingliederung.

Es gibt drei Gruppen von Systemarchitekturen von Multiagentsystemen in PPS: Hierar-chische Architekturen, Föderationen und autonome Agenten. In der hierarchischen Ar-chitektur sind die Agenten teilautonome, verteilte Einheiten. Sie erhalten verpflichtende

Page 128: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

128 Kollaboration von Agenten

Anweisungen von einer übergeordneten Instanz, haben aber die Kontrolle über lokale Ressourcen. Die zentrale Beschaffenheit ist ein großer Kritikpunkt an dieser Architektur.

Die Systemarchitektur nach dem Prinzip der Föderation besteht aus 3 Agentengruppen, welche die Koordination der Aufgaben übernehmen.

• Facilitators: Sie routen die interne Kommunikation von Gruppen zusammengefaßter ähnlicher Agenten. Sie koordinieren außerdem das Umsetzen hereinkommender Nachrichten.

• Broker: Sie sind Facilitators mit zusätzlichen Aufgaben wie z.B. Monitoring. Der funktionale Unterschied zu den Facilitators besteht darin, dass sie von jedem A-genten im System angesprochen werden können und nicht nur von den Agenten einer bestimmten Gruppe.

• Mediators: Sie sind die Systemkoordinatoren und unterstützen die Kooperation zwi-schen intelligenten Agenten. Außerdem können sie aus dem Verhalten der System-agenten lernen.

Durch das Zusammenfassen von Agenten zu Gruppen mit Koordinationsinstanzen wird eine Reduzierung des Kommunikationsaufwands eines Systems erreicht. Außerdem wird das System stabiler und skalierbarer.

Das Hauptmerkmal von Architekturen mit autonomen Agenten ergibt sich aus den cha-rakteristischen Eigenschaften dieser Agenten. Sie werden weder von anderen Agenten noch von Menschen direkt gesteuert, können mit anderen Agenten im System kommuni-zieren, besitzen Wissen über ihre Umgebung (inkl. der anderen Agenten im System) und haben eigene Ziele und Motivationen.

7.2 Wissensaustausch Anders als ein Mensch besitzt eine Software, beispielsweise ein Agent, kein biologi-sches Gehirn zur Verarbeitung und Verwaltung von Wissen. Computerprogramme müs-sen ihr Wissen in einer Form modellieren, die sich durch Bits ausdrücken lässt, um es verwerten zu können. Ein Modell, mit dem sich das für einen Anwendungsbereich rele-vante Wissen mit hinreichender Exaktheit ausdrücken lässt, wird in der künstlichen Intel-ligenz auch als Wissensrepräsentation bezeichnet.

Eine Wissensrepräsentation muss es zulassen, dass das repräsentierte Wissen auf ef-fiziente Weise maschinell verarbeitet werden kann. Dies ist notwendig, um das au-tomatisierte Folgern neuen Wissens aus vorhandenem Wissen, das so genannte Rea-soning, zu ermöglichen. Ein grundsätzliches Problem, das sich im Hinblick auf diesen Aspekt beim Entwurf einer Wissensrepräsentation auftut, ist die Notwendigkeit der Ab-wägung zwischen Traktabilität und Ausdrucksstärke einer Wissensrepräsentation. Je komplexer das Wissen selbst ist, das sich durch eine Repräsentationsform ausdrücken lässt, desto schwieriger handhabbar im komplexitätstheoretischen Sinn wird auch das Reasoning [Levesque 1987].

Die Repräsentation von Wissen durch natürlichsprachlichen Text oder Bilder, also in einer Form, wie sich ein Mensch Sachverhalte merkt, empfiehlt sich daher wegen der hohen Ausdrucksstärke und somit auch sehr hohen Komplexität nicht. Aus diesem Grund ist es sinnvoll, Wissen auf Basis von Repräsentationssprachen mit weniger komplexer Semantik zu formalisieren.

Page 129: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 129

7.2.1 Eigenschaften einer Wissensrepräsentation Wissensrepräsentationen dienen dem Ziel, Wissen zu verwalten und maschinell zu verar-beiten. Der Entwurf eines Modells zur Wissensrepräsentation, das eine effiziente Verwal-tung und Verarbeitung von Wissen zulässt, setzt Klarheit über die Frage voraus, welche Art von Wissen repräsentiert werden soll. Eine Wissensrepräsentation dient lediglich als Stellvertreter für Tatsachen, die in der Realität existieren. Die Semantik der Repräsenta-tion stellt dabei den Bezug zum tatsächlichen Faktum her [Davis 1993]. Es ist deshalb besonders wichtig, dass der Diskursbereich, dem das repräsentierbare Wissen entspringt, klar eingegrenzt ist; Andernfalls wäre die Semantik zu komplex, um eine effiziente Ver-arbeitung des Wissens zu gewährleisten.

Ein weiterer Aspekt ist die Genauigkeit einer Wissensrepräsentation. Bei Wissens-repräsentationen handelt es sich bloß um Modelle, welche im Allgemeinen keine perfek-ten Abbilder der Realität liefern. Es ist zwar grundsätzlich nicht unmöglich, für bestimm-te Diskursbereiche tatsächlich exakte Wissensrepräsentationen zu modellieren – bei-spielsweise für mathematische Axiome und Regeln -, dennoch ist es in der Regel not-wendig, die immense Komplexität der realen Welt in der Wissensrepräsentation durch Vereinfachung zu verbergen, wodurch auch das Reasoning zu Fehlern führen kann [Da-vis 1993]. Vereinfacht werden die Sachverhalte der realen Welt, indem in der Wissens-repräsentation lediglich die für den Diskursbereich wichtigen Aspekte erhalten bleiben. So ist beispielsweise anzunehmen, dass die Entität “Entfernung” in einer Wissensreprä-sentation für die Astronomie eine andere Bedeutung besitzt, als in einer Wissensreprä-sentation, die die Physik der Elementarteilchen beschreibt. In ersterer spielt die Genauig-keit sicherlich eine ungleich geringere Rolle, weshalb Entfernungen in Größenordnungen von weniger als einem Kilometer möglicherweise gar nicht modellierbar wären. Jede Wissensrepräsentation betrachtet somit die reale Welt aus einem bestimmten Blickwin-kel, was auch als ontological commitment [Davis 1993] bezeichnet wird.

Im Hinblick auf die Tatsache, dass keine Wissensrepräsentation das vollständige Wissen ihres Diskursbereichs abdecken kann, stellt sich die Frage, wie neues Wissen aus beste-hendem Wissen generiert, also Reasoning betrieben werden kann. Es gibt verschiedene Interpretationen dessen, was als Reasoning verstanden wird. Dazu gehört unter anderem die mathematisch-logische Sicht, die Reasoning auf formal logisches Ableiten reduziert, aber auch die Sicht eines rationalen Agenten, dessen Folgerungsschritte stets unter öko-nomischen Gesichtspunkten gewählt werden, oder die statistische Sicht, bei der Reaso-ning den Axiomen der Wahrscheinlichkeitstheorie gehorcht. In jedem Fall benötigt eine Wissensrepräsentation einen derartigen Mechanismus, der eine Menge möglicher sowie empfohlener Folgerungsschritte festlegt [Davis 1993].

7.2.2 Der Knowledge Sharing Effort (KSE) Seit Mitte der siebziger Jahre werden computergestützte Systeme zur Wissensreprä-sentation gebaut, um die Entwicklung mächtiger KI-Systeme zu ermöglichen. Von den frühen Anfängen bis heute ist dabei eine Vielzahl verschiedenartiger Systeme für die unterschiedlichsten Anwendungsbereiche entstanden, deren Spektrum von monolit-hischen Expertensystemen bis hin zu Multi-Agenten-Systemen reicht. Wissen innerhalb der Systeme wird dabei auf ebenso vielseitige Art und Weise repräsentiert, bei-spielsweise auf Basis von Frames, semantischen Wissensnetzen, Ontologien [Gruber 1995] oder implizit durch Konzepte wie neuronale Netze [Kohonen 1989] oder Hidden Markov Models [Rabiner 1986].

Die Entwicklung eines von Grund auf neuen Systems zur Wissensrepräsentation hat sich dabei allerdings als zeitaufwendig und kostenträchtig erwiesen, wodurch der Aufbau be-sonders umfangreicher und damit auch domänenübergreifend einsetzbarer Systeme be-

Page 130: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

130 Kollaboration von Agenten

hindert wurde [Fikes 1991]. Zudem wurde mit der zunehmenden Vernetzung von Com-puter-Systemen der Bedarf nach Interoperabilität der verschiedenartigen KI-Systeme deutlich.

Das mit der Schaffung von Interoperabilität verbundene Grundproblem gliedert sich in zwei Teilprobleme. Eines der Probleme liegt in der unvermeidlichen Heterogenität der Repräsentationssprachen. Jede Repräsentationssprache hat ihre eigenen Stärken und Schwächen in Bezug auf bestimmte Anwendungsgebiete, weshalb es voraussichtlich nicht möglich sein wird, eine optimale Repräsentationssprache für alle Anwen-dungsgebiete zu finden [Fikes 1991]. Die Herausforderung in Bezug auf dieses Problem liegt darin, eine gemeinsame “Interlingua” zu finden, in die sich möglichst viele bekannte Repräsentationssprachen automatisiert in möglichst einfacher Art und Weise überführen lassen.

Das andere Teilproblem liegt im Fehlen gemeinsamer ontologischer Grundkonzepte in den verschiedenen Systemen zur Wissensrepräsentation. So mag beispielsweise in einer Wissensrepräsentation die Welt auf niedrigster Ebene in “greifbare” und “abstrakte” Ob-jekte aufgeteilt sein, in einer anderen aber in “zerlegbare” und “nicht zerlegbare” oder “lebendige” und “nicht lebendige” Objekte – eben so, wie es sich für das jeweilige An-wendungsgebiet empfiehlt. Fehlendes Wissen über die Beziehungen zwischen solchen Einteilungen erschwert die Vereinheitlichung der Grundkonzepte. Zudem kommt es vor, dass in verschiedenen Systemen unterschiedliche Bezeichnungen für gleiche Konzepte verwendet werden. Beispielsweise können die Bezeichnungen “is-a” und “is-kind-of” in jeweils unterschiedlichen Systemen auftreten, obwohl beide demselben Zweck dienen, Entitäten hierarchisch anzuordnen [Fikes 1991].

Mit dem Ziel, die mit der Heterogenität der verschiedenen Systeme zur Wissensrep-räsentation verbundenen Probleme zu überwinden, wurde Anfang der neunziger Jahre der Knowledge Sharing Effort ins Leben gerufen. Finanziert wurde das groß angelegte For-schungsprojekt, an dem eine Vielzahl von Forschungseinrichtungen und Universitäten beteiligt waren (An Forschungsprojekten im Rahmen des KSE waren u.a. AT&T, Carne-gie-Mellon University, EITech, Hewlett-Packard Research Center, Lockheed, Northwes-tern University, Universität Saarbrücken, USC / Information Sciences Institute, Stanford Research Institute, Stanford University, Paramax, University of Maryland, University of Texas, und das Xerox Palo Alto Research Center beteiligt), vom Air Force Office of Scientific Research (AFOSR), der Defense Advanced Research Projects Agency (DARPA), der Corporation for National Research Initiatives (CNRI), und der National Science Foundation (NSF).

Man hatte diverse Visionen, die mit dem Knowledge Sharing Effort erreichbar werden sollten. Dazu gehörte die Möglichkeit, wieder verwendbare Wissens- und Problemlöser-Komponenten zu entwickeln, auf Basis derer sich neue besser spezialisierte Komponen-ten aufbauen ließen, um die Entwicklung wissensbasierter Systeme zu beschleunigen, die entstehenden Kosten zu senken und durch Verwendung vielseitig getesteter Komponen-ten und Module die Robustheit neu entstehender Systeme zu steigern. Weiter sollte die Möglichkeit geschaffen werden, Systeme miteinander interagieren zu lassen, was insbe-sondere das Stellen von Anfragen zur Verarbeitung von Wissen zwischen Systemen ein-schließt. Dadurch würde es erleichtert, wissensbasierte Systeme zu vernetzen und zu ver-teilen. Die Idee war, dass so, mit der Zeit, große Wissensdatenbanken entstehen könnten. Neben Faktenwissen ließen sich dann auch Techniken zur Problemlösung und Dienste zum logischen Schließen, von verschiedenen Systemen aus, anbieten und nutzen, was die Bildung von Standards für Systeme sowie Übersetzungsmechanismen zwischen Syste-men vorantreiben würde. Repräsentiertes Wissen würde seinen monolithischen Charakter verlieren und ließe sich in Form von Modulen, ähnlich wie Code-Libraries, in Software

Page 131: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 131

einbinden. Tools und Methodologien, die dem Auffinden und Anbieten existierender Wissensmodule dienen, würden entstehen [Fikes 1991].

Um auf das Erreichen der Visionen hinzuarbeiten, wurden vier verschiedene Arbeits-gruppen mit unterschiedlichen Forschungsschwerpunkten gebildet. Die Arbeitsgruppe Namens “Interlingua” befasst sich mit den Problemen der Heterogenität verschiedener Repräsentationssprachen. Insbesondere besteht ihre Aufgabe darin, eine Zwischen-sprache zu entwickeln, in die sich verschiedene Repräsentationssprachen übersetzen las-sen. “Shared Reusable Knowledge Bases” befasst sich mit der Entwicklung ver-schiedener Ansätze zur Vereinheitlichung unterschiedlicher Terminologien, Konzep-tualisierungen und Semantiken von Systemen zur Wissensrepräsentation. Der Schwer-punkt liegt insbesondere auf der Entwicklung gemeinsam nutzbarer Ontologien für be-stimmte Anwendungsfelder. Aufgabe der Gruppe “Knowledge Repräsentation System Specification” ist die formale Spezifikation von Konstrukten zur Vereinheitlichung der Wissensrepräsentationen innerhalb einer Repräsentationssprachen-Familie. Zudem exis-tiert die Gruppe “External Interfaces”, die sich mit der Entwicklung von Techniken zur Interaktion wissensbasierter Systeme in einer Laufzeitumgebung befasst; Auf die Ergeb-nisse dieser Arbeitsgruppe wird im nachfolgend genauer eingegangen.

7.2.2.1 Knowledge Interchange Format (KIF) Eine einheitliche Zwischensprache zum Austausch von Wissen zwischen heterogenen Systemen, deren Entwicklung Aufgabe der “Interlingua”-Arbeitsgruppe ist, muss ei-nigen Anforderungen genügen. Dazu gehört eine formal definierte deklarative Semantik, d.h. die Semantik der Sprache sollte im Sprachstandard verankert und unabhängig von bestimmten Interpretern sein, was bei einer Programmiersprache wie Prolog beispiels-weise nicht der Fall ist. Zudem sollte die Sprache hinreichend ausdrucksstark sein, um das Wissen typischer Systeme repräsentieren zu können. Die Struktur der Sprache sollte eine möglichst weitgehend automatisierbare Übersetzung in typische Repräsentations-sprachen und aus typischen Repräsentationssprachen ermöglichen [Jennings 2000].

Ein erstes Ergebnis der “Interlingua”-Arbeitsgruppe ist die Sprache KIF. KIF steht für Knowledge Interchange Format und entspricht dem Versuch, die im vorigen Absatz er-wähnten Anforderungen zu erfüllen. Sie basiert auf Prädikatenlogik erster Ordnung und ist logisch vollständig, d.h. es lassen sich alle Sachverhalte ausdrücken, die sich auch als Sätze im Prädikatenkalkül erster Ordnung formulieren lassen. Die Sprache besitzt eine deklarative Semantik und bietet sowohl die Möglichkeit zur Definition von Objekten, Relationen und Funktionen, als auch zur Repräsentation von Regeln zum Reasoning. Zudem lässt sich in KIF Meta-Wissen, also Wissen über die Wissensrepräsentation selbst ausdrücken, wodurch neue Konstrukte zur Wissensrepräsentation eingeführt werden können, ohne dass der Sprachstandard angepasst werden muss.

KIF ist lediglich als Zwischensprache zum Austausch von Wissen zwischen Systemen gedacht. Ein System, das Wissen an ein anderes System übermitteln soll, übersetzt das mit seiner internen Repräsentationssprache ausgedrückte Wissen für den Transfer in KIF. Dieses Wissen wird dann vom Empfänger-System wiederum aus KIF in dessen intern verwendete Repräsentationssprache übersetzt. Probleme ergeben sich dabei, wenn sich ein Satz aus KIF nicht ohne weiteres in eine bestimmte Repräsentationssprache (rück-) übersetzen lässt. Dass dies nicht notwendigerweise immer möglich ist, liegt in der unter-schiedlichen Mächtigkeit der Repräsentationssprachen in Bezug auf Ausdrucksstärke begründet. Ein Satz, der aus einer mächtigen Sprache in KIF übersetzt und anschließend aus KIF in eine weniger mächtige dritte Sprache übersetzt werden soll, könnte in besag-ter dritter Sprache nicht repräsentierbar sein. Gegebenenfalls ist es zwar möglich, Sätze innerhalb von KIF in semantisch äquivalente in der Zielsprache repräsentierbare Sätze

Page 132: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

132 Kollaboration von Agenten

umzuformen, allerdings erhöht die Berücksichtigung solcher Zwischenschritte die Kom-plexität automatischer Übersetzter erheblich [Genersereth 1992].

Es gibt zwei verschiedene Arten, auf die Wissen in KIF gespeichert werden kann. Zum einen ist dies Structured KIF, bei dem Ausdrücke als strukturierte Entitäten nach einer im Sprachstandard festgelegten Grammatik [Genersereth 1992] gebildet werden. Solche KIF-Ausdrücke sind für den Menschen gut lesbar und auch verständlich. Zwei einfache Beispiele für Sätze in Structured KIF finden sich in Abbildung 76. (forall ($x) (=>(water $x)(wet $x)))

(=>(and (> $x 2)(even-integer $x))(not (prime $x)))

Abbildung 76: Zwei einfache Sätze in Structured KIF.

Der erste Satz soll aussagen, dass Wasser nass ist, der zweite Satz, dass keine Zahl prim ist, falls sie gerade und größer als zwei ist; Das “forall ($x)” kann hier auch weggelassen werden.

Zum anderen besteht mit Linear KIF die Möglichkeit, Ausdrücke durch US-ASCII-kodierte Strings darzustellen. Die Syntax ist dabei an die Programmiersprache Lisp ange-lehnt und kann von einem Lisp-Interpreter gelesen werden.

7.2.2.2 Common Ontologies Wie bereits erwähnt wurde, basiert jedes System zur Wissensrepräsentation auf einer individuellen Konzeptualisierung (Modellbildung) der Wirklichkeit, in der nur für den jeweiligen Anwendungsbereich wesentliche Aspekte der Realität berücksichtigt werden. Ein Wissen verarbeitendes System ist dadurch an diese Kon-zeptualisierung gebunden, was auch als ontological commitment bezeichnet wird. Verschiedene Systeme haben ver-schiedene ontological commitments, wodurch die Interoperabilität eingeschränkt wird.

Ein Ansatz zur Lösung dieses Problems besteht in der Strategie der common ontologies. Im weitesten Sinne wird mit dem Begriff der Ontologie in der künstlichen Intelligenz die formale Spezifikation der Konzeptualisierung verbunden, auf der ein wissensbasiertes System aufbaut [Gruber 1995], unter common ontology die formale Spezifikation der ontological commitments einer Menge von wissensbasierten Systemen [Jennings 2000]. Eine solche Spezifikation hat den Vorteil, unabhängig vom System zur Wissensverarbei-tung selbst interpretierbar zu sein. Besitzt ein System Kenntnis über die common ontolo-gy eines anderen Systems, die dessen Ontologie beschreibt, besteht so für letzteres Sys-tem die Möglichkeit, von ersterem System erhaltenes Wissen anhand der Meta-Daten aus der common ontology in eigenes Wissen zu überführen.

Im Zuge dessen hat die Arbeitsgruppe “Shared Reusable Knowledge Bases” die Aufga-be, common ontologies für diverse Anwendungsgebiete zu entwickeln. Diese sollen dann als offene Spezifikationen verfügbar sein.

Ebenfalls im Zusammenhang mit der Forschung im Bereich der common ontologies wur-de ein Framework namens Ontolingua [Gruber 1992] entwickelt, welches die Entwick-lung von Ontologien unabhängig von bestimmten Systemen zur Wissensrepräsentation ermöglicht. Eine Ontologie für Ontolingua definiert eine Menge von Klassen, Funk-tionen, Relationen und Konstanten und beinhaltet ein System von Axiomen, um die mög-lichen Interpretationen einzuschränken. Syntax und Semantik bauen dabei auf KIF auf, welches um objektorientierte Konzepte, insbesondere den Entwurf von Klassen-Hierarchien respektive Vererbung erweitert wurde. Abbildung 77 zeigt beispielhaft die Definition einer neuen Klasse mit für Ontolingua.

Page 133: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 133

(define-class left-handed-screw-driver (?tool)

”A left-handed-screw-driver is a tool for driving screws that is designed exclusively for left-handed users”

:def (and (mechanical-tool ?tool)

(intended-functions ?tool driving-screws)

(forall ?user

(=> (intended-user ?tool ?user)

(left-handed ?user)))))

Abbildung 77: Definition einer Klasse mit Ontolingua [Gruber 1992]

Das Konzept von Ontolingua sieht es vor, Ontologien portabel zu entwerfen und au-tomatisch in die internen Repräsentationssprachen verschiedener Zielsysteme zu ü-bersetzen. Dieser single-source/multiple-translation-Ansatz unterstützt die Entwicklung von common ontologies für beliebige Anwendungsfelder. Ontolingua bietet die Möglich-keit, Ontologien in diverse Zielformate zu übersetzen, darunter LOOM, Epikit und Alger-non sowie die kanonische Form von KIF ohne die Erweiterungen für Ontolingua [Gruber 1992].

7.2.3 Agentenkommunikation Ein Ergebnis des Knowledge Sharing Efforts liegt in der Erkenntnis, dass für eine Kom-munikation zwischen wissensbasierten Systemen, insbesondere Agenten, eine einheitli-che Kommunikationssprache vonnöten ist. Besonders die wachsende Bedeutung von Multiagenten-Systemen während der neunziger Jahre im Zusammenhang mit dem rasant wachsenden Internet machte dies deutlich.

Man kam zu dem Schluss, dass eine Agenten-Kommunikationssprache eine Reihe von Anforderungen erfüllen müsse, um für die Kommunikation geeignet zu sein. Dazu gehört eine einfache, menschenlesbare, und für die Übertragung leicht serialisierbare Form, so-wie eine aus sich selbst heraus verständliche, theoretisch untermauerte, eindeutige Se-mantik. Zudem ist eine wohldefinierte Menge an Kommunikationsprimitiven vonnöten mit ausreichender Mächtigkeit, um beliebige komplexere Interaktionen zwischen Agen-ten auf höherer Ebene zu ermöglichen. Die Sprache selbst sollte dabei sowohl von der für die Kodierung des Nachrichteninhaltes verwendeten Sprache als auch dem darüber lie-genden Transportprotokoll, wie beispielsweise TCP, HTTP oder SMTP unabhängig sein. Eine Nachricht sollte sowohl mittels Peer-to-Peer als auch Multicast- und Broadcast-Kommunikation übertragen werden können, sowohl synchron als auch asynchron. Dies sollte zuverlässig, also frei von Nachrichtenverlusten, ebenso wie sicher, also für dritte Agenten nicht lesbar, vonstatten gehen können. In Bezug auf Geschwindigkeit und benö-tigte Bandbreite muss es möglich sein, effiziente Implementierungen zu entwickeln, die ein einfaches Interface besitzen [Mayfield 1995].

7.2.3.1 Knowledge Query and Manipulation Language (KQML) Ein Ergebnis der Arbeitsgruppe “External Interfaces” des Knowledge Sharing Efforts war die Entwicklung der Kommunikationssprache KQML. KQML steht für Knowledge Query and Manipulation Language und beschreibt sowohl ein Nachrichten-Format als auch ein Nachrichten-Austausch-Protokoll.

Eine KQML-Nachricht besteht aus Content-Layer, Message-Layer und Communication-Layer. Der Content-Layer beschreibt den Inhalt der Nachricht. Unter Berücksichtigung des Prinzips der Trennung von Form und Inhalt abstrahiert KQML dabei von der Forma-tierung der Daten im Content-Teil; Sowohl Binärdaten als auch ASCII-Strings sind mög-

Page 134: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

134 Kollaboration von Agenten

lich. Der Message-Layer bildet den Kern der KQML-Sprache. Hier werden die verschie-denen möglichen Arten zur Interaktion mit anderen Agenten festgelegt. Weiter können Angaben über die verwendete Content-Sprache bzw. verwendete Ontologien gemacht werden, um es Empfänger-Agenten zu ermöglichen, den Nachrichten-Inhalt zu verarbei-ten. Der Communication-Layer dient dem Zweck, Angaben über Kommunikationspara-meter auf niedriger Ebene, wie z.B. Sender, Empfänger, usw. zu machen [Finin 1994].

Abbildung 78 zeigt den schichtenartigen Aufbau einer KQML-Nachricht.

Abbildung 78: KQML-Nachricht

KQML-Nachrichten bestehen aus einem Ausdruck, der den Inhalt beschreibt, welcher in eine Nachricht eingebettet ist, welche wiederum in einen “Umschlag” für die Kommuni-kation eingebettet ist [Jennings 2000].

Allgemein erfolgt die Kommunikation zwischen Agenten über illokutionäre Sprechakte, die ihren Ursprung in der auf Searle zurückzuführenden Sprechakttheorie [Searle 1969] haben. In KQML existiert eine Menge festgelegter Standard-Sprechakte, so genannte Performatives. Eine Nachricht besteht aus genau einem Performative, gefolgt von Name-Wert-Paaren, die der Festlegung weiterer Nachrichten-Parameter dienen. In Abbildung 79 wird beispielhaft der Message-Teil einer KQML-Nachricht dargestellt.

(tell

:sender stock-server

:content (PRICE IBM 14)

:receiver joe

:in-reply-to ibm-stock

:language LPROLOG

:ontology NYSE-TICKS)

Abbildung 79: eine KQML-Nachricht [Finin 1994]

In KQML werden über 30 verschiedene Performatives unterstützt, die in verschiedene Kategorien unterteilt sind (siehe Tabelle 3). Performatives aus der Kategorie “Basic que-ry” dienen beispielsweise dazu, Informationen bei anderen Agenten anzufragen. Mit “Multi-response”- und “Response”-Performatives kann auf Anfragen geantwortet wer-den, über “Generic Informational”-Performatives kann ein Agent Informationen verbrei-ten.

Page 135: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 135

Category Name Basic query evaluate, ask-if, ask-about, ask-one, ask-all Multi-response (query) stream-about, stream-all, eos Response reply, sorry Generic informational tell, achieve, cancel, untell, unachieve Generator standby, ready, next, rest, discard, generator Capability-definition advertise, subscribe, monitor, import, export Networking register, unregister, forward, broadcast, route

Tabelle 3: KQML Performatives [Finin 1994]

KQML legt dabei bestimmte Abfolgen von Sprechakten nahe. So ist es beispielsweise wenig sinnvoll, wenn ein Agent auf eine Anfrage mit dem Performative “ask-if” e-benfalls eine Antwort mit dem Performative “ask-if” erhält. Neben einfachen Kom-munikationsprotokollen, die das Frage-Antwort-Verhalten der Agenten festlegen, unter-stützt KQML die Kommunikation über dritte Agenten, so genannte Facilitators. Ein Fa-cilitator ist ein Agent, dessen Aufgabe lediglich darin besteht, die Kommunikation ande-rer Agenten zu vereinfachen. Dazu bieten Facilitator-Agenten Dienste an, die von ge-wöhnlichen Agenten genutzt werden können. Dies sind beispielsweise Be-nachrichtigungsdienste, die eine Publish/Subscribe-Kommunikation zwischen Agenten ermöglichen; Ein Agent, der an bestimmten Nachrichten-Typen interessiert ist, subskri-biert sich bei einem Facilitator, welcher Nachrichten, die für seine Subscriber von Inte-resse sind, an diese weiterleitet, sobald ihm ein anderer Agent eine entsprechende Nach-richt schickt. Dadurch müssen weder die Sender die Empfänger, noch die Empfänger die Sender Agenten kennen, um kommunizieren zu können. Alternativ dazu kann der Facili-tator-Agent auch Informationen über andere Agenten halten, um einen Agenten bei Be-darf nach einer bestimmten Information oder Dienstnutzung an einen passenden dritten Agenten verweisen zu können.

7.2.3.2 FIPA Agent Communication Language (FIPA ACL) Die FIPA (Foundation for Intelligent Physical Agents) ist eine globale Organisation, die seit 1996 offene Spezifikationen für den Entwurf und die Implementierung interaktiver Agentensysteme entwirft mit dem Ziel, Interoperabilität zu schaffen. Eine Errungenschaft der FIPA ist die Spezifikation der Agentenkommunikationssprache FIPA Agent Commu-nication Language (FIPA ACL). Wie Tabelle 4 erkennen lässt, orientiert sich FIPA ACL syntaktisch stark an KQML.

Parameter Category of Parameters performative Type of communicative acts sender Participant in communication receiver Participant in communication reply-to Participant in communication content Content of message language Description of content encoding Description of content ontology Description of content protocol Control of conversation conversation-id Control of conversation reply-with Control of conversation in-reply-to Control of conversation reply-by Control of conversation

Tabelle 4: FIPA ACL Nachrichten-Parameter [FIPA 2003]

Im Vergleich zu KQML bietet FIPA ACL einige neue Nachrichten-Parameter. Dazu ge-hört insbesondere die Unterstützung so genannter Interaktionsprotokolle, die komplexe Kommunikationsabläufe zwischen zwei oder mehreren Agenten festlegen. Die Notwen-digkeit des Einsatzes von Interaktionsprotokollen liegt in der begrenzten Möglichkeit der

Page 136: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

136 Kollaboration von Agenten

simplen Sprechaktkommunikation, das Verhalten von Agenten zu koordinieren. Schickt ein Agent einem anderen Agenten eine Nachricht, hat er bestimmte Erwartungen an das Antwort-Verhalten des Empfängers der Nachricht. Diese Erwartungen werden allerdings nicht in der Nachricht selbst festgelegt, sondern es muss auf höherer Ebene erfolgen [Bond 1988]. Ein hohes Maß an Koordination ist insbesondere dann nötig, wenn viele Agenten an einer gemeinsamen Problemlösung arbeiten oder Zielkonflikte zwischen A-genten auftreten, die aufgelöst werden müssen. Der Parameter “protocol” dient zum Fest-legen eines Interaktionsprotokolls, der Parameter “conversation-id” referenziert einen bestimmten Ablauf der Interaktion. Es existieren viele von der FIPA entwickelte Interak-tionsprotokolle, beispielsweise für Auktionen, Wahlen, Authentifikation und zum Ver-handeln.

7.3 Fazit und Ausblick Die Anwendungsgebiete für Multiagentensysteme sind vielfältig. Neben den vorge-stellten Anwendungsgebieten aus den Bereichen der Wirtschaft und des Prozeßma-nagments gibt es schon heute viele anderen Anwendungsgebiete. Eines der promi-nentesten Anwendungsgebiete ist der Robocup, bei dem aus Agenten bestehende Fuß-ballmannschaften gegeneinander antreten. Besonders in der nicht durch physikalische und mechanische Grenzen simulierten Liga sind in den letzten Jahren deutliche Fort-schritte gemacht worden.

Auch in der Filmindustrie kommen Multiagentensysteme zum Einsatz. Hier werden in den Spezieleffektschmieden gerne Agenten benutzt, um komplexe chaotische Systeme zu simulieren (Flammen, Wellen, Massenschlachten, Haare, etc.).

Viele andere Gebiete lassen sich auf die vorgestellten Anwendungsgebiete reduzieren. So zum Beispiel die Verkehrsplanung, welche prinzipiell nur ein Spezialfall der Pro-zessplanung ist.

Ein Gebiet wo Multiagentensysteme bislang stark unterrepräsentiert sind, sind die reinen Spiele. Zwar gibt es hin und wieder Ansätze, Autonome Agenten in Spielen zu verwen-den, aber echte Multiagentensysteme (samt Interaktion und Dienstnutzung) sind bislang nicht anzutreffen. Gründe dafür sind erhöhter Aufwand beim Testen durch “echte” Auto-nomie und der hohe Bedarf an Rechenkraft, die Multiagentensysteme derzeit noch benö-tigen.

Es existieren viele verschiedene Ansätze, das Wissen unterschiedlicher Diskursbereiche in eine Form zu bringen, die sich maschinell verarbeiten lässt. In Bezug auf jeden einzel-nen Diskursbereich eignen sich bestimmte Repräsentationsformen besonders gut, andere weniger gut. Deshalb ist es praktisch unmöglich und auch wenig sinnvoll, einen einzigen Standard für den Aufbau beliebiger Wissensrepräsentationen zu schaffen. Repräsentati-onssprachen wie KIF dienen daher in erster Linie dem Zweck, die Übersetzung von Wis-sen zwischen verschiedenen Repräsentationssystemen und damit den Wissensaustausch zu erleichtern.

Der Austausch von Wissen erfordert zudem ein gemeinsames Protokoll, welches von allen Kommunikationspartnern verstanden wird. KQML und FIPA ACL stellen solche Protokolle zur Unterstützung des Wissensaustauschs dar, die sich unabhängig von der zum Transport des Wissens verwendeten Wissensrepräsentation einsetzen lassen. In An-lehnung an die auf Searle zurückzuführende Sprechakttheorie werden Nachrichten auf Basis dieser Protokolle auch als Sprechakte bezeichnet.

Wissensaustausch zwischen unterschiedlichen Systemen gewinnt weiter an Bedeutung, insbesondere in Bezug auf das hier nur am Rande erwähnte kooperative Problemlösen.

Page 137: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 137

Kooperatives Problemlösen kann beispielsweise über so genannte Blackboards erfolgen. Ein Blackboard steht dabei sinnbildlich für einen virtuellen gemeinsamen Speicher (vir-tual shared memory), auf den verschiedene, an der Lösung eines Problems beteiligte, Agenten lesend und schreibend zugreifen können. Ein Agent schreibt ein von ihm ermit-teltes Teilergebnis auf das Blackboard; Dadurch können andere Agenten jederzeit auf die Ergebnisse kooperierender Agenten zugreifen und auf Basis dieser neue Ergebnisse er-mitteln, bis das Gesamtproblem gelöst ist. Je mehr Agenten an einem Problem arbeiten, desto schneller kann auf diese Weise eine Lösung gefunden werden.

Bis zum Eintreten aller mit dem Knowledge Sharing Effort verbundenen Visionen ist es noch ein weiter Weg. Zwar orientieren sich neuere Agenten-Frameworks, unter anderem JACK [Kota 2002] und JIAC[Albayrak 2004] bereits am FIPA-Standard, interoperable Multiagenten-Systeme werden in der Praxis allerdings noch nicht großflächig eingesetzt.

Page 138: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

138 Kollaboration von Agenten

Page 139: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 139

LITERATUR- UND QUELLENVERZEICHNIS

[aboutIT 2003] Dr. Rolf Froböse: IP-Telefonie und ad hoc Netze im Fokus des "Teletraffic", 20.9.03, http://www.aboutit.de/view.php?ziel=/03/32/05.html, 13.09.2004

[Addlesee 2001] Addlesee et. al: Implementing a Sentient Computer System, IEEE Computer, Vol. 34, No. 8, August 2001, S. 50-56, http://www-lce.eng.cam.ac.uk/publications/files/tr.2001.8.pdf, 01.10.2004

[Albayrak 2004] Albayrak, S. http://www.jiac.de, 10/2004

[AR-PDA 2004] Projekt AR-PDA: Ein digitaler mobiler Assistent für VR/AR-Inhalte, Pro-jekthomepage http://www.ar-pda.de [03.10.2004], 2004

[Arvika 2004] Projekt Augmented Reality für Entwicklung, Produktion und Service, Projekt-homepage http://www.arvika.de/www/d/home/home.htm [03.10.2004], 2004.

[Azuma et al. 2001] Azuma, R., Baillot, Y.,Behringer, R.,Feiner, S., Julier, S., MacIntyre, B.: Recent Advances in Augmented Reality. IEEE Computer Graphics and Applications 21, 6 (Nov/Dec 2001), 34-47.

[Barakonyi et al. 2003] Barakonyi, I., Frieb, W., Schmalstieg, D.: Augmented Reality Video-conferencing for Collaborative Work. Vienna University of Technology, 2003.

[BC97] Bevan, Nigel und Curson, Ian: Planning and Implementing User-Centred Design. In: Proceedings of the sixth IFIP conference on human-computer interaction, 1997.

[Berlin Marathon, 2004], http://www.real-berlin-marathon.com/ergebnisse/run/bm04/, 01.10.2004

[BINARY02] How to hack biometrics-hardware, von Zya awl, http://www.computec.ch/dokumente/authentifizierung/

[BIOI00] Vor- und Nachteile der Iriserkennung, Eva Wohlfart, http://www.arlbergnet.com/design/biometrics/iris/fs_iris00.htm

[Bond 1988] Bond, A. und Gasser, L. (Hrsg.): Readings in Distributed Artificial Intelligence. Morgan Kaufmann, 1988.

[Bratko 2001] Bratko, I.: Prolog Programming for Artificial Intelligence. 2001.

[Brauer et al. 2002].Brauer, S., Huffstadt, K.: Human-Computer Interaction. Seminararbeit and der Universität Mannheim, 2002.

[BROMA04] Fingerabdruckerkennung, http://www.bromba.com/knowhow/fingerprint.htm

[BWK04] A. Backes, N. Werner, U.Kuhlen: Effektives Usability Testing, http://www.lichtung.de/WS0304/Pr%E4sentationen/Effektives%20Usability%20Testing_1.ppt

[C´t 2004] Wiegand, D.: Gemischte Gefühle – Computer lernen, einfühlsam zu reagieren. C´t 18/04 SS. 88-93, 2004.

[Corcho et al. 2004] Asuncion Gomez-Perez, Mariano Fernandez-Lopez, Oscar Corcho: On-tological Engineering. Springer 2004

[Daconta 2004] Micheal C. Daconda.: 10 Practical reasons why you need an Ontology. http://www.daconta.net/briefs/why-ontology-general.pdf, 01.10.2004

[Davis 1993] Davis, R., H. Shrobe, et al. 1993. "What is a Knowledge Representation?", AI Magazine (Spring 1993).

Page 140: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

140 Literatur- und Quellenverzeichnis

[Domik 1997] Domik, Gitta, Computergrafik an der Gesamthochschule Paderborn, 1997

[Dou et al. 2004] Dou, D., McDermott, D., Qi, P.: Ontology translation on the semantic web. http://cs-www.cs.yale.edu/homes/dvm/daml/ontomerge_odbase.pdf, 01.10.2004

[DS-Online 2004] Distributed Systems Online - Lee W. McKnight und James Howison: Wi-reless Grids, http://dsonline.computer.org/0407/f/w4gei.htm, 01.10.2004

[Duden 1996]: Günter Drosdowski [Hrsg.]: Der Duden, Band 1 – Rechtschreibung der deut-schen Sprache, 21. Auflage, Bibliographisches Institut & F.A. Brockhaus AG, Mann-heim 1996

[Dust Networks, 2004], http://www.dust-inc.com/, 26.09.2004

[e/Home 2004] Tecchannel: Fraunhofer Ad-Hoc Netz mittels Bluetooth, 18.8.04, http://www.tecchannel.de/news/wissensschafts-_technik/16875/, 13.09.2004

[Eng, 2004] Eng, P.: Small Dusty Networks, 'Smart Dust' Creates Tiny, Automatic, Wireless Communication Net. AbcNews, 23.09.2004, http://abcnews.go.com/sections/SciTech/FutureTech/smart_dust_futuretech_040923.html, 01.10.2004

[EPC, 2004] EPCglobal, Inc., http://www.epcglobal.de/epcglobal/Inhalt/e52/, 01.10.2004

[Eyetracking 2004] Eyetracking, letzte Prüfung 09.10.04, http://www.eyetracking.com

[Fikes 1991] Fikes et. al. Knowledge Sharing Technology -- Project Overview --, Knowledge Systems Libarary, Stanford University, November 1991

[Finin 1994] T. Finin et.al.: "KQML as an Agent Communication Language ", 3rd Inter-national Conference on Information and Knowledge Management (CIKM94), ACM Press, December 1994

[Finkenzeller, 1998] Finkenzeller, K.: Kontaklose Chipkarten. Funkschau, Heft 19/98, http://www.rfid-handbook.de/german/chipkarten.html, 27.09.2004

[FIPA 2003] FIPA ACL Message Structure Specification. Foundation for Intelligent Physical Agents, December 2003

[FoeBuD Blockertags, 2004] FoeBuD e.V: RFID Blockertags, http://www.foebud.org/rfid/blockertags/de, 02.10.2004

[FoeBuD Metro, 2004] FoeBuD e.V:RFID Metroskandal, http://www.foebud.org/rfid/metroskandal/de, 02.10.2004

[Fraunhofer ESK 2004] Fraunhofer Einrichtung Systeme der Kommunikationstechnik: Draht-lose Ad-hoc-Netze, August 2004, http://www.esk.fraunhofer.de/demozentrum/pdf/PDB_ANIB.pdf, 13.09.2004

[Fründ 2003] Fründ, J.: Augmented Reality. Fachbereich Rechnerintegrierte Produktion an der Universität Paderborn, Projekt AR-PDA http://wwwhni.uni-paderborn.de/rip/vr/ar-pda/index.php3 [03.10.2004], 2003.

[Genersereth 1992] Genesereth, M. R., Fikes, R. E. et al. Knowledge Interchange Format Ver-sion 3 Reference Manual, Logic-92-1, Stanford University Logic Group, 1992.

[GEO 2004] GEO, letzte Prüfung 15.09.04 http://www.geo.de/GEO/medizin_psychologie/

[GES01] Gesichterkennung II Eigenfaces, Gerhard Schromm Martin Halder http://www.informatik.uni-ulm.de/ni/Lehre/WS01/HS-Biometrische Syste-me/ausarbeitungen/eigenfaces.pdf

Page 141: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 141

[Gruber 1992] Gruber, T.R. (1992). ONTOLINGUA: A Mechanism to Support Portable On-tologies, technical report, Knowledge Systems Laboratory, Stanford Univer-sity, Stanford, United States.

[Gruber 1993] Gruber, T.: A translation approach to portable ontology specification. In: Knowledge Acquisition 5.

[Gruber 1995] Gruber, T.R. (1995). Toward Principles for the Design of Ontologies Used for Knowledge Sharing, Int. Journal of Human-Computer Studies, Vol. 43, pp.907-928

[Guarino 1998] Guarino, N.: Formal Ontology in Information Systems. In: 1st International Conference of Formal Ontology in Information Systems.

[Hartley 1997] Hartley, R.T. and Barnden, H.D..: Semantic Networks: Visualiza-tions of Knowledge. In: Trends in Cognitive Science, 1(5), 1997.

[Heise 1999] Der Heise Verlag, Mechatronik News. Informationen des Bayerischen Kompe-tenznetwerks für Mechatronik, 2004, letzte Prüfung: 15.09.2004 http://www.heise.de/kiosk/archiv/ct/1999/19/236/@00000@/art.htm

[Heise 2004] Heise Newsticker: Remote Desktop Sitzungen auf dem PDA, 29.9.04, http://www.heise.de/newsticker/result.xhtml?url=/newsticker/meldung/51612&words=remote%20Desktop, 01.10.2004

[Heise Metro, 2004] Heise Newsticker: Metro zieht RFID-Karte zurück, http://www.heise.de/newsticker/meldung/45062, 01.10.2004

[Hendrich 2004] Hendrich, Norman, Skript ohne Titel, Vorlesung Medientechnik an der Uni-versität Hamburg, letzte Prüfung 09.10.04, Internetadresse: http://tech-www.informatik.uni-hamburg.de/lehre/ss2004/vorlesungen/medientechnik

[HER00] Herda, Nils: Formale Repräsentation und automatisierte Generierung von Benut-zungsoberflächen. Dissertation, UniversitÄat Bamberg, Bamberg, 2000.

[Hinn 2004] Hinn, R.: Kooperatives Arbeiten in Augmented Reality. Diplomarbeit an der Universität Paderborn, 2004.

[Internet-Lexikon, 2004] letzte Prüfung: 05.09.04, Internetadresse: http://www.wissen.de

[Interrante 2004] Interrante, V.: Mixed and Augmented Reality, Vorlesungsfolien am Institute of Technology an der University of Minnesota, 2004

[ISO9241] ISO 9241 Abschnitt 10 und 11

[Jennings 2000] N.R. Jennings, T.J. Norman, P.Faratin, P. Obrien und J.L. Alty : Implemen-ting a Business Process Managmentsystem using ADEPT : A Real-WOrld Study, Inter-national Journal of Applied Artifial Intelligence 14(2), S. 421-463, 2000

[JiniAPI 2003] Jini(TM) Technology Starter Kit New Specifications http://wwws.sun.com/software/jini/specs/newapi2_0.pdf

[JiniApp 2001] The Application of Jini™ Technology to Enhance the Delivery of Mobile Services, Dezember 2001

[JiniComm] Jini-Community, http://www.jini.org

[JiniGuideJan 2004] Jan Newmarch's Guide to Jini Technologies, Version 3.05, August 2004 http://pandonia.canberra.edu.au/java/jini/tutorial/Jini.html

[JiniHome] Jini Home Page http://www.sun.com/jini/index.html

[JiniNetTech] Jini Network Technology http://wwws.sun.com/software/jini/whitepapers/jini-datasheet0601.pdf

Page 142: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

142 Literatur- und Quellenverzeichnis

[JiniOverview] Jini Technology Architectural Overview http://wwws.sun.com/software/jini/whitepapers/architecture.html

[JiniSpe] Jini 2.0 Spezifikation http://java.sun.com/products/jini/2_0index.html

[JiniSpecs] http://wwws.sun.com/software/jini/specs/index.html

[JiniTech] Jini Technology http://wwws.sun.com/software/jini/jini_technology.html

[JiniUnder] Understanding Jini http://www.computerworld.com/softwaretopics/software/appdev/story/0,10801,95673,00.html

[JXTAArch] JXTA Architektur http://wwws.sun.com/software/jxta/JXTA5.pdf

[JXTABrendon 2002] Brendon J. Wilson, JXTA http://www.brendonwilson.com/projects/jxta/pdf/JXTA.pdf

[JXTAExpeer] Expeerience: a Jxta middleware for mobile ad-hoc networks http://www.jxta.org/research/univ_catania.pdf

[JXTAInColla] Project JXTA: An Open, Innovative Collaboration http://www.jxta.org/project/www/docs/OpenInnovative.pdf

[JXTAPapers] JXTA Whitepapers http://www.jxta.org/white_papers.html

[JXTAProj] JXTA Projects Home http://apps.jxta.org/servlets/ProjectHome

[JXTAVNet] Project JXTA Virtual Network http://www.jxta.org/project/www/docs/JXTAprotocols_01nov02.pdf

[Kaffels 1999] Kaffels, Dr. Franz-Joachim: Lokale Netze, MITP-Verlag GmbH, Bonn 1999

[Kahn, 2000] Kahn, J., Katz, R., Pister, K.: Emerging Challenges: Mobile Networking for “Smart Dust”. September 2000

[Kapoor 2002] Kapoor, A.: Automatic Facial Action Analysis. Massachusetts Institute of Technology, 2002.

[Kauff et al. 2002] Kauff, P., Schreer, O., Tanger R.: VIRTUAL TEAM USER ENVIRONMENTS – A MIXED REALITY APPROACH FOR IMMERSIVE TELE-COLLABORATION. Heinrich-Hertz-Institut in Berlin, 2002.

[KD04] KommDesign.de, http://www.kommdesign.de/texte/din.htm

[Kießling 2003] Kießling, W.: Cosima B2B – E-Procurement Technologie der nächsten Gene-ration, Projekthomepage http://www.mycosima.de/ [03.10.2004], 2003

[Kohonen 1989] T. Kohonen. Self-Organization and Assoziative Memory. Springer-Verlag, New York, NY, 3rd edition, 1989

[Kosch 2004] Timo Kosch, BMW Group Forschung und Technik: Ad-hoc-Netze in BMW-Fahrzeugen, 26.3.04, http://www.ftm.mw.tum.de/zubehoer/pdf/Tagung_AS/18_kosch.pdf, 02.10.2004

[Kota 2002] R. Kota (2002): "Survey report on JACK: a framework tool for building multi-agent software systems for CMIF projects", Center for Multi-source Information Fusion (CMIF), State University of New York at Buffalo, USA

[Kühnapfel 2000] Kühnapfel, U., Hapti-cIO : Haptisches Bediengerätesystem für Virtual-Reality Trainingssysteme in der Minimal-Invasiven Chirurgie, Forschungszentrum Karlsruhe, 2000

Page 143: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 143

[Larisch 1998] Larisch, Dirk: Netzwerkpraxis für Anwender, 2. Auflage, Carl Hanser Verlag, München 1998

[Levesque 1987] Levesque, H. J. and Brachman, R. J. (1987). Expressiveness and tractability in knowledge representation and reasoning. Computational Intelligence, 3:78--93.

[MANET] IETF MANET group http://www.ietf.org/html.charters/manet-charter.html

[MARCR00] Grundlagen biometrischer Authentifikation, Marc Ruef IT-Security Spezialist, http://www.computec.ch/dokumente/authentifizierung/

[MARTINJ03] Anwendung von Wavelets für die biometrische Authentikation, http://www.polyboy.net/akademisches/diplomarbeit/html/node15.html

[Mayer 2002] Manuel Mayer & Lutz Küderli: Peer to Peer und andere Ad-Hoc Dienste, Ok-tober 2002, http://www.nm.informatik.uni-muenchen.de/Hauptseminare/ws0203/handouts/Folien.pdf, 02.10.2004

[Mayfield 1995] James Mayfield, Yannis Labrou, and Tim Finin. Desiderata for agent com-munication languages. In Proceedings of the 1995 AAAI Spring Symposiumon Informa-tion Gathering in Distributed Environments, March1995.

[McKnight 2004] Lee W. McKnight, James Howison, Scott Bradner: Wireless Grids: Distri-buted Resource Sharing by Mobile, Nomadic, and Fixed Devices, Juli 2004, http://informatik.uibk.ac.at/users/c703228/lehre/ws03/seminar/Web-Grid-Programming.pdf, 01.10.2004

[Metz, 2004] Metz, C.: Get Out the Mote. PC Magazine, 13.07.2004, http://www.pcmag.com/article2/0,1759,1610346,00.asp, 26.09.2004

[Milgram 1994] Milgram, P., Takemura, H., Utsumi, A., Kishino, F.: AUGMENTED REALITY: A CLASS OF DISPLAYS ON THE REALITY-VIRTUALITY CONTINUUM. SPIE Vol. 2351, Telemanipulator and Telepresence Technologies, 1994.

[MS-P2P SDK 2004] Microsoft MSDN Library, Grundlagen zur P2P Technologie, http://msdn.microsoft.com/library/default.asp?url=/library/en-us/p2psdk/p2p/portal.asp, 07.09.2004

[MS-SP2 2004] Microsoft – The Cable Guy: New Networking Features in Microsoft Win-dows XP Service Pack 2, Januar 2004, http://www.microsoft.com/technet/community/columns/cableguy/cg0104.mspx, 07.09.2004

[Murphy 1998] A.L. Murphy, G.-C. Roman, G. Varghese, “An Exercise in Formal Reasoning about Mobile Communications”, Proceedings of the Ninth International Workshop on Software Specifications and Design, IEEE Computer Society Technical Council on Software Engineering, IEEE Computer Society, Ise-Shima, Japan,April 1998, pp.25-33, zitiert bei Benoît Garbinato, Philippe Rupp: From Ad Hoc Networks to Ad Hoc Applica-tions, http://www.hec.unil.ch/yp/Terminodes/papers/03_garbinato.pdf, 02.10.2004

[Nie93] Nielsen, Jakob: Usability Engineering. Boston, San Diego, New York, London, Syd-ney, Tokyo, Toronto: Academic Press, 1993.

[NIV83] Jürg Nievergelt: Die Gestaltung der Mensch-Maschine-Schnittstelle. In: Informatik-Fachbericht 72: Sprachen für Datenbanken, Hrsg.: J.W. Schmidt, Springer Verlag 1983

[Noy 2001] Natalya F. Noy, Deborah L. McGuinnes: A Guide to creating your first ontology. Stanford Knowledge Systems Laboratory Technical Report KSL-01-05 and Stanford Medical Informatics Technical Report SMI-2001-0880, March 2001, 01.10.2004

Page 144: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

144 Literatur- und Quellenverzeichnis

[Oppermann 2003] Oppermann, L.: Interaktionsflächen in Augmented Reality. Diplomarbeit an der Hochschule Harz, August 2003.

[Paelke 2004] Paelke, V.: Vorlesung: Augmented Reality. TU-Hannover, 2004.

[PFITZ01] A. Pfitzmann: Datensicherheit und Kryptographie Script, TU Dresden, WS2000/2001

[Phantom 2004] SensAble Technologies, PHANToM, letzte Prüfung: 08.09.04 http://www.sensable.com

[Philipssen 1998] Philipssen, Nils, Virtuelle Realität an der Fachhochschule TFH Esslin-gen, 1998, letzte Prüfung: 05.09.04 http://www.it.tfh-esslingen.de/~schmidt/vorlesungen/vr/seminar/ws9899/virtuellerealitaet.html

[Presseportal 2003] Presseportal: Ad-hoc-Netze in BMW-Fahrzeugen zur Stauvermeidung, 25.9.03, http://www.presseportal.de/story.htx?nr=484485, 13.09.2004

[ProDis 2004] http://www.felix3d.com/all_index.php?url=german_display.html

[Quarks, 2004] Quarks & Co. WDR. Sendung vom 22.06.2004, http://www.quarks.de/dyn/18314.phtml, 01.10.2004

[Rabiner 1986] Rabiner, L. and Juang, B. An introduction to hidden Markov models. IEEE ASSP Magazine, p. 4--16, Jan. 1986.

[Raskar et al. 1998] Raskar, R., Welsh, G., Cutts,M., Lake, A., Stesin, L., Fuchs, H.: The Of-fice of the Future: A Unified Approach to Image-Based Modeling and Spatially Immer-sive Displays, o.O., 1998.

[RAVEN04] Neue Überwachungssysteme mit 3-D Gesichtsbiometrie, http://rabenhorst.blogg.de/eintrag.php?id=265#comments

[Rieger 2001] Rieger, T.: Avatare als Userinterface. Forschungs- und Arbeitsbericht des Fachgebiets »Graphisch-Interaktive Systeme« der TU Darmstadt, 2001.

[SAMERA02] Biometrische Authentikation, Samer Abdalla und Timo Abschinski, http://agn-www.informatik.uni-hamburg.de/papers/doc/

[Sanfilippo 2003] Sanfilippo, L.: Einbinden von Eingabegeräten zur Manipulation visualisier-ter 2D- und 3D- Daten, sowie die Integration von Funktionen zum Austausch der Daten, in das OfuturO- Projekt. Diplomarbeit an der Fachhochschule Köln, 2003.

[Schubert 2003] Schubert, Tony, Haptische Displays an der TU-Chemnitz, 2003, letzte Prü-fung: 10.10.04, http://www-user.tu-chemnitz.de/~scton/anwend/flugsim.html

[SE03] Dr. K. Leitner: Vorlesung Softwareergonomie (Folien und Skripte), http://apa.cs.tu-berlin.de/

[Searle 1969] J. R. Searle. Speech Acts. 1969

[SIL03] Biometrie-Projekt am Flughafen abgeblasen, http://www.silicon.de/cpo/news-itsecurity/detail.php?nr=8218

[SK00] Steve Krug: Don't Make Me Think - A Common Sense Approach to Web Usability. - Indianapolis: Macmillan, 2000

[Sowa 1987] Sowa, J.F.: Semantic Networks. In: Encyclopaedia of Artificial Intelli-gence, New York: Willey and Sons, 1987

[Spacemouse 2004] SPI Spacemouse, letzte Prüfing 05.09.04 http://www.spi.de

Page 145: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

Enhanced User Interface and Pervasive Computing 145

[Spirit, 2001] AT&T Research Cambridge: Sentient Computing Project Home Page, http://www.uk.research.att.com/spirit/, 02.10.2004

[Steinaecker 2004] Steinaecker, J.V. Logistikorientierte Produktionsplanung und -steuerung: Gegenstand, Konzepte und Kritik. http://www.lis.iao.thg.de/steinaec/veroeffe/pps/pps.htm 07/2004

[Studer 2004] Studer R., Oppermann H., Schnurt H.: Bedeutung von Ontologien für das Wis-sensmanagement. http://www.ontoprise.de/documents/Bedeutung_von_Ontologien_fuer_WM.pdf, 01.10.2004

[Studierstube, 2004] Handheld Augmented Reality AR on truly Mobile Devices, Studierstube Augmented Reality Project, Projekthomepage http://www.studierstube.org/index.html [03.10.2004], 2004.

[Sure 2004] Sure, Y.: Ontologien. http://wiman.server.de/servlet/is/1504/, 01.10.2004

[SUS04] Serco Usability Services, http://www.usability.serco.com/papers/whatis92.pdf

[Suthau et al. 2002] Suthau, T., Vetter, M., Hassenpflug, P., Meinzner, H.: Konzeption zum Einsatz von Augmented Reality in der Leberchirurgie. Technische Universität Berlin und Deutsches Krebsforschungszentrum, 2002.

[Theisen 2002] Theisen, M.: Wissenschaftliches Arbeiten. 11. Auflage. Vahlen, 2002.

[Thissen 2001] Thissen, S.: Jetzt gibt’s was aufs Auge - Tragbare Micro-Displays auf dem Vormarsch. First Surf http://www.firstsurf.com/thissen0103_t.htm [12.10.2004], 2001

[TinyOS, 2004] TinyOS Project, http://www.tinyos.net/, 01.10.2004

[TÜV-R04] TÜV Rheinland: http://www.tuev-rheinland.de

[TWINT02] Fingerabdrücke von Zwillingen, Florian Bauer, http://www.arlbergnet.com/design/biometrics/fingerprints/hp_fingerprints02.htm#222

[UG04] U.S. Department of Health and Human Services, http://usability.gov/pdfs/guidelines_book.pdf

[UIE04] User Interface Engineering; http://www.uie.com

[Universität für die Bundeswehr München 2004] Arbeitswissenschaften an der Universität für die Bundeswehr München, 2004, letzte Prüfung: 15.09.04 http://www.unibw-muenchen.de/campus/LRT11/de/Technische%20Ausstattung/ForceFeedback/

[Unterstein 2001] Unterstein, K.: Ontologiebasierte Wissensextraktion. 2001 http://www-ai.cs.uni-dortmund.de/LEHRE/PG/PG402/seminar/OWE_2001.pdf, 01.10.2004

[USAB00] Usability of Biometrics in Relation to Electronic Signatures, Dirk Scheuermann, Scarlet Schwiderski-Grosche, Bruno Struif, http://www.bi.fraunhofer.de/publications/report/0118/

[VGB03] Verwaltungs-Berufsgenossenschaft: Nutzungsqualität von Software, BC Verlags- und Mediengesellschaft, Hamburg, 2003. gefunden: http://www.usability-labor.de

[Voß 2003] Voß, J.: Modellierung von Ontologien. http://www-user.tu-chemnitz.de/~voj/epub/ontologien-modellieren2003/ontologien-modellieren2003.pdf, 01.10.2004

[Wagner et al. 2003] Wagner, D., Schmalstieg, D.: First Steps Towards Handheld Augmented Reality. Vienna University of Technology, 2003.

Page 146: ENHANCED USER INTERFACE AND PERVASIVE COMPUTING … · ENHANCED USER INTERFACE AND PERVASIVE COMPUTING Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf

146 Literatur- und Quellenverzeichnis

[Warneke, 2001] Warneke, B., Last, M., Liebowitz, B., Pister, K.: Smart Dust: Communica-ting with a Cubic-Millimeter Computer. IEEE 2001

[Warneke, 2004] Warneke, B.: Smart Dust, http://www-bsac.eecs.berkeley.edu/archive/users/warneke-brett/SmartDust/, 01.10.2004

[Weiser, 1991] Weiser, M.: The computer of the 21st Century. Scientific American 265

[WiInWi 2004] http://www.innovations-report.de/html/berichte/veranstaltungen/special-3244.html

[Wikipedia Pervasive Computing, 2004] Wikipedia: Pervasive Computing, http://de.wikipedia.org/wiki/Pervasive_Computing, 01.10.2004

[Wikipedia RFID, 2004] Wikipedia: RFID, http://de.wikipedia.org/wiki/RFID, 01.10.2004

[Wohltorf 2003] Wohltorf, J.: Dokumentvorlage für das Kompaktseminar der Deutschen Te-lekom AG an der Technischen Universität Berlin. Arbeitspapier, November 2003.

[Wolff 2002] Wolff, Christian, Innovative Displays und Interfaces an der TU Chemnitz, Me-diengestaltung Praktikum, 2002, letzte Prüfung: 15.09.2004 http://www-user.tu-chemnitz.de/~klti/Praktikum/index.html

[Zwisler 1998] Zwisler, Reiner, Virtuelle Realität und die Rolle der Haptik, an der Uni-versität Regensburg, 1998, letzte Prüfung: 04.09.04 http://www.farbpsychologie.de/haptics/haptics.html