Upload
dangphuc
View
214
Download
0
Embed Size (px)
Citation preview
Beiträge aus Forschung und Entwicklung
der Fachhochschule Darmstadt - University of Applied Sciences
Nr. 18 – Juli 2004
Querschnitt
Beiträge aus Forschung und Entwicklung
der Fachhochschule Darmstadt - University of Applied Sciences
Querschnitt
Kein Fehler im System
4
Erweitertes blended Learning 8
Von ELAT zu Atlantis University
Prof. Dr. Udo Bleimann,
Fachbereich Informatik;
Prof. Dr. Horst Röder,
Fachbereich Elektrotechnik und Telekommunikation;
Ulrich Gojny, Ingo Stengel,
Institut für graphische Datenverarbeitung (IgDV);
Angela Leichtweiß, Prof. Dr. Gerhard Knorz,
Fachbereich Informations- und Wissensmanagement
Zivilgesellschaft 16
Politische Jugend bildung auf Bundesebene evaluiert
Prof. Dr. Achim Schröder,
Nadine Balzter, Dipl.-Sozialpädagogin,
Thomas Schroedter, Dipl.-Pädagoge,
Fachbereich Sozialpädagogik
Inhalt
5Querschnitt Juli 2004
Siebrechen mit aero -hydraulischer Reinigung 24
Prof. Dr.-Ing. habil. Jochem Unger, Dipl.-Ing. Alexander Russ,
Fachbereich Maschinenbau
Feldeinflüsse und Impulsfluss in Lösungsmitteln 30
Realer Hintergrund eines komplexen Themas der
physikalischen Chemie
Prof. Dr. Robert Fleischmann,
Fachbereich Chemie- und Biotechnologie
Determinismus 44
Leitidee in Wissenschaft und Gesellschaft
Priv.- Doz. Dr. habil. Angelika Karger
Wärmeschutz im Wohngebäudebestand 56
Fallstudie zur Sanierung einer unter Denkmalschutz stehenden
Wohnbebauung in Darmstadt unter bauphysikalischen und
ökologischen Gesichtspunkten
Prof. Dr.-Ing. Jürgen Spittank,
Fachbereich Bauingenieurwesen
Chemie – nicht erst ab Klasse 8 68
Projekte im „Jahr der Chemie“
Prof. Dr. rer. nat. Volker Wiskamp,
Fachbereich Chemie- und Biotechnologie
Projekte 72
Diplomarbeiten 128
6
Über die Autoren 142
Danksagung 146
Impressum 148
Titelbild: Piezomotor, Explosionszeichnung
(Daimler Chrysler Forschungszentrum Frankfurt).
Siehe auch unter Projekt „Innovative Piezomotor-Ansteuerung“ ab Seite 98.
8
1. Einführung
Das Institut für graphische Datenverar-
beitung (IgDV) der Fachhochschule Darm-
stadt begann im Jahre 1988, den Einsatz
neuer Medien in der Hochschullehre zu
unterstützen.
Die Kooperationen mit der Universität der
Bundeswehr und der Cornell University
(USA) führten im Jahre 1992 zu dem interdis-
ziplinären, europäischen Verbundprojekt
SOCRATES (Software Package for Comple-
mentary Research And Teaching in Enginee-
ring Science), bei dem das IgDV die Projekt-
leitung hatte. Die Cornell University stellte für
dieses Projekt Experimentierumgebungen,
mit denen Vorgänge in den Ingenieurwissen-
schaften simuliert werden können, zur Verfü-
gung. Diese Software wurde im Rahmen des
EU-Projekts auf PCs weiterentwickelt und
danach an über sechzig Instituten in elf euro-
päischen Ländern eingesetzt.
Im IgDV wurde ein virtuelles Labor für
Telekommunikationssysteme „DCSS“ ent-
wickelt. DCSS (Digital Communication Simu-
lation System) erhielt 1996 den European
Academic Software Award und 1997 den
Multimedia Transfer Preis.
Auf Grundlage dieser Vorarbeiten und
der Projekte mit der University of Plymouth
auf dem Gebiet der Sicherheit in virtuellen
Universitäten und der Beijing University of
Post and Telecommunication auf dem Gebiet
Netzwerktechnologie wurde 2001 das Ver-
bundprojekt „2MN - Module für die multi-
mediale netzbasierte Hochschullehre“ kon-
zipiert.
2. Die Plattform ELAT (Environment for Learning And Teaching)
Das Hauptziel des 2MN-Projektes lag in
der Entwicklung von verschiedenen Kursin-
halten für e-Learning. Da keine e-Learning
Plattform unseren Anforderungen genügte,
war die Entwicklung einer eigenen Plattform,
in unserem Fall des Environment for Learning
and Teaching (ELAT), notwendig.
Die wichtigsten Faktoren, die bei der Ent-
wicklung der ELAT-Software berücksichtigt
wurden, sind:
Prof. Dr. Udo Bleimann, Fachbereich Informatik;
Prof. Dr. Horst Röder, Fachbereich Elektrotechnik und Telekommunikation;
Ulrich Gojny, Ingo Stengel, Institut für graphische Datenverarbeitung (IgDV);
Angela Leichtweiß, Prof. Dr. Gerhard Knorz, Fachbereich Informations- und
Wissensmanagement
Von ELAT zu Atlantis University
Erweitertes blended Learning
9Querschnitt Juli 2004
Bild 1: ELAT –
das User Interface
die Benutzerfreundlichkeit der Mensch-
Computer Schnittstelle;
die Unterstützung von Gruppenarbeiten
durch den Einsatz adäquater Kommuni-
kationsmöglichkeiten;
die Unterstützung von didaktischen
Szenarien;
die bereits entwickelten bzw. sich
entwickelnden Standards im e-Learning-
Bereich;
keine langfristige Abhängigkeit von
proprietären Formaten;
die Herstellerunabhängigkeit
(Open Source Produkte);
die Plattformunabhängigkeit der
Software (Einsatz von Java und XML).
Die ELAT Architektur basiert auf einer
traditionellen Client-Server-Architektur und
ist modular aufgebaut. Die wichtigsten Funk-
tionen des Client umfassen ein An zeigemodul
für Kurse, welches den Einsatz der unter-
schiedlichsten Medien erlaubt und ein Auto-
ring-Modul, das ein übersichtliches Autoring-
Tool implementiert. Die Verwaltung der
verschiedenen Benutzer und Gruppen ist mit
Hilfe eines Administrations-Moduls möglich.
Zusätzlich kann jeder Benutzer wichtige
Termine in einem Kalender verwalten. Zur
Kommunikation zwischen den einzelnen
Benutzern steht ein Nachrichten-Modul
(Messaging) mit der Möglichkeit, Buddy -
listen (Mini-Mailinglisten) zu definieren, zur
Ver fügung. Des weiteren ist ein Forum-Modul
implementiert worden (vgl. Bild 1). Der
lokale Cache ermöglicht den Offline-Betrieb.
Im Design der Benutzerschnittstelle spielt
die Einfachheit der Nutzung eine große
Rolle. Dabei können fast alle Funktionen über
die rechte Maustaste erreicht werden. Hier
stehen nur die notwendigsten Funktionen zur
Verfügung. Die Abläufe sind mit Hilfe von
Metaphern intuitiv gestaltet, z.B. reduziert
sich das Erstellen eines Kurses auf ein „Klötz-
chenschieben“ von vorgefertigten „Wissens-
bausteinen“ (WB) auf einer oder mehreren
Zeitschienen. Diese Wissensbausteine wur-
den in XML-Format geschrieben und ent-
sprechen dem Learing Object Metadata
Standard (LOM). Diese WBs können leicht
wiederverwendet und bearbeitet werden.
Sie bilden ein Netzwerk von Wissensbau-
steinen in ELAT.
Die ELAT-System-Architektur (vgl. Bild 2)
besteht aus einem Front- und einem Backend.
Das Frontend besteht aus folgenden Modu-
len:
10
Das Applikations-Starter-Modul wird für
das Starten neuer Applikationen benötigt.
Das Text/Bild-Modul ist für die Darstel-
lung der beiden genannten Medien
imple mentiert. Zum Einsatz kommt der
ICE Reader, der die XML-Daten als
HTML darstellt.
Die Audio/Video-Komponente sorgt für
die Darstellung der MOV-Dateien mit
Hilfe einer Quicktime Komponente.
Das Organisations-Modul bearbeitet
Daten die sich z. B. auf Tests oder
Meetings beziehen.
Das Authoring-Modul implementiert ein
Tool, das das Erstellen von Kursen unter-
stützt.
Das Messaging-Modul liefert eine Infra-
struktur zur Kommunikation zwischen den
verschiedenen Nutzern des Systems.
Das Forum-Modul implementiert ein
internes News-System.
Das Administrations-Modul erlaubt das
Verwalten von Benutzern und Benutzer-
gruppen
Ein lokaler Cache in jedem Client erlaubt
die Nutzung der offline verfügbar
gemachten Kurse.
Das Backend besteht aus drei wichtigen Kom-
ponenten:
Der ELAT-Logic-Server implementiert die
Logik des Gesamtsystems und nutzt zur
Bild 2: ELAT-
System-
Architektur
Admin Modul Text/Bild Modul Lokaler Cache
Organisations Modul Audio/Video Modul Messaging Modul
Applikation Starter Authoring Modul Forum Modul
Java Interface SOAP
RTP Java Interface FTP, SMTP, SMS SOAP
Streaming Server ELAT Logic Server + Extensions
Java Interface
Speicher statischer Daten
XML Multimedia Datenbank
Frontend
Backend
11Querschnitt Juli 2004
Kommunikation unterschiedliche Proto-
kolle (SOAP, HTTP(S), SMTP, SMS, FTP)
und Schnittstellen (hauptsächlich die Java-
Schnittstelle). Dieser Dienst setzt auf die
Applikationsserversoftware JBOSS auf.
Dabei hat sich das SOAP-Protokoll als
einfaches Mittel zum Transfer von XML-
Daten erwiesen. Leider lässt die Per-
formance zu wünschen übrig.
Die multimediale Datenbank wurde mit
Hilfe einer Tamino-XML-Datenbank imp-
lementiert. Hier werden Informationen
wie User-IDs, Informationen zur Verwal-
tung der unterschiedlichen Verbindun-
gen, statistische Daten, Inhalte (wie z. B.
Kurse) gespeichert. Vor einem Jahr wur-
den die Daten noch in einem Filesystem
gehalten, um eine gute Performance zu
garantieren. In der Zwischenzeit sind
die Zugriffe auf die Datenbank optimiert
worden. Alle Daten wurden inzwischen
in der Datenbank abgelegt.
Der Streaming-Server liefert Streams in
Apple-Quicktime-Technologie an den
Client aus. Hierzu wird das RTP-Protokoll
benutzt.
Um den Einsatz von Simulationssoftware,
die nur für eine gewisse Anzahl von Benut-
zern freigegeben werden soll, zu ermög-
lichen, wird ein Citrix-Server benutzt. Dieser
Server liefert eine Fernkonsolensitzung,
in der die Software gestartet werden kann.
Die Simulationssoftware läuft somit auf dem
Server, und ihre Ausgabe wird auf dem Bild-
schirm des Clients visualisiert.
Insgesamt stellt ELAT eine Lernplattform
dar, die mit aktueller und breit verfügbarer
Technologie eine gut nutzbare Schnittstelle
für unterschiedlichste Benutzer bereitstellt.
3. Lehrmaterial in ELAT
An die Autoren werden durch die digitale
Präsentation und Distribution der Lehrinhalte
in anderem Maße Anforderungen gestellt,
als dies bei der konventionellen Lehre der
Fall ist. Virtuelle Lehrangebote werden in
der Regel in einem Spannungsfeld von inhalt-
lichen, pädagogischen, graphisch-ästheti-
schen und technischen Anforderungen ent-
wickelt und nicht zuletzt durch wirtschaftliche
Aspekte determiniert. Im Folgenden wird
kurz auf die Produktion von Lehrmaterial für
ELAT und die Integration dieser Inhalte in die
Lernplattform eingegangen.
3.1 Medienadäquate Umsetzung von
Lehrstoff
Bevor das Lehrmaterial in ELAT gestellt
wird, sollte eine medienadäquate Aufberei-
tung der Inhalte stattfinden, denn es scheint
nur bedingt sinnvoll, bereits vorhandenes
Material aus herkömmlichen Lehrveranstal-
tungen, z.B. rein textbasierte Skripte, un -
modifiziert in die Lernplattform zu stellen.
Aus Gründen von Strukturierung und späte-
rer Navigation wie auch aufgrund der spezi-
ellen Rezeptionsbedingungen am Bildschirm
ist eine Modularisierung und Modifizierung
des Lehrstoffes erforderlich1. So ist beispiels-
weise festzulegen, welche Inhalte durch
welche Medienformate möglichst optimal
dargestellt werden können. Im Unterschied
zu einem Vorlesungshandout kann eine multi-
mediale Lerneinheit in ELAT neben Texten
und Grafiken z.B. auch Videos und Animatio-
nen enthalten und auf externe Dokumente
im WWW oder auf komplexe Simulations-
umgebungen verweisen.
Innerhalb des Projektes 2MN wurden
Empfehlungen zur Gestaltung von Lehrmate-
rial (z.B. zur Modularisierung von Texten)
gesammelt und den Autoren zur Verfügung
gestellt. Diese Empfehlungen sollen länger-
fristig in einem Autorenhandbuch zusammen-
gefasst werden.
3.2 Die technische Umsetzung von
Lehrmaterial in XML
Lehrmaterial, welches in ELAT importiert
werden soll, muss – wie weiter oben be -
schrieben – in vorgegebenen Formaten
(XML, JPG, MOV usw.) vorliegen. Während
Grafiken hierfür problemlos in Standard-
grafikprogrammen bearbeitet und im richti-
gen Format gespeichert werden können,
erwies sich in der Anfangszeit des Projektes
die Umwandlung von textbasiertem Lehr-
material (z.B. von Worddokumenten) in das
1
Vgl. Gerdes, H.
(2003) Aufbereitung
von Lehrmaterial
für Online-Seminare.
In: Apel, H., Kraft, S.
Online lehren. Pla-
nung und Gestaltung
netzbasierter Wei-
terbildung. Bertel-
mann, Bielefeld,
S. 76–90.
12
für ELAT benötigte XML-Format als sehr
aufwändig. Damals mussten alle Textele-
mente von den Autoren per Hand mit XML
aus gezeichnet werden. Dies war zum einen
sehr zeitintensiv und setzte zum anderen
bei allen Autoren gute XML-Kenntnisse
voraus.
Inzwischen konnte diese Umwandlung
automatisiert und somit optimiert werden:
Die Autoren können inzwischen ihre Texte
(inklusive eingebetteter Grafiken) mit MS-
Word verfassen und diese dort mit Hilfe einer
speziellen Vorlage formatieren. Das fertige
Dokument wird dann mit Hilfe von XSLT-
Stylesheets und einer speziellen Software in
gültiges ELAT-XML umgewandelt. Bei dieser
Umwandlung erfolgt gleichzeitig ein Splitting
der Daten in einzelne Wissensbausteine.
Für die Autoren hat dies den Vorteil, dass
auch umfangreichere Wissenseinheiten –
z.B. Kapitel – in einem einzigen Worddoku-
ment bearbeitet werden können. XML-
Kenntnisse sind für die Erstellung von
Lehrinhalten für ELAT nun keine Grund-
voraussetzung mehr. Sie bleiben jedoch
sicherlich weiterhin sinnvoll, da ein Ver-
ständnis der XML-Datenstruktur auch die
Arbeit mit der Wordvorlage er leichtert.
Auch die Produktion von Lehrmaterial
anderer Formate, z.B. von Videos oder
Animationen, kann im Einzelfall sehr komplex
sein. Bei der Erstellung eines Videos müssen
beispielsweise in der Regel mehrere Produk-
tionsschritte – vom Konzept über den Dreh
bis zur Nachbearbeitung und Konvertierung
– eingeplant werden. Die Autoren innerhalb
des 2MN-Projekts wurden auf Wunsch hier-
bei beraten und unterstützt.
3.3 Die Implementierung von
Lehrinhalten in ELAT
Die Integration der fertigen Lehrinhalte
in ELAT kann in wenigen Schritten vollzogen
werden.
Im Autorenmodus wird eine neue Zeit-
leiste angelegt (z.B. „Kapitel 1“).
In diese wird das Lehrmaterial (XML-
Dateien, Grafiken, Videos) importiert und
per Drag & Drop in eine lineare Abfolge
gebracht (siehe Bild 3)2.
Zur Erzeugung von Strukturen im Lehr-
material können Zeitleisten beliebig inein-
ander verschachtelt werden. So kann z.B.
die Zeitleiste „Kapitel 1“ Teil der Zeitleiste
„Kurs“ sein oder als Unterelement die
Zeitleiste „Kapitel 1.1“enthalten.
Während der genannten Arbeitsschritte
hat der Autor die Möglichkeit, sich durch eine
Vorschau einen Eindruck zu verschaffen, wie
das Lehrmaterial später dem Lerner darge-
boten wird. Sind schließlich alle Lehrinhalte
in ELAT integriert, kann der Upload der Daten
auf den ELAT-Server erfolgen.
Die Produktion von multimedialen Lehr-
inhalten für eine Lernplattform ist aufwändig.
Viele Aspekte müssen von den Autoren bei
der Produktion von Lehrinhalten bzw. bei der
Umarbeitung bestehender Inhalte beachtet
werden.
Das 2MN-Projekt, innerhalb dessen ELAT
entwickelt wird, hat es sich zum Ziel gesetzt,
die Autoren hierbei zu unterstützen. Produk-
tions- bzw. Konvertierungsprozesse sollen in
Zukunft noch weiter vereinfacht werden und
den Autoren zeitintensive Einarbeitungen,
z.B. in XML oder spezielle Software, erspa-
ren. Letztlich sollen bei den Autoren – ebenso
wie später bei den Lernenden – die Inhalte
und nicht die Technik im Vordergrund stehen.
4. Die Weiterentwicklung von ELAT
Um die Autoren und Studenten weiterhin
zu unterstützen, ist eine Erweiterung der
Funktionalität von ELAT unumgänglich. Unter-
Bild 3:
Zeitleisten in
ELAT
2
Auch das parallele
Anzeigen mehrerer
Elemente ist mög-
lich. Die Darstel-
lung erfolgt dann
in verschiedenen
„Frames“ im ELAT-
Browser.
13Querschnitt Juli 2004
schiedliche Technologien verhindern nicht
das Ziel der guten und einfachen Nutzbarkeit.
Im Gegenteil, diese werden untersucht und
zuerst versuchsweise in ELAT integriert. Im
Erfolgsfall wird die Technologie auf Dauer in
ELAT eingefügt.
Hierbei hilft die ständige Evaluation
(Leichtweiß 2003), die unser Projekt seit den
ersten Schritten begleitet. Durch die Rück-
meldungen aller Beteiligter werden wertvolle
Hinweise gesammelt, die zur kontinuierli-
chen Verbesserung des Systems und der
Vorgehensweise führen.
Zurzeit sind folgende zusätzliche Techno-
logien in der Implementierungsphase:
Eine Suchmaschine erlaubt das Suchen
nach Stichwörtern in den Metadaten der
einzelnen Wissensbausteine.
Das E-Mail-System ergänzt das existie-
rende Messaging-System und erlaubt
die Kommunikation mit externen Teil-
nehmern.
Das Chat-System ergänzt das existierende
Messaging-System und erlaubt den kon-
trollierten Zugang externer Teilnehmer.
Das Videokonferenz System mit der
Option auf Audiokonferenz unterstützt
Diskussionen.
Das Whiteboard wird zur Unterstützung
von Gruppenarbeiten benötigt.
Die QTI-konformen Tests erlauben die
Integration von Onlinetests, zusätzlich
kann ein Voting mit Hilfe dieser Techno-
logie implementiert werden.
Die Mind-Map liefert die Technik, um ein
Gerüst von Ideen zu erstellen. Dies hilft
bei der Erstellung neuer Lehrveranstal-
tungen.
Im nächsten Schritt wird nun die in
Weiterentwicklung befindliche Plattform ELAT
in einen wesentlich erweiterten pädagogi-
schen Ansatz integriert: das Projekt Atlantis
University.
5. Atlantis University – ein neuer pädagogischer Ansatz
Die Grundidee von Atlantis University
ist die Zusammenfassung unterschiedlicher
Lehr- und Lernformen in ein integriertes
Angebot. Neben dem schon beschriebenen
e-Learning umfasst das Atlantis-Portal das
klassische Präsenzlernen und projektbasier-
tes Lernen (vgl. Bild 4).
Alle Lerninhalte können hiermit in einem
intelligenten, unter inhaltlichen und didakti-
schen Gesichtspunkten sorgsam ausgewähl-
ten „Mix“ den Benutzern angeboten werden.
Das Angebot hängt ab von Status, Vorerfah-
rung und Lebenssituation der Lernenden.
Für einen Vollzeitstudierenden wird der
optimale Mix anders aussehen als für einen
Berufstätigen, der im Rahmen des Lebens-
langen Lernens sich ein bestimmtes Wissen
gezielt aneignen will.
Zwei Beispiele und das Schaubild sollen
das Zusammenspiel exemplarisch verdeutli-
chen (vgl. Bild 5).
Die drei Säulen formen gemeinsam ein
neues Paradigma für die Ausbildung – ihre
Entwicklung, Anwendung, Unterstützung
und Bewertung unter Einsatz von „Advanced
Technology for Learning in a Net based
Information Society“ (Atlantis).
Bild 4: Atlantis
University Portal
(„one face to the
customer“)
Atlantis University Portal
PräsenzlernenVirtuelle Universität
e-LearningProjektbasiertes Lernen
14
Die Hauptvorteile des Ansatzes sind:
Die Fähigkeiten des Lerners werden
direkter angesprochen und nicht so sehr
die reine Informationsaufnahme – effizien-
teres Lernen;
Projekte können auch reale Aufgaben-
stellungen sein – das führt zu Qualifi-
kationen (Studierende) und Lösungen
(Auftraggeber/Unternehmen);
kein „Praxis-Schock“ am Beginn der
Berufstätigkeit.
Zurzeit arbeiten neun Universitäten
(USA, Deutschland, Irland, England, Polen,
Ungarn) und ein internationaler Konzern in
Partnerschaft an der Entwicklung von Atlantis
University. Dies ermöglicht ein internationales
kooperatives Lehren und Lernen. Ziel ist die
Schaffung einer gemeinsamen Institution mit
einheitlichem „Branding/corporate identity“.
Als praktische Ergebnisse liegen neben
ELAT bisher ein „Virtual Classroom“ und ein
„Project Service Center“ vor. Der virtuelle
Hörsaal ermöglicht eine Vorlesung synchron
an zwei getrennten Standorten (vgl. Bild 6).
Das Project Service Center unterstützt
jegliche Projektabwicklung hinsichtlich Kol-
laboration, Kommunikation und Management
gemeinsamer Dokumente (vgl. Bild 7).
6. Ausblick
Das innerhalb des Atlantis-Projekts entwi-
ckelte „extended blended Learning“ Konzept
stellt einen integrierten Studenten-zentrierten
Ansatz dar, dem ein großes Potential inne-
wohnt.
Als nächste Schritte sind geplant:
Die vollständige technische Integration
der Einzelkomponenten, also der Lern-
Bild 6:
Eine Vorlesung
für zwei Standorte
synchron
Bild 5:
Zusammenspiel
der drei Säulen
von Atlantis
University
Szenario Student im 1. Semester
(Vollzeit)
Der optimale integrierte Mix könnte sein:
70 % Präsenzlernen (face-to-face, f2f)
20 % e-Learning (e-L)
10 % projektbasiertes Lernen (proL)
Szenario Master-Student
(Teilzeit)
Der optimale integrierte Mix könnte sein:
50 % projektbasiertes Lernen (proL)
40 % e-Learning (e-L)
10 % Präsenzlernen (f2f)
Klassenraum mit Lehrer Entfernter KlassenraumIP-Netzwerk
f2f
e-L proL
15Querschnitt Juli 2004
plattform ELATnet, des Project Service
Centers und des Virtual Classroom zu
einem gemeinsamen Atlantis University
Portal;
Entwicklung und Evaluierung eines
Moduls „Project Management“, basierend
auf allen drei Säulen von Atlantis zur
Verwendung in unterschiedlichen
Studiengängen der beteiligten Partner
– „proof of concept“;
Optimierung des pädagogischen Kon-
zepts: Finden des jeweils optimalen
Mix aus unterschiedlichen Medien;
Aufsetzen eines Teilprojekts zur sozialen
Begleitforschung;
Weiter- und Neuentwicklung von
Wissensbausteinen und Inhalten für unter-
schiedliche Fachdisziplinen.
Diese weiteren Entwicklungen werden
durch Budgets aus unterschiedlichen natio-
nalen und internationalen Quellen ermöglicht.
Bild 7:
Das Project
Service Center als
Teil von Atlantis
University
Literatur
Furnell, St.; Onions, P.; Bleimann, U.; Gojny,
U.; Knahl, M.; Röder, H.; Sanders, P.:
A security framework for online dis-
tance learning and training, in: Internet
Research vol. 8 (3, 1998), 236–242
Leichtweiß, A.: Evaluation design and results
in the 2MN project, ELAT Workshop 2003,
Universität der Bundeswehr München,
September 2003.
Gojny, U.; Vejrazka, C.; Leichtweiß, A.; Tre-
bing, C.; Röder, H.F.; Knorz, G.; Bleimann,
U.; Li, G.: Growth of e-Learning in hig-
her education – ELAT Workshop 2003,
University of Armed Forces Munich, Sep-
tember 2003.
Stengel, I.; Bleimann, U.; Stynes, J.: A Virtual
University using Mobile Agent Technolo-
gy, Proceedings of the Third International
Network Conference, University of
Plymouth, UK, July 2002.
Stengel, I., Bock, C., Gojny, U., Röder, H.F.:
ELAT – The Architecture, ELAT Workshop
2003, Universität der Bundeswehr
München, September 2003.
16
Die politische Jugendbildung im Rahmen
des Kinder- und Jugendplans des Bundes
(KJP) wurde von 2001 bis 2003 an der Fach-
hochschule Darmstadt untersucht. Der Auf-
trag des BMFSFJ – im Hinblick auf eine Ände-
rung der Förderrichtlinien – bestand darin,
eine systematische Bestandsaufnahme der
Maßnahmen zu erarbeiten und Einrichtungen
sowie pädagogische Mitarbeiterinnen und
Mitarbeiter mittels Erhebungsbogen und
Interviews zu befragen. Die Untersuchung
von Maßnahmen und Trägern sollte einen
Überblick über Wirkung und Erfolg der
geförderten Veranstaltungen und Institutionen
erbringen. Das Folgende gibt einen Einblick
in ausgewählte Ergebnisse:1
1. Politische Jugendbildung heute – Profil und Selbst-verständnis
In der Diskussion über politische Jugend-
bildung taucht hin und wieder die Frage
auf, ob diese mit den Reeducation-Program-
men in Deutschland installierte Arbeit nicht
zurückgefahren oder gar eingestellt werden
könne, zumal europäische Nachbarländer
den Bildungszweig nicht in vergleichbarer
Weise fördern. Die gewachsene Kluft zwi-
schen der Bevölkerung – besonders den
Jugendlichen – und der offiziellen Politik
scheint jedoch für gegenteilige Konsequen-
zen zu sprechen. Denn in der politischen
Bildung gelingt es auf vielfältige Weise, selbst
bei denjenigen Jugendlichen eine Sensibili-
sierung für das Politische zu leisten, die sich
als unpolitisch bezeichnen und sich kaum
vorzustellen vermögen, dass Politik etwas
mit ihnen zu tun haben könnte. In der evalu-
ierten Bildungsarbeit wird – wie die Inter-
views und Gruppendiskussionen eindrucks-
voll zeigen – diese Kluft häufig überwunden
und ein Anschluss hergestellt, der für die
weitere Entwicklung der Zivilgesellschaft von
grundlegender Bedeutung ist. So gesehen
muss man die bundesdeutsche Förderung
der politischen Jugendbildung als eine
besondere Errungenschaft betrachten.
Politische Jugendbildung in Deutschland
hat im Verlauf ihrer Entwicklung wesentlich
zur Herausbildung einer partizipativen,
demokratischen Lernkultur beigetragen,
Prof. Dr. Achim Schröder,
Nadine Balzter, Dipl.-Sozialpädagogin, Thomas Schroedter, Dipl.-Pädagoge,
Fachbereich Sozialpädagogik
Politische Jugend bildung auf Bundesebene evaluiert
Zivilgesellschaft
1
Der offizielle
Abschlussbericht ist
im Mai 2004 unter
dem Titel „Politische
Jugendbildung auf
dem Prüfstand“ bei
Juventa erschienen.
17Querschnitt Juli 2004
weil sie sich dauerhaft mit der Frage beschäf-
tigt, wie man bei jungen Menschen unter
Bedingungen von Freiwilligkeit die drei
wesentlichen Teilziele erreicht: Wissen
vermitteln, Urteilsbildung ermöglichen, zur
Mitwirkung anregen.
In den Gruppendiskussionen und Ein-
zelinterviews haben nahezu alle Interview-
partner die wachsende Bedeutung der
Persönlichkeitsbildung als Voraussetzung
politischer Jugendbildung hervorgehoben.
Sie beschreiben, wie sie Jugendlichen
„den Rücken stärken“ müssen, um bei ihnen
Bereitschaft und Interesse für politische
Zusammenhänge zu wecken, wobei dies
nicht als Trennung – Persönlichkeit stärken
einerseits, politische Bildung betreiben ande-
rerseits – verstanden wird. Vielmehr wird
deutlich, wie verwoben beide Bildungsan-
strengungen sind. Die Praktikerinnen und
Praktiker zeigen ihre Begeisterung, wenn es
gelingt, Jugendliche, die dem Politischen fern
stehen, über anregende Methoden, fesselnde
Projekte und nachvollziehbare Inhalte an das
Nachdenken über und die Auseinanderset-
zung mit Politik heran zu führen. Die Hervor-
hebung der Persönlichkeitsbildung führt nicht
dazu, sich von der eigentlichen Aufgabe zu
entfernen, sondern dazu, die inhaltlichen und
personalen Anteile politischer Jugendbildung
zu integrieren.
Politische Bildung ist darauf ausgerichtet,
den Erwerb von Informationen und Kompe-
tenzen mit der Bereitschaft und Fähigkeit zu
verknüpfen, sich eine eigene Meinung zu bil-
den und Werturteile zu fällen. Dazu braucht
die Bildungsarbeit Personen, die selbst eine
Position vertreten und zugleich Spielräume
für die Meinungsbildung des Gegenübers
eröffnen. Solche Spielräume können nur dort
entstehen, wo es nicht nur um quantifizier-
bare Kompetenzen geht, die auf dem Markt
angeboten und nachgefragt werden. Viel-
mehr braucht es Schutz- und Experimentier-
räume – wie den Lernort Bildungsstätte –,
in denen sich der Mut zur eigenen Meinung
herausbilden kann und in denen nicht auf
die Marktfähigkeit der einzelnen Angebots-
Segmente geschielt werden muss. Wird die
Steuerung allein dem Markt überlassen, spie-
len Wertmaßstäbe im Sinne von Tugenden,
die für ein Gemeinwesen wichtig sind, keine
Rolle mehr. Dann werden möglicher Weise
soziale Kompetenzen wie „Empathiefähigkeit“
oder „Konfliktfähigkeit“, die für einen respekt-
vollen Umgang mit Anderen wichtig sind, nur
zu eigenem Nutzen angeeignet – eben dazu,
sich besser durchzusetzen, andere auszu-
nutzen und den eigenen Aufstieg zu sichern.
Ost-West und die Besonderheiten
der neuen Bundesländer
Ein Vergleich der angebotenen Veranstal-
tungen zur politischen Jugendbildung hat
hinsichtlich der Themen, Methoden oder
Medien keine wesentlichen Unterschiede
mehr zwischen den neuen und alten Bundes-
ländern ergeben. Aber die unterschiedliche
Geschichte, was das Verhältnis zwischen
Individuum und Gemeinwesen betrifft, hat
Auswirkungen auf die Bildungsarbeit und
auf diejenigen, die sie durchführen. Die Wir-
Bezogenheit – anders gesagt: die Solidarität –
war in der DDR gesellschaftlich vorgegeben
und eingebettet. Die starke Verbreitung
ehrenamtlicher Tätigkeit neben dem Beruf –
in den unterschiedlichsten Ausprägungen –
war Ausdruck dieser Besonderheit. Die
Verbreitung verdankte sich sowohl dem
staatlichen Zwang als auch der subjektiven
Bereitschaft vieler Bürger, Verantwortung
für andere zu übernehmen.
Mit der Wende standen die Menschen
in dieser Hinsicht vor der Aufgabe, das
Gemeinschaftliche jenseits staatlicher Vor-
gaben von sich aus zu entwickeln. In der
politischen Jugendbildungsarbeit zeigte sich
zunächst ein starkes Element selbsttätigen
politischen Engagements, das von den sozia-
len Bewegungen in die neuen, sich entwi-
ckelnden Träger-Strukturen hineinwirkte,
dann aber schnell abnahm und nicht ohne
Weiteres durch professionelles Engagement
ersetzt werden konnte. Dem entsprechend
wäre es wichtig, die besonderen Potenziale,
die sich aus der Ost-Geschichte ergeben,
verstärkt wahrzunehmen, zu reflektieren und
für die Professionalisierung der politischen
Jugendbildung nutzbar zu machen.
18
Gender Mainstreaming
Als Querschnittsaufgabe ist Gender
Mainstreaming seit dem Jahr 2000 auch in
der politischen Jugendbildung obligatorisch.
Bei Programmen, Inhalten und Ablauf der
Veranstaltungen ist darauf zu achten, dass die
einzelnen Elemente aus den Geschlechter-
perspektiven betrachtet werden. Gleichfalls
sind die geschlechtsspezifischen Blickwinkel
zu einem Ausgangspunkt in allen anderen
Bereichen geworden, sei es bei der Personal-
politik oder bei der Gestaltung der Bildungs-
stätte. So verwundert es nicht, dass mehr als
die Hälfte aller Befragten eine Bedeutungs-
zunahme der Geschlechterperspektive in der
politischen Bildungsarbeit diagnostizierten.
Die angebotenen Veranstaltungen zu dieser
Thematik – im Durchschnitt aller Befragten
betrachtet – haben jedoch abgenommen. Das
Geschlechterthema wird auch von Jugend-
lichen erheblich weniger nachgefragt. Es hat
sich von einem explizit angebotenen Thema
zu einer Themenstellung verlagert, die bei
den Interaktionen im Seminar und in der Mit-
arbeiterschaft eine große Rolle spielt. Es ist
zu einem eher persönlichen Thema gewor-
den, wobei offenbar viele den Konflikt zwi-
schen Familie und Beruf auf einen späteren
Zeitpunkt verschieben, wenn die Kinderfrage
ansteht. Der Konflikt wird – zieht man neuere
Untersuchungen heran – vorrangig so gelöst,
dass die Frau ihre beruflichen Ambitionen
zurückstellt und die familiären Aufgaben
übernimmt oder einer Doppelbelastung aus-
gesetzt ist. Bei einer Reihe von Trägern hat
man jedoch die geschlechtsspezifische und
geschlechtsorientierte Arbeit weiter profiliert
und diesbezügliche Konzeptionen laufend
fortentwickelt. Die betreffenden Einrichtun-
gen bergen ein innovatives Potential; sie
erproben pädagogische Umgangsweisen
mit dem Geschlechterthema, auf die andere
Einrichtungen nach Bedarf zurückgreifen
können.
2. Zielgruppen der politischen Jugendbildung und Zugänge zu den Teilnehmenden
Fast die Hälfte der Teilnehmenden an Ver-
anstaltungen ist zwischen 14 und 18 Jahren
alt. Die Bildungspraxis stellt sich mit aktivie-
renden und interaktiven Methoden auf diese
Zielgruppe ein und spricht sie mit lebens-
weltnahen, jugendkulturellen Themen an.
Abbildung 1:
Teilnehmende
nach Ausbildungs-
status bzw.
Tätigkeit
19%
16%
15%
14%
8%4%
24%
GymnasiastInnen
HauptschülerInnen
RealschülerInnen
Berufstätige
Auszubildende
StudentInnen
Arbeitslose
n = 108
19Querschnitt Juli 2004
Allerdings stützt sich die Praxis auf keine
Theorie, die das Verhältnis von Pubertät und
politischer Bildung erfasst. Die besonderen
Bedingungen dieser Umbruchphase und die
damit verknüpften Konflikte, Ambivalenzen
und experimentellen Neigungen sind bis
heute nur ansatzweise daraufhin analysiert
worden, inwiefern sie politische Bildung
ermöglichen bzw. begrenzen.
Die verstärkte Einbeziehung „sozial be -
nachteiligter“, eher bildungsferner Jugend-
licher hat zu einem vergleichsweise hohen
Anteil an Hauptschüler/innen, Realschüler/
innen wie auch Auszubildenden und Berufstä-
tigen bei den Adressaten politischer Jugend-
bildung geführt (vgl. Abbildung 1). Die Arbeit
mit diesen Zielgruppen bindet viel Arbeits-
zeit und Energie, ist aber politisch gewollt
und sicherlich von zukunftsweisender Rele-
vanz. Die Träger stehen zu großen Teilen
hinter der Schwerpunktsetzung, auch wenn
manche Mitarbeiterinnen und Mitarbeiter
sich etwas mehr Kapazität für Angebote mit
aktiven Jugendlichen, etwa in Schülervertre-
tungen oder sozialen Bewegungen, wün-
schen, da sich aus diesem Kreis großenteils
die politisch Aktiven und bei einigen Trägern
auch die ehren- oder nebenamtlich Mitarbei-
tenden rekrutieren.
Die Zielgruppe der sozial Benachteiligten
ist im Zuge der gesellschaftlichen Entwick-
lung zunehmender Arbeitslosigkeit und ver-
stärkter Übergangsprobleme zwischen Schu-
le und Beruf deutlich gewachsen; die
Bildungsarbeit muss sich deswegen ver-
mehrt als soziale Bewältigungsarbeit verste-
hen. Die aktiven Träger der Arbeit mit sozial
benachteiligten Jugendlichen sind engagierte
Hauptamtliche. Diese Arbeit kann von freien
Mitarbeiterinnen und Mitarbeitern nicht oder
nur in marginalen Anteilen übernommen
werden. Die Umstellung der Richtlinien
würde nach Meinung der Interviewten zu
einer erneuten Zielgruppenverschiebung
führen – hin zu den motivierten, zahlungs-
fähigen Jugendlichen, da man auf „kosten-
deckende“ Zielgruppen achten müsste.
Darüber hinaus sei eine Verschiebung hin
zu älteren Jugendlichen/jungen Erwachsenen
zu erwarten.
Das Prinzip der Freiwilligkeit würde
zurückgefahren, meint ein Teil der Interview-
ten. Denn frei ausgeschriebene Seminare
seien inzwischen mit einem vergleichsweise
großen Arbeitsaufwand zur Teilnehmer-
Gewinnung verknüpft, der bei einer binden-
den Vorgabe an abzuleistenden Veranstal-
tungstagen nicht mehr erbracht werden
könnte. Wünschenswert sei vielmehr, die
verschiedenen sozialen Zielgruppen zuein-
ander zu bringen und einen wechselseitigen
Lernprozess zu initiieren. In diesem Sinne
wären Veranstaltungstypen (weiter) zu ent-
wickeln, die – ähnlich wie interkulturelle
Begegnungen – einen „intersozialen“
Charakter haben.
3. Didaktik und Methodik politischer Jugendbildung
Die außerschulische politische Bildung
nimmt eine Vorreiterrolle in der Entwicklung
neuer Lernformen und Methoden ein. Die
von der Schule und anderen pädagogischen
Bereichen teilweise übernommenen partizi-
pativen und projektorientierten Methoden
sind in der außerschulischen Bildungsarbeit
zuvor erprobt, ausgewertet und publiziert
worden. Die außerschulische politische Bil-
dung ist laufend von dem Bemühen getragen,
die Teilnehmenden zu einem eigenaktiven
Lernen anzuregen, sie muss Methoden ein-
setzen, die Neugier erzeugen und Motivation
entfachen (vgl. Abbildung 2). Die Erkundung,
die Recherche oder die Arbeit an einer medi-
alen Produktion kann als Selbstläufer wirken.
Das ist wichtig für Jugendbildung, weil sie
nur dann ihr Ziel erreicht, wenn sie von den
Teilnehmenden umgesetzt wird. Diese neh-
men nicht nur an einer Veranstaltung teil, sie
übernehmen phasenweise selbst die Regie.
Spitzenreiter bei den Themen, die
an Bedeutung gewonnen haben, sind:
Extremismus/Fremdenfeindlichkeit, Persön-
lichkeitsentwicklung und soziales Lernen,
Konfliktbearbeitung/Gewaltprävention. Das
erklärt sich zum Teil aus der Förderpolitik mit
Sonderprogrammen und aus der Aktualität
der Themen. Es weist aber hinsichtlich der
Persönlichkeitsentwicklung auf gewandelte
20
gesellschaftliche Anforderungen und auf
einen veränderten Bildungsbegriff hin,
der vermehrt die Selbst- und Subjektbildung
betont. Das Thema Ökologie hat am stärksten
an Bedeutung eingebüßt, auch das Ge-
schlechterthema gehört zu den Verlierern.
Allerdings muss diese Bedeutungsabnahme
vor dem Hintergrund eines zuvor hohen
Niveaus gesehen werden. Partizipation hat
als explizit angebotenes Seminarthema nur
eine geringe Relevanz, ist aber als strukturel-
les Element der Bildungsarbeit und insofern
als wichtiges Querschnittsthema anzusehen.
Partizipation findet vor allem praktisch statt,
ihre zentrale Bedeutung zeigt auch die Aus-
wertung der Trägermaterialien.
Wenn Sondermaßnahmen einen großen
Stellenwert bekommen, wird der thematische
Spielraum der Träger eingeschränkt, aktuelle
und von Jugendlichen nachgefragte Themen
aufzugreifen. Deshalb gilt es hier, auf ein
angemessenes Verhältnis zur Grundförde-
rung zu achten.
Wirkungen der Bildungsarbeit und
Motivation der Teilnehmenden
In den Bildungseinrichtungen werden die
Teilnehmenden am Veranstaltungs-Ende
danach befragt, wie sie die verschiedenen
Elemente von Lokalität und Verpflegung bis
zu Inhalt, Darstellung und Verlauf bewerten.
Die Befragung der Teilnehmenden wird von
den Bildnerinnen und Bildnern im Vergleich
zu anderen Auswertungs-Methoden wie
Selbstevaluation, Qualitätsmanagement
oder Intervision für die erfolgreichste und
nützlichste gehalten. Auf diesen Teilnehmer-
Rückmeldungen basieren die Einschätzungen
zur Wirkung der Bildungsarbeit in Frage-
bogen und Interviews. Außerschulische
Bildungs arbeit ist vom Teilnehmerzuspruch
abhängig. Die Kenntnisse aus den Rückmel-
dungen der Teilnehmenden sind an vielen
Stellen in die Ergebnisse der Evaluation ein-
geflossen. Sie zeigt somit Wirkungen auf,
auch wenn sie selbst keine direkte Befragung
der Teilnehmenden enthält.
Die Motivation der Jugendlichen zur Teil-
nahme an Veranstaltungen der politischen
Bildung besteht in erster Linie darin, dass sie
sich ein gemeinsames Erleben in der Grup-
pe erwarten, Begegnung mit Gleichaltrigen
suchen und einen Freiraum für neue Erfah-
rungen jenseits des Alltags erhoffen. Der
Erwerb von fachlichen Kompetenzen wird
erst auf den hinteren Rängen genannt. Inso-
Abbildung 2:
Die wichtigsten
Arbeitsformen
und Methoden
Gruppenarbeit
Rollen-/Planspiel/Theater
Feedback/Verlaufsreflexion
Meta-Plan/Mind mapping
Erkundung
Medienproduktion
Mediale Präsentation
Vortrag
Textarbeit
Andere
(Andere sind:
Bildnerisches und
plastisches Gestalten 2%;
Zukunftswerkstatt 2%;
Open space 1%;
Interview 1%;
Fish bowl 0%)
n = 122
35
30
25
20
15
10
5
0
29
14
109
87
5 5 56
Arbeitsformen und Methoden (Nennungen in %)
%
21Querschnitt Juli 2004
fern kann man vermuten, dass außerschuli-
sche politische Bildung bei den Jugendlichen
zunächst nicht als spezielles fachliches
Programm begriffen und gesucht wird.
Von ihrer Wirkung her beurteilen die
Bildnerinnen und Bildner ihre Arbeit zu
überwiegenden Teilen so, dass die Veran-
staltungen zu Orientierungen verhelfen –
was zugleich auf einen zentralen Bedarf an
einer Positionsbestimmung unter heutigen
Lebensumständen verweist. Auch das Ken-
nenlernen neuer Handlungsweisen und die
Eröffnung von neuen persönlichen Perspekti-
ven werden häufig genannt. Eine unmittel-
bare Auswirkung der Veranstaltungen auf die
Handlungsbereitschaft im politischen Raum
wird dagegen weniger gesehen.
4. Trägerstrukturen und bundesstaatliche Förde-rung in der politischen Jugendbildung
Das Verhältnis von Grundförderung und
Sonderprogrammen beschäftigt alle, die mit
dem KJP zu tun haben. Sonderprogramme
sind sinnvoll, weil sie auf aktuelle Ereignisse
und jugendkulturelle Erscheinungsformen
reagieren. Damit werden jedoch zugleich
hochgesteckte Erwartungen an die Bildungs-
praxis gerichtet, „als könne sie auf der Stelle
Brände löschen, die zumeist von der Politik
selbst verursacht wurden, seien es Rechts-
extremismus und Gewalt, Politikverdrossen-
heit oder die Abkehr der Jugend von den
politischen Institutionen“.2 Den Maßnahmen
‚gegen rechts‘ wird in jüngster Zeit aus der
Perspektive wissenschaftlicher Begleitung
bescheinigt, von ihren Strukturen und An-
geboten her zu wenig auf personelle Verläss-
lichkeit und nachhaltige Wirkung ausgerich-
tet zu sein.3 Nachhaltige Wirkungen kann
politische Bildung nur erzielen, wenn sie sich
in der Biografie ihrer Teilnehmenden nieder-
schlägt, wenn sie zur Prägung von politischen
Persönlichkeiten beiträgt.
Die Mitarbeiterinnen und Mitarbeiter der
politischen Jugendbildung erwarten daher
eine gewisse Planungssicherheit und plädie-
ren für eine Grundförderung, die nicht lau-
fend in Frage gestellt wird. Nur so könne
Nachhaltigkeit der Arbeit gewährleistet wer-
den. Darüber hinaus sind viele Referentinnen
und Referenten der Auffassung, dass die
Formen, in denen politische Jugendbildung
angeboten wird, über das einzelne Seminar
hinausweisen müssen, um verstärkt den
Handlungsaspekt bei Jugendlichen anzu-
regen und zu begleiten. Deshalb werden
aktionsorientierte Formen des Lernens vor-
geschlagen, die sich über einen längeren
Zeitraum erstrecken. In dieser Hinsicht
erscheint eine Flexibilisierung der Maß-
nahmenförderung angebracht.
Wenn mehr als 60 oder 70 Veranstal-
tungstage im Jahr durchgeführt werden
müssen, um die Finanzierung einer Stelle
über Maßnahmen zu gewährleisten, wird es
eine große Zahl gleicher, sich wiederholen-
der Veranstaltungen geben. In Interviews
beschreiben die Referentinnen und Referen-
ten, wie sie dem erhöhten quantitativen
Anforderungsdruck begegnen müssten:
mit eingespielten, wiederholbaren Formen
und Inhalten. Man könnte es sich dann nicht
mehr leisten, neue Kurse, Methoden und
Inhalte zu erproben, da Experimente nicht
nur mehr Zeit erfordern, sondern auch
scheitern können. Insgesamt lässt sich somit
folgern, dass die Förderung der Personal-
stellen über Maßnahmen die Innovation
bremsen wird.
Zudem fällt auf, dass viele Inhaber von
derzeit noch KJP-geförderten Personalstellen
ihre Maßnahmen nur zum kleineren Teil über
KJP-Maßnahmenmittel abwickeln. Sie sind
schon längst auf Veranstaltungsmittel anderer
Programme und Quellen angewiesen. Wenn
die Personalkosten zukünftig nur über Maß-
nahmen zu finanzieren sind, müssen die
Veranstaltungen, die bisher über andere
Zuwendungsgeber wie die Bundeszentrale
für politische Bildung abgerechnet wurden,
vermehrt über den KJP abgewickelt werden.
Denn nur auf diesem Weg wäre eine Summe
von Honoraren zu erreichen, die eine Per-
sonalstelle finanziert.
Eine andere Wirkung einer Maßnahmen-
förderung ist im Blick auf die Integration der
2
Thomas Meyer:
Die Zukunft der
außerschulischen
politischen Bildung.
Er fahrungen und
offene Fragen. In:
Praxis Politische
Bildung, 7. Jg. 2003,
Heft 2, S. 120–126.
3
Vgl. Heinz Lynen
von Berg/Roland
Roth (Hg.): Maß-
nahmen und Pro-
gramme gegen
Rechts extremismus
wissenschaftlich
begleitet, Opladen
2003.
22
Tätigkeiten in den bundesweiten Kontext zu
betrachten. Wenn sich die Referentinnen und
Referenten in den einzelnen Einrichtungen
viel mehr auf die Realisierung einer großen
Zahl an durchgeführten Veranstaltungstagen
konzentrieren müssen, werden sie ihre Kapa-
zitäten vom bundesweiten, trägerinternen
oder -übergreifenden Austausch und von
Weiterbildung abziehen.
5. Das pädagogische Personal in der politischen Jugendbildung
Die Jugendbildungsreferentinnen und
Jugendbildungsreferenten führen einen
gewichtigen Teil ihrer Veranstaltungen in
Kooperation mit anderen außerschulischen
Bildungsträgern in Ost und West, in Land und
Stadt durch. Sie haben ein bundesweites
Netzwerk entwickelt. Kooperationen sind
wichtiger geworden, weil die verschiedenen
Lernfelder nicht mehr so getrennt voneinan-
der existieren wie früher, sich vielmehr im
Hinblick auf formelles und informelles Lernen
vermischen. Die Fragebogenerhebung hat
ergeben, dass die Kooperation mit anderen
Einrichtungen vom zeitlichen Aufwand her
gesehen bereits an dritter Stelle genannt
wird. Nur die Durchführung der Veranstaltun-
gen selbst und die Konzeptentwicklung ver-
schlingen mehr Zeit.
Eine funktionierende Kooperation – vor
allem mit der Schule als dem wichtigsten
Partner – bedarf kontinuierlicher Pflege und
einer festen Anlaufstelle. Für die partner-
schaftliche Zusammenarbeit ist die Kontinuität
der Personen von entscheidender Bedeu-
tung; faktisch kooperieren im konkreten
Bildungsprozess nicht die Institutionen,
sondern die jeweiligen Personen. Deshalb
kann sich niemand vorstellen, dass eine
gute Kooperation auch dann möglich wäre,
wenn sie beim Bildungsträger nicht mehr
von einer hauptamtlich zuständigen Person,
sondern von wechselnden freiberuflich
Tätigen über nommen würde.
Je nach Struktur der Einrichtung spielen
ehrenamtliche, nebenamtliche oder freie Mit-
arbeiterinnen und Mitarbeiter eine wichtige
Rolle bei der Durchführung der Jugendbil-
dungsarbeit. Aus dem empirischen Material
lassen sich drei Typen von frei Mitarbeiten-
den entnehmen:
freiberufliche Fachleute, freiberufliche
Dozenten (übernehmen spezielle
Aufgaben),
strukturell eingebundene Teamerinnen
und Teamer (tragen den pädagogischen
Prozess),
wertorientierte Ehrenamtliche (sind dem
Träger und seinen Zielen verbunden).
Zumeist wird eine Zahl zwischen 20 und
30 freiberuflichen bzw. neben- oder ehren-
amtlichen Mitarbeitenden genannt, die einer
hauptamtlichen Kraft bei ihrer Arbeit zur
Verfügung stehen. Die frei beruflich Tätigen
müssen eingearbeitet, koordiniert, qualifiziert
und in ihrer Arbeit reflexiv begleitet werden.
Da es sich großenteils um Studierende han-
delt, die als Honorarkräfte mitarbeiten, ist die
Fluktuation hoch.
Ähnlich wie gegenüber den Koopera-
tionspartnern übernehmen die Jugendbil-
dungsreferentinnen und Jugendbildungs-
referenten gegenüber den Freiberuflern
die Funktion als Drehpunktperson, von der
verschiedene Kompetenzen und Kontakte
gebündelt werden. Mit einer reinen Maßnah-
menförderung bestünde deshalb die Gefahr,
dass die derzeit aktiven Gruppen von ehren-
und nebenamtlichen Mitarbeitenden ange-
sichts des Fehlens einer angemessenen fach-
lichen Begleitung schwächer werden oder
zusammenbrechen. Die Gruppe der Ehren-
und Nebenamtlichen im Umfeld von Jugend-
bildungsreferentinnen und Jugendbildungs-
referenten ist als ein wichtiges Potenzial zur
Festigung der Zivilgesellschaft anzusehen.
Sie fungiert als Vermittler und Multiplikator,
sie potenziert die inhaltliche Ausstrahlung
der hauptamtlichen Kräfte.
24
1. Zum Inhalt
Trotz der Anordnung von Tauchwänden
in Rückhaltebecken (Bild 1) gelangen bei
starken Regenfällen viele Feststoffe in nach-
folgende Bauwerke oder Vorfluter. Diese
Feststoffe können mit einem Sieb zurück-
gehalten werden.
Zum dauerhaften Betrieb muss das Sieb
jedoch gereinigt werden, da dieses von
den Feststoffen sonst zuflussseitig verstopft
wird. Die Zurückhaltung der Feststoffe durch
das Sieb und die damit verbundene An -
reicherung der Feststoffe, die letztlich zur
Verstopfung führt, ist in Bild 2 dargestellt.
Mechanische Reinigungssysteme sind
teuer, störanfällig und mit hohen Wartungs-
kosten verbunden. Aus diesen Gründen
wurde von der BIOGEST AG ein Siebrechen
mit aerohydraulischer Reinigung entwickelt,
der im Umweltlabor des Fachbereichs
Maschinenbau im Modellmaßstab getestet
wurde. Die gute Reinigungsleistung, die
sich mittlerweile auch im praktischen Einsatz
bestätigt hat, wird durch die angewandte
Zweiphasentechnik (Wasser + Luft) erreicht.
2. Experimente
Nach der Realisierung stationärer Strö-
mungsverhältnisse der Durchströmung des
Siebs mit Hilfe einer Rückführpumpe und
homogener Wiedereinleitung über ein
Rieselrohr, das gleichzeitig für ein Aufwirbeln
der Modell-Festkörper sorgt, wurde das
Sieb zunächst unter reproduzierbaren Be-
dingungen verstopft
Umwälz- oder Siebvolumenstrom
V•
Sieb = 28 l/min
60 g rechteckförmige Papierschnipsel,
30 Minuten Einweichzeit
und dann durch monotone Steigerung des
Spülwasservolumenstroms V•
Spül freigespült,
der aus dem Rückhaltebecken mit der Spül-
pumpe entnommen und über eine zugleich
luftansaugende Ejektordüse tangential zum
Sieb eingeblasen wird, um die sich an der
Siebinnenoberfläche angereicherten Fest-
stoffe wegspülen zu können. Die freigespülte
Fläche des rechteckförmigen Modell-Siebs,
beschrieben durch den Abstand x zwischen
Prof. Dr.-Ing. habil. Jochem Unger, Dipl.-Ing. Alexander Russ,
Fachbereich Maschinenbau
Siebrechen mit aero -hydraulischer Reinigung
Umwälz- oder Siebvolumenstrom
V•
Sieb = 28 l/min
60 g rechteckförmige Papierschnipsel,
30 Minuten Einweichzeit
25Querschnitt Juli 2004
der Verstopfungsfront und dem Austritt des
Reinigungsstrahls aus der Ejektordüse, ist in
Bild 3 dargestellt. Die Reinigung ist vollstän-
dig, wenn die gereinigte Sieblänge den Wert
x = L erreicht.
Um den Effekt der angewandten Zwei-
phasentechnik (Wasser + Luft: Wasserstrahl
angereichert mit der in der Ejektordüse
angesaugten Luft) gegenüber einem reinen
Wasserstrahl zeigen zu können, wurde der
Freispülversuch zusätzlich mit versperrter
Luftansaugöffnung durchgeführt. Im Ver-
gleich zwischen der einphasigen Betriebs-
weise (Wasserstrahl) und der zweiphasigen
Betriebsweise (Wasserstrahl mit angesaugter
Luft) ist ein deutlich verbessertes Verhalten
durch den Einfluss der Luft festzustellen.
Ursache hierfür ist die stark erhöhte Reich-
weite des Reinigungsstrahls, die sich aus
der durch die Luftzumischung herabgesetz-
ten dynamischen Zähigkeit des Wasser-
Luft-Mediums ergibt. Die Verzweigung der
gemessenen Kurven beginnt beim Erreichen
des Mindestwasservolumenstroms V•
Spül, L min,
der zum Ansaugen des Luftvolumenstroms V•
L
benötigt wird. Das Verhalten des angesaug-
ten Luftvolumenstroms ist in Bild 4 auf der
nächsten Seite zusätzlich dargestellt.
Wird im Experiment die Siebfläche auf
die Hälfte reduziert (L = 0,5 m –> L= 0,25 m),
ergibt sich bei konstant gehaltenem Umwälz-
volumenstrom V•
Spül = 28 l/min eine Verdop-
Bild 1 (links):
Sieb mit Zu-
und Abfluss
Bild 2 (rechts):
Sieb mit Zurück-
haltung und
Anreicherung
der Feststoffe
Bild 3 (unten):
Freispülversuche
am Modell-
Siebrechen
•VSpül
•VL
x
verstopft
X = L
freigespült
•VSieb = 28 l/min
•VSpül/L = 56 l/(m min)
0,50,40,30,20,10 x [m]
•VSpül [l/min]
5
4
3
2
1
0
Wasser und Luft
Wasser
L
26
pelung der Durchströmungsgeschwindig -
keit der Siebfläche. Die Schmutzelemente
werden mit größerer Kraft an die Siebfläche
gedrückt, so dass eine erhöhte Wirkung des
Reinigungsstrahls erforderlich wird. Dabei
verschärft sich das Problem auch zeitlich.
Dies zeigt die sich zeitlich aufbauende Ver-
stopfung (Bild 5), die bei abgeschaltetem
Reinigungsstrahl (Verstopfungsversuch)
durch Messen der sich zeitlich verändernden
Pegeldifferenz beim Überströmen in den
Abflussschacht (Bild 1) dargestellt werden
kann.
Im zugehörigen Freispülversuch unter
diesen verschärften Bedingungen (Bild 6)
muss deshalb die Reinigungswirkung und
damit der erforderliche Spülwasservolumen-
strom V•
Spül entsprechend ansteigen.
Im Experiment werden zum Freispülen
des Siebes mit der Sieblänge L = 0,25 m
sowohl bei einphasiger als auch zweiphasi-
ger Betriebsweise des Reinigungsstrahls
Spülwasservolumenströme in der gleichen
Größenordung wie zuvor zum Freispülen
des Siebs mit der Länge L = 0,5 m bei der
halben Durchströmungsgeschwindigkeit des
Sieb erreicht. Die durch die erhöhte Durch-
strömung des verkürzten Siebs erschwerte
Reinigung wird offensichtlich durch die noch
höhere Wirksamkeit des Reinigungsstrahls
643210
•VL [l/h]
200
150
100
50
0•VSpül [l/min]5
•VSpül ,L min
6420
∆h[mm]
20
15
10
5
0t [min]8
halbe Sieblänge
L = 0,25 m
ganze Sieblänge
L = 0,5 m
∆h
Bild 4:
Angesaugter Luft-
volumenstrom V•
L bei
Umgebungsdruck in
Abhängigkeit vom
auf geprägten Spül-
wasser volumenstrom
V•
Spül
Bild 5:
Verstopfungs versuch
mit ganzem und halbier-
tem Sieb bei konstant
gehaltenem Umwälz-
bzw. Sieb volumenstrom
27Querschnitt Juli 2004
im verkürzten Bereich kompensiert. Gelingt
mit einem Reinigungsstrahl die vollständige
Reinigung eines Siebs der Länge L, lassen
sich auch alle verkürzten Siebe bei konstant
gehaltenem Umwälz- bzw. Siebvolumenstrom
mit diesem Reinigungsstrahl reinigen. Aus-
legungskriterium für den Reinigungsstrahl ist
somit die Grenzlänge, bei der gerade noch
die vollständige Reinigung erfolgen kann.
Diese Grenzlänge ist eine Funktion von der
Durchströmungsgeschwindigkeit des Siebs
proportional V•
Sieb / L, vom Spülwasservolu-
menstrom V•
Spül und dem angesaugten Luft-
volumenstrom V•
L sowie dessen Verteilung χ
im Wasserstrahl:
Lgrenz = L(/L, , , )
Die Luftbeimischung ist für die Reini-
gungswirkung stets positiv und die Fern-
wirkung kann durch eine möglichst fein-
blasige Luftbeimischung (Qualität der
Ejektordüse) verbessert werden.
3. Ausgeführte Projekte
In den beiden folgenden Bildern 7 und
8 ist der Siebvolumenstrom pro Länge
V•
Sieb / Länge und der Siebvolumenstrom
pro installierter Leistung der Spülpumpe
Bild 6 :
Freispülversuch
am halbierten
Modell-Sieb-
rechen
Bild 7:
V•
Sieb / L in
Ab hängigkeit
von V•
Sieb
0,10
4
3
2
1
0x [m]0,15 0,2 0,25
•VSieb = 28 l/min
•VSieb/L = 112 l/(m min)
•VSpül [l/min]
Wasser und Luft
Wasser
•VSpül, L min
10000
1000
800
600
400
200
0
•VSieb/L [l/(s m)]
2000 3000 [l/s]
•VSieb
Lgrenz = L ( V•
Sieb / L, V•
Spül , V•
L , χ )
28
V•
Sieb / P für mittlerweile ausgeführte Sieb-
rechen mit aerohydraulischer Reinigung in
Abhängigkeit vom Siebvolumenstrom V•
Sieb
dargestellt.
Die ausgeführten Anlagen bewegen sich
in den Bereichen:
≈ ( 0 ... 600 ) l/(s m)
/P ≈ ( 0 ... 1000) l/(s kW)
Eine typische Installation des Siebs
mit aerohydraulischer Reinigung wird
abschließend in Bild 9 gezeigt.
Die wesentlichen Vorteile der aero-
hydraulischen Reinigung von Siebrechen
keine beweglichen Teile,
robuste und erprobte Komponenten,
und keine Zerkleinerung der zurück-
zuhaltenden Feststoffe
werden zur Ablösung der konventionellen
mechanischen Systeme führen.
Literatur
[1] Steigner, F.: Hydraulische Reinigung einer
Siebfläche: Diplomarbeit, FH Darmstadt
2003
[2] BIOGEST AG: Einsatzmöglichkeiten von
BIOGEST-Siebanlagen. Info-Schrift Nr. 352
[3] BIOGEST AG: Referenzliste, Info-Schrift
Nr. 350
Bild 8:
V•
Sieb / P in
Ab hängigkeit
von V•
Sieb
Bild 9 (links):
Typische Instal-
lation eines
Siebrechens mit
aerohydraulischer
Reinigung
V•
Sieb ≈ ( 0 … 3000 ) l/s
10000
1000
800
600
400
200
0
•VSieb/P [l/(s kW)]
2000 3000 [l/s]
•VSieb
V•
Sieb / L ≈ ( 0 … 600 ) l/ (s m)
V•
Sieb / P ≈ ( 0 … 1000 ) l/ (s kW)
30
tion nach Inkubation oder der nichtige Anlass,
der eine aufgestaute physiologische Reaktion
auslöst. Dabei sind die Versuche zur Quanti-
fizierung solcher Sekundärphänomene umso
erfolgreicher, desto besser die notwendigen
Energiekopplungen betrachtet und berech-
net werden können.
Partikelklassen, Impulsfluss, Solvat- und Agglomeratbildung
Versucht man sich an Reaktionen in
Lösungen, die den überwiegenden Teil
beschreibbarer Abläufe sowohl in der
Chemie als auch in der Biotechnologie aus-
machen, dann hat man es erst einmal mit
Teilchenklassen zu tun. Diese sind molekular-
gelöst oder aggregiert, kapillaraktiv, lösungs-
mittelanziehend oder abstoßend (Tabelle 1).
Die Reaktivität in Lösungen ist durch die
erhöhte Beweglichkeit im Vergleich zum
Festkörper gegeben. Als physikalischer
Parameter gilt die differentielle Änderung
des Impulsflusses ν als spezifische Wirkung
mit der Dimension Js/kg (Formelkasten 1).
Einführung
Die physikalische Chemie befasst sich
in ihren Teilbereichen Thermodynamik,
Kinetik, Strukturtheorie bzw. Elektrochemie
mit Phänomenen, die physikalisches Ver-
halten und Stoffänderungen verknüpfen.
In diesem Zusammenhang ist z.B. die Lösung
einer Vielzahl von Stoffen in der Flüssigkeit
Wasser, gefolgt von Ausfällung und Ablage-
rungen an Grenzflächen, ein technisch wichti-
ges wie auch theoretisch verzwicktes Para-
debeispiel.
Dabei eröffnet die hinter diesem Phäno-
men stehende Wirkung sogenannter Sekun-
däreffekte als Initiator für einen kinetisch
gehemmten, aber thermodynamisch mög-
lichen Reaktionsablauf einen unge ahnten
Spielraum. Die Diskussion über die Beein-
flussung von Kühen und Menschen durch
Mikro- und Millimeterwellenstrahlung und
der einst üppige Markt für physikalische
Wasserbehandler sind Beispiele hierfür [1].
Weitere frappierende Demonstrationen
bieten die fallende Reihe vieler Domino-
steine, der lawinenartige Ablauf einer Reak-
Prof. Dr. Robert Fleischmann,
Fachbereich Chemie- und Biotechnologie
Realer Hintergrund eines komplexen Themas der physikalischen Chemie
Feldeinflüsse und Impulsfluss in Lösungsmitteln
31Querschnitt Juli 2004
Tabelle 1: Partikelklassen im Lösungsmittel Wasser
Obgleich nicht einfach erklärbar, er -
scheint die Bildung einer molekulargelösten
Spezies zumindest weit unterhalb der Sätti-
gungsgrenze energetisch gut beschreibbar.
Die Grundlage liefert entweder die Solvata-
tionsenthalpie oder die Solvatationsentropie.
Reichen beide nicht aus, die freie Reaktions-
enthalpie (∆G) in den negativen Bereich zu
verschieben, müssen verfahrenstechnische
Anstrengungen unternommen werden,
um einen metastabilen molekulardispersen
Zustand zu erzeugen.
Ist der Lösungsprozess gelungen, stellt
die Umkehrung des Prozesses erhebliche
Anforderungen an Energieeinsatz sowie
Grenz flächen- und Volumenänderung durch
Verdampfung, Verdunstung und Kondensa-
tion bzw. Ausfällung [3]. Daher ist es leicht
vorstellbar, dass das Zusammenwachsen zu
immer größeren Partikeln über die Zwi-
schenstufe der Agglomeratbildung einer
komplexen Kinetik und Energetik unterliegen
kann (Formelkasten 2 und Bild 1).
So sammeln sich unter statischen Bedin-
gungen und der Wirkung der Schwerkraft
Aggregate mit einer Dichte, die über der des
umgebenden Mediums liegt, auf dem Boden
der entsprechenden Gefäße. Aerosole und
Suspensionen, die durch gleichnamige Auf-
ladung und sekundäre Dipolwirkung stabili-
siert sind, widerstehen durchaus für längere
Zeit dieser Aggregation, obgleich kleinere
Teilchen im Vergleich zu großen Tropfen
und Körperchen eine höhere Reaktionsfähig-
keit besitzen und isotherm zusammenwach-
sen [2].
In Flüssigkeiten wie Wasser, Öle, als
Suspensionen oder Lösungen, die in der
Lebensmittel-, pharmazeutischen und chemi-
schen Industrie eingesetzt werden, sind eine
Vielzahl von Teilchen im Nanometerbereich
vorhanden. Diese Submikroteilchen liegen
in der Größe über den molekular gelösten
Stoffen, aber noch unter den mit der Wellen-
länge des Lichtes korrelierenden Durchmes-
sern sichtbarer Teilchen.
Partikelklasse Beispiel im Lösungsmittel Wasser
Lyophob Alkane usw.
Kapillaraktiv nichtionisch Nichtionische Tenside
Kapillaraktiv ionisch Ionische Tenside
Kapillarinaktiv ionisch mit Solvathülle Starke Elektrolyte
Kapillarinaktiv ladungsabgesättigt Schwache Elektrolyte
Lyophil Alkohole usw.
Zeitliche Impulsänderung als spezifische auf die Einheitsfläche F bezogene Größe ver-
knüpft mit der örtlichen Geschwindigkeitsänderung führt zum Viskositätskoeffizienten η:
Übergang von der dynamischen zur kinematischen Viskosität:
Dimension: = spezifische Wirkung
Formelkasten 1: Impuls und Geschwindigkeit
32
Energieänderung als intensive Größe der chemischen Potentialdifferenz ∆µ mit Grenz-
flächenspannung σ und Teilchenradius r:
Die Ausbildung von Aggregaten mit dem Radius r ist eine endotherme Reaktion. Mit dµ =
(RT/p)*dp gilt in den Grenzen pr und p∝ = ps:
Energiedarstellung als Grundlagengleichung mit Übergang zum Bruchteil der Sättigung
(xr/xs), zur spezifischen Grenzflächenarbeit σGA (J/m2 = N/m) und zur Dichte ρ der sich
bildenden Festkörperpartikel in Lösungen:
Im kinetischen Ansatz zeigt der Vergleich bei homogener Keimbildung als Reaktion zweiter
Ordnung der Anzahl n1,1 gleicher Teilchen mit einem mittleren Abstand a1,1 für die Keimbil-
dungsgeschwindigkeit vKM:
wobei
mit der Dimension
Aufspaltung der Geschwindigkeitskonstanten k in einen Energieanteil als Aktivierungsenergie
der Keimbildung, einen Geschwindigkeits- und Diffusionsanteil kv = 4π * D1,2 * NA * a1,1 und
eine dimensionslose Konstitutionskonstante P (bei Kugelgestalt ohne Ladung normiert =1)
Die Keimbildungsenergie EKM entspricht einer Aktivierungsenergie, die aufgewandt
werden muss, um die Grenzflächenarbeit aus Enthalpie- und Entropieänderung bei der
Partikelbildung zu erhalten. Ein sphärischer Ansatz berücksichtigt dies mit Radius r des
Aggregates aus Sättigungsansatz folgendermaßen:
Formelkasten 2: Grenzflächenthermodynamik und Kristallkeimbildungskinetik
33Querschnitt Juli 2004
Keimbildungsenergie bei sphärischer Gestalt als Oberflächenarbeit pro Aggregatteilchen:
Eingesetzt in Geschwindigkeitsansatz für die Keimbildung:
Anfangsgeschwindigkeit der Keimbildung abhängig von der Grenzflächenarbeit, der
Transportgröße D und einer Konstanten P, die die Konstitution berücksichtigt (bei Kugel-
gestalt normiert = 1)
Fortsetzung Formelkasten 2
Kritallkeimradius r in nm
0 5 10 15 20 25 30 35 40
6000
5000
4000
3000
2000
1000
0
Ak
tiv
ieru
ng
sen
erg
ie E
J/m
ol metastabil
stabil
Molekularer Bereich
Zwischenphase
Übersättigungswachstum
Thermischer
GrenzbereichStabilitäts-Ablagerungen
Bild 1:
Agglomeratradius
und Kristallkeim-
bildungsenergie
34
Wechselwirkung zwischen zwei Ladungen:
Wechselwirkung zwischen Ladung und permanentem Dipol:
Wechselwirkung zwischen zwei permanenten Dipolen:
Obgleich sich die Nahwirkungsansätze bei Eq,q und Eq,µ erheblich unterscheiden, kann
durch Ausrichtung der Dipole auf die Ladung und der daraus resultierenden dichteren
Packung eine Solvationsenergie berechnet werden, die den Gitterenergien entspricht.
Damit ist sowohl eine Auflösung des Festkörpers beschreibbar als auch die Einbringung
von Aktivierungsenergien über eine Wechselfeld-Dipolstörung zu fixieren.
Diese Nanoteilchen haben ein chemisches
Potential, das, abhängig von Grenzflächen-
spannung und Verhältnis Volumen/Grenz fläche,
höher ist als z.B. das eines mikrometergroßen
sichtbaren Kristalles [5]. Die Folge ist daher
nicht nur eine gesteigerte Reaktivität, sondern
auch eine höhere Löslichkeit. Dennoch werden
diese Agglomerate, wie erwähnt, entweder
durch die Dipolwirkung des Lösungsmittels
oder durch gleichnamige Aufladung an der
Oberfläche im metastabilen Zustand gehalten.
Besonders Trinkwasser, Abwasser und
Rohöl mit sehr unterschiedlichen Mengen an
gelösten Gasen wie Sauerstoff, Stickstoff,
Kohlendioxid oder Salzmengen wie Calcium-
carbonat, Magnesiumsulfat, Natriumchlorid,
bzw. Oxiden wie Quarz, Eisenoxid, Mangan-
oxid sind gute Beispiele.
Elektrische und elektro-chemische Grundlagen
Einen erheblichen Anteil haben im
Lösungsbereich die „kapillarinaktiven“
Ionen mit hoher Nahordnung in einer Solvat-
hülle. Für diese Stoffgruppe gelten die
Coulombschen Gesetze (Formelkasten 3).
Dabei beschreibt in einem Formelsatz die
erste Stufe Anziehungskräfte zwischen Kation
und Anion abhängig vom quadratischen
Kehrwert der Entfernung, bzw. als potentielle
Energie abhängig vom einfachen Kehrwert
des Abstandes. Die direkte Anwendung
der Coulombschen Gesetze führt mit Aus-
nahme des Gesetzes erster Ordnung zu einer
Winkelabhängigkeit der Energie und damit
zu einem maximalen bzw. minimalen orts-
Formelkasten 3: Intermolekulare Wechselwirkungen
35Querschnitt Juli 2004
Mit der vorgenannten Betrachtung der
ungerichteten thermischen, aber gerichteten
elektrischen „inneren“ Energie und der
Wechselwirkung im molekularen Modell
kann man Entfernungsabhängigkeiten einer
energetischen Wirkung modellhaft festlegen.
Leider sind diese Aussagen in der Lösung
nicht so leicht mit dem Ort fixierbar wie in
einem Festkörper. Dazu muss man eine
gitterähnliche Korrelation finden. Die ein-
fachste Methode ist die Gleichverteilung,
die unabhängig von der Raumladungsdichte
der Ionen einen mittleren Abstand der Teil-
chen definiert.
P. Debye und W. Hückel haben in den
zwanziger Jahren des letzten Jahrhunderts
ein Verteilungsmodell entwickelt, das die
Poissonsche Gleichung für die Raumladungs-
dichte mit der Energieverteilung nach Boltz-
mann kombiniert und sowohl die Ladungs-
wertigkeit als auch die thermische Energie
in einer zugeordneten Ortsverteilung be-
rücksichtigt. Damit werden im Gegensatz zur
Gleichverteilung die Zwischenwertigkeiten
(1,2; 2,3 usw.) korrelierbar (Formelkasten
04).
Anwendungsfall Ausfällung der Erdalkalikarbonate in Wässern
Seit über fünfzig Jahren sind eine Vielzahl
sogenannter physikalischer Wasserbehand-
ler im Handel, die die unkontrollierte Fest-
körperablagerung in Rohrleitung und beson-
ders an Wärmetauscherflächen verhindern
sollen [1]. Diese Problematik entspringt der
„anomalen“ drastischen Löslichkeitsverrin-
gerung eines Salzes bei steigender Tempe-
ratur aufgrund einer Folgereaktion. Damit
kommt die im Vorhergehenden angedeutete
Verlagerung der thermodynamischen Kon-
trolle eines Prozesses zu dessen kinetischer
Fixierung zur vollen Wirkung.
Kohlendioxidlösung und
Hydrogencarbonatbildung
Wässer nehmen beim Durchfließen
calcium- und magnesiumkarbonathaltiger
Böden diese Erdalkalisalze auf. Gasförmiges
abhängigen Energiewert. Diese energetisch-
konstitutive Einstellung zweier Teilchen
gegeneinander wird von der thermischen
Energie beeinflußt. Ist bei entsprechenden
Temperaturen der Unterschied zwischen
den beiden Einstellungen mit Emax und Emin
groß, kann anstelle der Winkelabhängigkeit
der kT-Faktor (NA*k*T als molare Größe)
gewichtet eingeführt werden. Dies erlaubt
die Berechnung von mittleren potentiellen
Energien [4].
Bei den direkten Ladungskorrelationen ist
die Energie proportional den Ladungen, sie
wird durch eine hohe relative Dielektrizität
verringert und vom Abstand der Ladungen
beeinflußt. Eine modellmäßige Berechnung
ergibt bei 10-9 m (1 nm) Abstand einer positi-
ven und einer negativen Ladung im Wasser
(SATP): E1,2 = 2,937*10-21 J oder rund 1,8 kJ
pro Mol. Dieser Wert steigt bei Verringerung
des Abstandes an und erreicht beim Verlas-
sen der Lösungsphase den Bereich der Git-
terenergien der entsprechenden Festkörper
NaCl, CaCO3 usw.
Die Wechselwirkung zwischen Lösungs-
mitteldipol und Ladung als Einfluss zweiter
Ordnung wird im Gegensatz zur Coulomb-
energie erster Ordnung durch die thermi-
sche Energie (3 kT) in der Ausrichtung
gestört und hat dazu eine wesentliche höhere
Abstandsabhängigkeit (1/a4). Eine mit dem
vorher-gehenden Abschnitt vergleichbare
modellmäßige Berechnung mit äquivalenten
Werten des Wasserdipols führt zu einer
Wechselwirkungsenergie bei 1nm Abstand,
die aufgrund geringerer „Fernwirkung“
um mehr als vier Zehnerpotenzen niedriger
ist: E1,2 = 1,2219*10-24 J bzw. 7,56*10-22 bei
Verkürzung des Abstandes auf 200 pm.
Als letzte und eigentlich klassische
Sekundärrektion bleibt die Dipolwechsel-
wirkung der Lösungsmittelmoleküle mit
einer weiter verringerten Abstandswirkung
(1/a6). Die vergleichbare Modellrechnung
zeigt bei einem Abstand von 1 nm eine
Energie von - 4,28*10-27 J und bei 200 pm
= - 4,84*10-25 J. Die Nahwirkungsenergien
unterscheiden sich daher bei einer Einzel-
betrachtung der Moleküle in einer abstei-
genden Relation 1/10-3/10-6.
36
Gleichverteilung:
a1,2 = (1000 cm3/2*n*6,02*1023)1/3
a1,2 (1mol/l) = 940 pm, 1mmol/l = 9,400 nm usw.
P. Debye und W. Hückel haben ein Verteilungsmodell entwickelt, das die Wertigkeiten
der Kationen und Anionen (z.B. 1,1; 1,2; 2,2; 2,3 usw.) berücksichtigt, aber entsprechende
Vereinfachungen und Postulate beinhaltet:
1. Der thermische Energieanteil ist größer als die interionische Wechselwirkung,
um den Unterschied zwischen gerichteter (Gitter-)Energie und Lösungsverteilung
zu gewähr leisten.
2. Zwischenmolekulare Kräfte außer der Coulomb-Kraft werden nicht berücksichtigt
(Vernachlässigung von Sekundäreffekten).
3. Durch die Verknüpfung der Boltzmannverteilung Eq,q/Etherm. mit der Raumverteilung der
Poissonsche Gleichung entsteht eine Gleichung, die die Berechnung einer statischen
Ionenatmosphäre (Zentralioneneinfluss) in Abhängigkeit von der Raumladungsdichte
ρi erlaubt.
Differentielle Ionenverteilung:
wobei
Formel für die Raumladungsdichte ρj,mittl. in As/m3 bezogen auf eine mittleres Potential Uj
und abhängig von der Summe der Ionen i:
Mathematische Umformung, Vernachlässigung des ersten Gliedes aufgrund der Elektro-
neutralität und Abbruch nach dem zweiten Glied der Potenzreihe führt zusammen mit
dem Ansatz der Poissonschen Differentialgleichung als Verknüpfung der Ergiebigkeit der
Feldstärke und dem Gradienten des elektrischen Potentials mit Hilfe des Laplaceoperators
(∂2/∂x2 usw.) zu einer weiteren Berechnungsmöglichkeit für Ionensolvatsphären:
Es zeigt sich, dass im Bereich der festen Größen und der Ionen- bzw. Wertigkeitssummen
eine Länge a1,2 abgeleitet werden kann, die von der Gesamtzahl der Ionenladungen ab -
hängig ist und damit eine Zuordnung zur sogenannten Ionenstärke I = 1/2*Σzi2*ci erlaubt.
und
Formelkasten 4: Innere Gleichverteilung und Debye-Hückel Ansatz (DH)
37Querschnitt Juli 2004
Kohlendioxid, das unter anderem bei
menschlicher Atmung und Verbrennungs-
prozessen entsteht, löst sich nach der Gesetz-
mäßigkeit von Henry-Dalton entsprechend
einer Konstanten k = 1,67 * 106 mbar in
Wasser bei 298 K. Dies bedeutet 33,2 mmol
oder 1460 mg pro Liter Wasser bei 105 Pa
CO2-Druck, (Einbringung des Kohlendioxid-
gases unter Atmosphärendruck). Bei etwa
2 bar liegt die Löslichkeit über 1,5 Liter
Kohlendioxidgas pro Liter Wasser, was z.B.
im Gegenzug zur bekannten Entgasung einer
Mineralwasserflasche bei Druckentlastung
führt. Bei einem durchschnittlichen Partial-
druck dieses Gases, von rund 30 Pa in
Luft, beträgt diese gelöste Menge nur noch
0,010 mmol/l unter SATP-Bedingungen.
Zwischen diesen extremen Grenzwerten
bewegen sich die sogenannten natürlichen
Kohlendioxidgehalte im Wasser (Tabelle 2).
Die Carbonate als Salze der Kohlensäure
gehen in wässrigen Lösungen mit dem
Kohlendioxid in Hydrogencarbonate über.
Daraus ergibt sich der bekannte Test auf
aggressive freie Kohlensäure im Wasser;
man bestimmt den pH-Wert, setzt CaCO3
(Marmorpulver) zu und prüft nach 12 Stun-
den, ob sich das Marmorpulver aufgelöst
und der pH-Wert zugenommen hat (Hydro-
gencarbonatbildung, Formelkasten 5).
Calciumcarbonat mit M = 100,08 g/mol
löst sich im Wasser bei 298 K mit 14 mg/l
Wasser; das Löslichkeitsprodukt (L) ist
1,96*10-8 mol2/l2. Kohlendioxid löst sich im
Wasser, wie aufgezeigt, bei Atmosphären-
druck des reinen Gases mit 34 mmol/l. Beim
Übergang zum Hydrogencarbonat steigt
damit die Löslichkeit des Erdalkalicarbonats
um die sechzig-fache Menge von 0,14 auf
8,02 mmol/l.
Kinetische Kontrolle
Kohlendioxid verliert beim Erhitzen von
10 auf 80° C etwa 80 % seiner Löslichkeit.
Nach einer empirischen Untersuchung bei
Raumtemperatur benötigt man zur Stabilisie-
rung von 3 mmol/l Ca(HCO3)2 (15° dH) etwa
1 mmol/l CO2 . Einer Reduktion von 1 mmol
auf 0,2 mmol CO2 beim Übergang von RT
auf 80°C entspricht weitergehend einer
Destabilisierung von 3 auf 1,6 mmol
Ca(HCO3)2 und einer Änderung des pH-
Wertes von 7,13 auf 7,53. In einem Kubik-
meter Wasser würde diese Ausgasung und
Gleichgewichtsverschiebung zur Bildung
von 140 g CaCO3 bei 80°C führen.
Zur Calciumcarbonatbildung aus einer
übersättigten Lösung (xr/xs =2) werden bei
einer Reaktion zweiter Ordnung und Bildung
vom Aggregatendurchmessern im beginnen-
den Stabilitätsbereich von 20 bis 40 nm
Geschwindigkeitskonstanten k um 0,27 m3/
mol*s* errechnet (Formelkasten 02). Bei
1,4 mol/m3 CaCO3-Angebot aus der Gleich-
gewichtsverschiebung Ca2+ und CO32- liegen
die Halbwertszeiten im Bereich von wenigen
Sekunden.
Diese Geschwindigkeit nimmt jedoch
bei Reduktion der Übersättigung und
gleichzeitigem Wachstum der Agglome-
rate erheblich ab (Bild 2). So steigt ein
Zeitfaktor Zf (s/mmol) exponentiel von
wenigen Sekunden auf weit über 10
Stunden, wenn die Aggregate von 20
auf 200 nm wachsen sollen (Bild 3). Dies
lässt genügend Zeitaum für inhomogene
Ablagerung.
Die genannten komplexen kinetischen
Vorgaben einer homogenen Kristallitbildung
Tabelle 2: Gleichgewichtskohlendioxidgehalte im Wasser
Beschreibung Temperatur Kohlendioxid Kohlendoixid
(K) (101315 Pa) (30 Pa)
Eiswasser 273,15 77,14 mmol/l 0,023 mmol/l
Tiefbrunnen etwa 283 53,90 mmol/l 0,016 mmol/l
SATP-Standardbedingungen 298,15 34,36 mmol/l 0,010 mmol/l
Badewasser etwa 310 25,67 mmol/l 0,008 mmol/l
Heißwasser etwa 353 13,44 mmol/l 0,004 mmol/l
38
Elektrolyse:
Kathode: 4 H2O + 4 e- 4 OH- + 2 H2
Anode: 4 OH- 2 H2O + O2 + 4 e-
Gesamt: 2 H2O 2 H2 + O2
Wasserstoff- und Sauerstoffentwicklung
USpA-Reaktionen:
Kathode: 2 H2O + O2 + 4 e- 4 OH-
Anode: 4 OH- 2 H2O + O2 + 4 e-
Gesamt: O2 O2
Sauerstoffverschiebung von Kathode zur Anode
Kohlendioxidreaktionen:
CO2 + H2O H2CO3
H+ + HCO3-
CO32- + H+
Erdalkalireaktionen (Beispiel Calcium):
CaO + CO2 CaCO3
CaCO3 + CO2 + H2O Ca(HCO3)2 Auflösung/Ausfällung
Ca(HCO3)2 + 2 OH- CaCO3 + H2O + CO2 Neutralisation und Ausfällung
Formelkasten 5: Reaktionsabläufe
30000
25000
20000
15000
10000
5000
0
An
fan
gsg
esc
hw
ind
igk
eit
* 1
05 in
mo
l/m
3 * s
r (initial) nm
0 5 10 15 20 25 30 35 40 45 50
Bild 2:
Agglomeratradius
und Anfangs-
geschwindigkeit
einer Kristall-
keimbildung
am Beispiel der
Calciumcarbonat-
ausfällung
39Querschnitt Juli 2004
des letzten Jahrzehnts die Arbeitsrichtlinie
W 512 des DVGW*1 erarbeitet.
In einem 21-Tage-Testlauf wird hier-
bei zusammen mit DIN 38 404-10 (Calcit ab-
scheidung) eine praktische Bewertung der
Ablagerungen durchgeführt. Entscheidend
ist aufgrund der genannten schwierigen
kinetischen Abhängigkeiten der Vergleich
zwischen behandeltem und nicht behandel-
tem Wassereinlauf in ein handelsübliches
Wärmetauschersystem. Als Ausgangsbasis
bzw. als Steinbildungsvorlage gilt die 15°C-
Abscheidekapazität von mindestens 30 mg/l
Calcit, die durch CO2-Entgasung erreicht
werden kann. Die Reaktionsendtemperatur
ist 80°C. Der Adiabaten-Verlust ist nicht fest-
gelegt, liegt aber bei der entsprechenden
Betriebsweise, Wärmedämmung und Geo-
metrie handelsüblicher Geräte unter 10 %
der eingesetzten Energie. Der Energietausch
selbst ist nur durch die Maximalbelastung
6,5 W/cm2 der elektrischen Heizeinrichtung
fixiert. Die Leistung von 6500 W erfordert
dabei eine Tauscherfläche von mindestens
im Flüssigkeitsmedium und einer „unge-
ordneten“ Ablagerung an Wärmetauscher-
Grenzflächen sind durch einfachere analy-
tische Bestimmungsmethoden wie Kapillar -
viskosimetrie oder Differenzmessung der
Teilchenzahlen nicht ohne weiteres festlegbar.
Sie erfordern vielmehr eine vergleichende
Untersuchungsmethode, die den komplexen
Gleichgewichtsverschiebungen und Trans-
porterscheinungen an die Festkörper und
Gasgrenzen der Flüssigkeit mit genügend
langen Reaktionszeiten gerecht wird.
Ideal wäre z.B. eine Überwachung der
Rohrleitungssysteme mittels dynamischer
Differenzdruckaufzeichnung oder die dyna-
mische Wirkungsgradbestimmung von mehr
oder weniger stark belegten Heizelementen.
Die Zeitvorgaben liegen aber hier sicherlich
bei vielen Monaten oder Jahren. Um diese
Zeiträume zu verkürzen und eine handhab-
bare schnellere Vergleichsmethode zur
Beurteilung der vielen Angebote auf dem
Markt der physikalischen Wasserbehandler
zu erhalten, wurde in der ersten Hälfte
90
80
70
60
50
40
30
20
10
0
r (i
nit
ial)
nm
ln Zf s/mmol
-4 -2 0 2 4 6 8 10 12
Grenzbereich
Bild 3:
Agglomeratradius
und Zeitfaktor
der Carbonat-
ausfällung in
Sekunden pro
mmol
*1
W 512 vom
01.09.1996 DVGW:
Grundlagen zur
Zertifizierung von
Trinkwasserbehand-
lungsanlagen zur
Reduktion der
Steinbildung.
40
1000 cm2. Als Steinbildung werden Teilchen
über 500 µm und feste Ablagerungen ge -
wertet. Der Wirkungsgrad wird in der Rela-
tion der Ablagerung des Behandlungs-
stranges zum Referenzstrang gesehen. Trotz
dieser relativen Betrachtung sind über länge-
re Versuchszeiträume*2 bei Wässern mit
einem durchschnittlichen Gehalt von 3 mmol
Ca(HCO3)2 (15° dH) sehr gleichmässige
Referenzablagerungen zu erkennen gewe-
sen. Vergleicht man diese Referenzablage-
rungen (Nullwert) mit der hochgerechneten
maximal ausfallenden Menge von 140 g
pro m3, dann sind unter den Bedingungen
des DVGW-Tests etwa 20 bis 30 % des
Hydrogencarbonatanteiles „steinaktiv“.
Ausfällung des schwer lösliche
Erdalkaliphosphats
Die Zugabe von Polyphosphat
M(I)x(PO3)x zu erdalkalihydrogencarbonat-
haltigen Wässern führt unter allen Bedingun-
gen zur schnellen und damit überwiegend
homogenen Bildung des unlöslichen Erd-
alkaliphosphats als Keimbildner und damit
Grenzflächenangebot direkt in der Lösung.
Die Löslichkeitsprodukte und Löslichkeiten
für die Calciumsalze zeigen diesen Zusam-
menhang (Tabelle 3). Danach ist bei 16,8° dH
die Bildung von etwa 0,1 mmol Ca(PO3)2-
Kristallite bei RT (etwa 1014 Kritallitkeime pro
Liter) notwendig, um in einer sogenannten
Temperaturfernwirkung bei 80° die „Stein-
aktivität“ nach W 512 DVGW von 20 bis 30 %
auf 4–8 % weiter zu reduzieren.
Kristallitbildung mittels
Gleichstrombehandlung
Stromflüsse in leitfähigen z. B. neutralen
oder schwach basischen Wässern bewirken
in einer elektrochemischen Zelle eine pH-
Differenzierung an Kathode und Anode.
Thermodynamisch müssten sich die im
Kathodenraum (Formelkasten 5) erzeugten
Kristallite aus CaCO3 im Anodenraum
wieder umsetzen. Damit ginge der Faraday-
wirkungsgrad besonders in einem geschlos-
senen Nachreaktions- und Mischraum
bezogen auf die Ausfällung gegen einen
Minimalwert. Modellversuche mit strengen
kinetischen Vorgaben zeigen diesen Zu-
sammenhang in einem ladungsabhängigen
Wirkungsgrad. D.h. unter vorgegebenen
Abständen und Mischzeiten ergeben wohl
Ladungen bis zu 3000 As eine Ausfällungen
bis zu 1mmol/l CaCO3, der Ladungswir-
kungsgrad fällt jedoch von über 20% unter
50 As bis relativ gleichbleibend 3–5 % bei
über 500 As. Vergleicht man diese stark
kinetisch und damit systemabhängigen
Ergebnisse mit der vorhergehenden Kristallit-
keimbildung durch Calciumphosphataus-
Tabelle 3: Löslichkeiten verschiedener Calciumsalze
Salz Ca(HCO3)2 CaSO4 CaF2 CaCO3 Ca3(PO4)2
Löslichkeits-
produkt 2,06 * 10-6 5 * 10-5 1,5 * 10-10 2 * 10-8 2,1 * 10-33
Löslichkeit des
Salzes in mol/l
und mg/l
8,02 * 10-3
1307
7,07 * 10-3
962
3,35 * 10-4
26
1,40 * 10-4
24
1,14 * 10-6
0,04
Anzahl der
Ca2+-Ionen pro
Liter Lösung 4,828 * 1021 4,256 * 1021 2,017 * 1020 8,428 * 1019 2,062 * 1017
Faktor einer
Ausfällung
Ca(HCO3)2 1 1,13 24 57 23414
Faktor einer
Ausfällung
CaCO3 1 409
*2
Der Autor dankt der
Firma Grünbeck
Wasseraufbereitung
GmbH in Höchstädt
an der Donau für die
Durchführung der
Ablagerungs- und
Langzeittests.
41Querschnitt Juli 2004
entsprechender Affinitätstrennung erreicht
man bei etwa 100 As (0,24 mmol/l Ausfällung,
etwa 1015 Kristallitkeime im beginnenden
Stabilitätsbereich) einen der Phosphatzu-
gabe vergleichbaren Wert der Steinreduktion
(Tabelle 4). Es ist damit möglich, die chemi-
sche Methode der Phosphatzugabe durch
die physikalisch-elektrochemische Eigen-
kristallitbildung zu ersetzen und eine örtliche
bzw. Temperaturfernwirkung durch ausrei-
chend homogene Kristallitkeimbildung nach-
zuweisen.
Wirkung von Wechselstrom-
behandlungen
Eine Vielzahl von sogenannten Kalkredu-
zieranlagen arbeiteten mit Wechselströmen
(100–500 mA; 10 bis 30 V, 1–10 kHz). Auch
bei diesen Anlagen waren bei Optimierung
der Elektroden und Reaktionsräume Wirkun-
gen bis zu 30 % nach W 512 feststellbar, aller-
dings erschien unter keiner Bedingung der
für die positive Bewertung und Zertifizierung
nach W 512 notwendige Wirkungsgrad von
fällung, dann sollte es möglich sein, bei einer
Menge von 3 mmol Ca(HCO3)2 pro Liter
Wasser (15° dH) mit Hilfe einer Ladungs-
menge von 50 As (0,1 mmol CaCO3-Bildung
und Faradaywirkungsgrad 100%) in einem
Liter Wasser die Kalksteinbildung erheblich
zu reduzieren.
Die Hilfsmittel dazu stellt die Elektro-
chemie[6]. Aus Gründen der Wasserstoff-
und Reduktionssicherheit bleibt man
bezogen auf die Wasserelektrolyse im
Unterspannungsbereich (USpA); dies erfor-
dert eine hohe Flächenaktivität des Reaktors.
Schwieriger gestaltet sich die kinetische
Stabilisierung der Carbonatkristallite, die
allerdings auch nicht zu einer verstärkten
Einlagerung in die Elektrodenstruktur führen
darf. Schließlich sollten im Trinkwasser-
bereich keine Materialien verwendet wer-
den, die bei Stillstandskorrosion Nickel-
und Chromionen freisetzen.
Bei Optimierung dieser Parameter
in einem elektrochemischen Reaktor mit
Elektroden hoher innerer Oberfläche und
90
80
70
60
50
40
30
20
10
0
r (i
nit
ial)
nm
ln Z pro s * Liter
0 5 10 15 20 25 30 35 45
Grenzbereich
40
Bild 4:
Agglomeratradius
und Kristallkeim-
bildung Z pro
Sekunde und Liter
42
zweier Hydrogencarbonatanionen (Formel-
kasten 5 – Hydrogencarbonatrückreaktion).
Setzt man die Argumentationskette des
Sekundäreinflusses einer vorgezogenen
homogenen Keimbildung fort, dann be-
deutet die Wechselfeldbehandlung:
eine Beeinflussung aller Ionen;
eine Asymmetrie bezüglich HCO3-/CO3
2- -
Bewegung;
eine starke Gewichtung der Rückreaktion.
Für die Asymmetrie ergeben sich aus der
DH-Theorie für CaCO3 und Ca(HCO3)2 als
2,1 und 2,2-Elektrolyte in Einheiten der Ionen-
stärke oder Konzentration Hinweise (Siehe
Formelkasten 4).
Wirkung eines magnetischen Feldes
Die Energieeinbringung und Wirkung
elektrischer (Doppelschichtumladung im
Kondensator) und magnetischer Wechsel-
felder (externe Spulen) kann durch die
Beeinflussung der Dipole beschrieben
werden. Dabei fällt auf, dass die Dipole
des Lösungsmittels durchaus in der Lage
sind, die hohen Gitterenergien eines Salzes
zu kompensieren. Die Wirkung einer inter-
molekularen Wechselwirkung ist aber auf
äußerst geringe Abstände begrenzt, d.h.
eine Überwindung der kinetischen Kontrolle
wird weitaus schwieriger. Das zeigen eigene
66 % erreichbar [7]. Eine pH-Verschiebung
und messbare Ausfällung des CaCO3 im
Rahmen unserer Messgenauigkeit war eben-
falls nicht zu erkennen. Dennoch kommt es
zu einer homogenen Desaktivierung des
Hydrogencarbonatanions.
Geht man vom genannten Kristallitkeim-
modell aus, das stabil und ohne Rückreaktion
beim Phosphat, ausreichend bei gerichteter
Gleichstrombewegung, aber immerhin
kinetikbestimmt an der Kathode gebildet
wird, dann bedeutet die Oszillation der Ionen
im Wechselfeld erst einmal nur eine leichte
Erhöhung der thermischen Bewegung.
Wechselfeld bedeutet aber auch im Gegen-
satz zur gerichteten Gleichstromumsetzung,
dass alle Ionen im gesamten Bereich des
Reaktionsraumes zwischen den gleichwertig
zu betrachtenden Elektroden in Betracht
gezogen werden müssen. Die Amplituden
reichen, wie die analytischen Daten be-
weisen, in einem weiten Frequenzbereich
von 50 bis 10.000 Hz nicht aus, um stabile
CaCO3-Agglomerate zu bilden. Dennoch
spricht die „Fernwirkung“ von maximal 30 %
nach W 512 für eine Umsetzung des Hydro-
gencarbonatanions in Richtung Carbonat.
Prinzipiell entsteht unter diesen Bedingungen
CO32- aus Gründen der Elektroneutralität
aber nur aus einer gekoppelten Reaktion
Tabelle 4: Ergebniskorrelationen verschiedener Verfahren zur Reduktion einer
Carbonatablagerung
Verfahren Parameter Wirkungsgrad nach Arbeits-
richtlinie W 512 des DVGW*1
Nullwert
Referenzwert
Referenz 16,8° dH ent-
spricht 3 mmol Erdalkali-
ionen pro Liter Wasser
Bezugswert
0% Wirkung
Phosphatfällung Zugabe 0,2 mmol/Liter 90%
USpA
Affinitätstrennung
50 As
100 As
50%
90%
Wechselfeld
Inonentrennung
Affinitätstrennung
bis 15 Watt
1 bis 10 kHz
30%
Wechselfeld
elektromagnetisch
Kondensator
Magnetfeld
Magnetflussdichte
bis 10 mT
15%
geringfügig über
der Fehlergrenze
43Querschnitt Juli 2004
Messungen mit bis zu 4 Induktionspulen
(Magnetflussdichte etwa 10 mT, Frequenz
10 kHz), die nach W 512 (einmaliger Durch-
lauf) bei maximal 15 % Wirkungsgrad einer
Steinreduktion und damit nur knapp über
der unteren Fehlergrenze der Methode
lagen. Eine Stabilisierung und Fernwirkung
ist also im Vergleich zur Ionenoszillation noch
einmal um die Hälfte geringer festzulegen
(Tabelle 4).
Literatur
[1] SBZ-Heft 9, 1998, Nachricht: Prüfungs-
reihe „Physikalische“ nach W 512 erfolg-
reich“, Zusammenstellung der Produzen-
ten, Seiten 46 bis 49
[2] Kortüm, Lachmann, Einführung in die
chemische Thermodynamik, Verlag
Chemie, Weinheim 1981, S. 377–378).
[3] Grassmann, Widmer, Einführung in die
thermische Verfahrenstechnik, Walter de
Gruyter, Berlin 1974, S. 248 ff.
[4] Hirschfelder, Curtiss and Bird, Molecular
Theory of Gases and Liquids, John Wiley
& Sons, New York 1964, p. 26–30).
[5] Fleischmann, DE 195 02 588: Reduktion
des chemischen Potentials von Agglo-
meraten in strömenden Flüssigkeiten
[6] Fleischmann, DE 198 07 336: Verfahren
zur Reduktion der Carbonatkristallit-
bildung an Wärmetauscherflächen in
erdalkalihydrogencarbonathaltigen
Wässern
[7] Fleischmann, DE 100 01 911: Verfahren
zur eigensicheren und nebenreaktions-
armen Reduktion einer Festkörperbildung
[8] Ifill, Baker, Judd, Magnetically-enhanced
Chemical Disinfection, Trans. IChemE,
Vol 74, Part B, May 1996, (p. 121).
44
krit (460–371 v. u. Ztr.), den Stoikern und
Epikur (ca. 342/41–271/70 v. u. Ztr.)].2 Der
„naturwissenschaftliche“ Kausalbegriff,
vertieft mit G. Galilei (1564–1642), J. Kepler
(1571–1630), F. Bacon (1561–1626) und
anderen im 16. und 17. Jahrhundert, stand
dem „subjektiven“, empiristischen nach
David Hume (1711–1776) entgegen:
Kausalität als eine Angelegenheit der
Er wartung und Gewohnheit, basierend
auf Beobachtung bloßer zeitlich regelmäßig
aufeinander folgender Ereignisse.
Für Immanuel Kant (1724–1804) war
dagegen Kausalität als vor der Erfahrung
liegend, aus dem Verstand kommend, aufzu-
fassen; genauer: als apriorische Bedingung
der Möglichkeit von Erfahrung. Dies führt ihn
zur 3. Antinomie der „Kritik der reinen Ver-
nunft“ (1781), das heißt zur Formulierung der
grundsätzlichen Unvereinbarkeit von
dem aus der Kausalität folgendem Deter-
minismus mit dem Freiheitsbegriff.
A. Comte (1798–1857) und E. Mach
(1838–1916) nun verstehen Kausalität positi-
vistisch als Zusammenhang „funktionaler“
Abhängigkeiten.
Determiniertheit von Welt und Mensch
wird von vielen NeurologInnen aktualisiert
mit der Frage: Ist „Willensfreiheit“ eine
Täuschung?1
Der historische Hintergrund vergegen-
wärtigt das Paradigma: „Determinismus“
als Erfolgsgeschichte in den Wissenschaften
in vier Aufgabenfeldern:
1. der physikalische Determinismus
( und/oder Indeterminismus)
2. der biologische Determinismus
3. der psychologische Determinismus
(der Verhaltensforschung)
4. der historische Determinismus.
Der physikalische Determinismus ist der klassische
Die Physik stellt Kausalgesetze auf, deren
Grundannahme ist, dass jedes Geschehen
eine Ursache habe und zugleich jedes
Geschehen Ursache eines anderen Gesche-
hens werde. Jede Ursache kann mehrere
Wirkfaktoren implizieren [zuerst bei Demo-
Priv.- Doz. Dr. habil. Angelika Karger
Leitidee in Wissenschaft und Gesellschaft
Determinismus
1
Siehe z.B. Zeitschrift:
„Gehirn und Geist“,
Nr. 1, „Angriff auf
das Menschenbild“,
HirnforscherInnen
suchen Antworten
auf philosophische
Fragen“ Willens-
freiheit, S. 52–61,
Spektrum der
Wissenschaft 2003
2
Shmuel Sambursky,
Der Weg der Phy-
sik, München 1978
(insb.: S.108 ff, S.
136)
45Querschnitt Juli 2004
Möglichst alle Determinanten eines
Ereignisses zu bestimmen, ist nur bei
Wiederholbarkeit möglich, das heißt für
Naturgesetze ist Wiederholbarkeit selbst
schon Ausdruck des Gesetzmäßigen: Grund-
lage, um exakte bis graduierbar wahrschein-
liche Prognosen zu treffen, ist für Max Planck
(1858–1947) dasjenige Kriterium, das die
Formulierbarkeit von allgemeinen Kausalge-
setzen allererst legitimiert: „Das Kausalgesetz
ist weder richtig noch falsch, es ist vielmehr
ein heuristisches Prinzip.“ 3 Das Kausal-
prinzip bewährt sich zur Hypothesenfindung
bis heute.
Die mechanistische Auffassung der Kau-
salität wird durch Wahrscheinlichkeitslehre
interpretiert, was auf das „Induktionspro-
blem“ führt, das besagt: Naturgesetze kön-
nen nie allein auf Empirie beruhen, da empi-
risch vollständige Induktion unmöglich ist,
das heißt, induktive Schlüsse können nur
zu wahrscheinlich wahren Aussagen führen
(Empiriebezug beschert stets Erkenntnis-
unsicherheit).4 Für einfache Fälle gilt, dass
mathematisch modellierte Wahrscheinlichkeit
das Verhältnis „günstiger“ Fälle zu allen
erfassbaren „möglichen“ Fällen ausdrückt. 5
Es wird ermöglicht, auch dann etwas über
das Eintreten eines Ereignisses auszusagen,
wenn unsere Erkenntnisfähigkeit nicht hin-
reichend ist, alle für Prognosen relevanten
Determinanten exakt zu erfassen; aber nur
bestimmte Gültigkeitsbereiche werden
ermittelt. Angewandte Wahrscheinlichkeits-
lehre als Entscheidungshilfe bei unvollständi-
ger Information bedeutet mithin nicht die
Abkehr von der Theorie der Lückenlosigkeit
des Kausalnexus. Es stellt sich die Frage
nach dem Weltgeschehen als Ganzem/ nach
einem einzelnen Prozess/ nach homogenen
oder inhomogenen Prozessgruppen. Die
philosophische Reflexion des gesamten Welt-
geschehens diskutiert unter anderem den
Anfangspunkt, die „Ur-Ursache“, das „proton
kinun“ (gr.: kinein = bewegen) desselben in
verschiedenen Kosmologien. Wie der End-
punkt ist dieser nur spekulativ diskutierbar:
ebenso der/die „erste BewegerIn“ oder
„das erste Bewegende“) (oder die „Causa
sui“ = Ursache seiner/ihrer selbst).
Teleologie versus Teleonomie: Der
Endpunkt wird mit dem „End-Ziel“ allen
Geschehens gleichgesetzt, auf das alles
Geschehen hinstrebe (Zielstrebigkeit allen
Geschehens - die causa finalis (Aristoteles)
noch übersteigend): Teleologie (telos =
das Ziel).6
Teleologische Denkweise gilt insbe-
sondere bei NaturwissenschaftlerInnen
als überwunden und zwar als denkökono-
misch un nötige Annahme: die Entstehung
komplexer Systeme kann ohne die Hypo-
these eines „telos“ hinreichend erklärt
werden. Das Bedürfnis, eine Antwort auf die
Frage nach dem „Sinn“ allen Geschehens
zu erhalten, wird nicht befriedigt – der An -
spruch der Wissenschaft ist bescheidener:
man versucht nur, die Lückenlosigkeit des
Kausalnexus optimal zu rekonstruieren.
Naturwissenschaftlerinnnen und Naturwis-
senschaftler lehnen „Teleologie“ ab, aner-
kennen aber die „Teleonomie“: Wuketits
fasst zur „Teleonomie“ (der Gegenbegriff
zur „Teleologie“!) zusammen:
„… Ausdruck für Strukturen, Funktionen,
Verhaltensweisen mit systemer haltendem
(arterhaltendem) Charakter. Im Bereich des
Lebenden sind Vorgänge in diesem Sinne
zweckmäßig, aber nicht ziel-intendiert.
Teleonomie bedeutet, dass sich Lebens-
erscheinungen auf der Basis eines in der
Evolution all mählich herausgebildeten
genetischen Programms vollziehen.“ 7
1958 hatte Pittendrigh den Begriff
„Teleonomie“ zur Bereinigung der Biologie
von teleologischer Metaphysik eingeführt.
Finalität wird heute auf „teleonome“ Leistun-
gen als Ergebnis eines Prozesses bestimmt,
der Zielrichtung uns vortäuscht, z.B. bei der
Selbstorganisation biologischer Molekular-
strukturen. Solche teleonomen Leistungen
werden von J. Monod auf die stereospezifi-
schen Eigenschaften beteiligter Moleküle
zurückgeführt, auf ihre Fähigkeit, andere
Moleküle an der Form zu „erkennen“: im
Grunde handelt es sich um dreidimensionale
Passung von Molekularstrukturen – funktio -
nal interpretiert. Man spricht von mikroskopi-
scher Unterscheidungs-, von elementarer
3
Max Planck, Der
Kausalbegriff in der
Physik, Leipzig 1933
4
3. Karl R. Popper,
Die beiden Grund-
probleme der
Erkenntnistheorie,
Tübingen 1979
5
Siehe u. a. K. Rei-
chenbach mit dessen
„Wahrscheinlich-
keitslehre“ von
1932; R. von Mises
mit „Wahrschein-
lichkeit, Statistik
und Wahrheit“ von
1951; R. Carnap mit
„Induktive Logik und
Wahrscheinlichkeit“
von 1959 u.a.
6
Nicolai Hartmann,
Teleologisches
Denken 1951;
B. von Brandenstein,
Teleologisches
Denken 1960;
Eve-Marie Engels,
Evolutionäre
Erkenntnistheorie
in der Diskussion:
In: Information
Philosophie, Basel
1 und 2/1985
7
Franz Wuketits,
Zustand und
Bewusstsein,
Hamburg 1985
46
„Erkennungsfähigkeit“8. Verwiesen sei auf
Kargers Habilitationschrift „Zeichen und
Evolution“.9
Teleonome Ergebnisse gewährleisten
auch in der Molekulargenetik die Lücken-
losigkeit des Kausalnexus. In der Biokyber-
netik werden „Sollwerte“ in kybernetischen
Regelkreisen lebender Systeme als Resultat
evolutionärer Prozesse begriffen, die expli-
zierbaren Prinzipien der Evolution folgen:
z.B. dem Prinzip der neutralen, kumulativen
Selektion, dem der großen Zahl, dem der
langen Zeiträume u.a. Der Evolution liegen
mehr Prinzipien zugrunde als bekannt, sie
basiert nicht nur auf dem Prinzip blinden
Zufalls und auf Selektionsdruck; ihre Theorie
ist ideologiefrei, wenn bewusst neutral die
tautologische Maxime „Was überlebt, das
überlebt“ zugrunde gelegt wird, und nicht
das „Überleben“, gar Vorrecht des Stärke-
ren, sonstige Komparative/ Superlative wie in
sozialdarwinistischen Miss-Interpretationen.
Auch über K. Lorenz muss gesagt werden,
dass er sich zwar an das Neutralitätsgebot
der Evolutionstheorie hält, solange er explizit
über theoretische Prämissen spricht, jedoch
wählt er oft eine ganz andere Sprache, wenn
er Naturbeobachtungen auswertet, dann
verlässt er den selbst fundierten Boden der
Neutralität, spricht eine unzulässig verkürzte
Sprache, die in gefährlich ideologisches
Fahrwasser führt, oft gar als Bekenntnis.10
Der klassisch physikalische Determinis-
mus: von Pierre S. Laplace (1749–1827)
zuerst explizit 1814 formuliert:
„Alle Ereignisse, selbst jene, welche wegen
ihrer Geringfügigkeit scheinbar nichts mit
den großen Naturgesetzen zu tun haben,
folgen aus diesen mit derselben Notwendig-
keit wie die Umläufe der Sonne … Die
gegenwärtigen Ereignisse sind mit den
voran gehenden durch das evidente Prinzip
verknüpft, dass kein Ding ohne er zeugende
Ursache entstehen kann. Dieses Axiom,
bekannt unter dem Namen des Prinzips vom
zureichenden Grunde, erstreckt sich auf alle
Handlungen …
Der freieste Wille kann sie nicht ohne
ein bestimmendes Motiv hervorbringen …
Eine Intelligenz, welche für einen
gegebenen Augenblick alle in der Natur
wirkenden Kräfte sowie die gegenseitige
Lage der sie zusammensetzenden Elemente
kennte und überdies umfassend genug
wäre, um diese gegebenen Größen der
Analysis zu unterwerfen, würde in derselben
Formel die Bewegungen der größten
Weltkörper wie der leichtesten Atome
umschließen …“ 11
Im Prinzip ließe sich der Ort jedes durch
Differentialgleichungen beschriebenen
physikalischen Objektes aufgrund der vorge-
gebenen Anfangsbedingungen beliebig für
die Vergangenheit und Zukunft berechnen.
Die erdachte „Intelligenz“ = der nach ihm
benannte „Laplacesche Dämon“ ist fähig, alle
Determinanten zu berechnen: alle exakten
Berechnungen sind theoretisch möglich, nur
sind sie praktisch unmöglich: wegen unseres
mangelnden Vermögens. Jedoch kann der
Dämon nach erkenntnistheoretisch strengen
Kriterien auch prinzipiell nicht funktionieren,
da er paradoxerweise Teil desselben Systems
wäre, welches er vollständig zu beschreiben
hätte.
Laplace schließt als 1. Vertreter eines
psychologischen Determinismus den freien
Willen aus: denn kennte der Dämon alle
„Motivationen“ (= Beweggründe) eines
Menschen, könnte er alle Verhaltensweisen
voraussagen.
Nicht zuletzt entwickelt Laplace gerade
aufgrund seines Determinismus die Mathe-
matik der Wahrscheinlichkeiten, um der
Unbestimmtheiten im gewissen Maß Herr
zu werden:
„Die von einem… Gasmolekül be schriebene
Kurve ist in eben so sicherer Weise ge regelt
wie die Planetenbahnen: es besteht zwi-
schen beiden nur der Unterschied, der
durch unsere Unwissenheit bewirkt wird.
Die Wahrscheinlichkeit steht in Beziehung
zum Teil zu dieser Unwissenheit, zum Teil
zu unseren Kenntnissen.“ 12
Immer werden uns Informationen
fehlen – objektiv undeterminierte/zufällige
Prozesse kennt der radikale Determinist
8
Jaques Monod, Zufall
und Notwendigkeit,
München 1971
9
Angelika Karger,
Zeichen und
Evolution, Theorie
und Anwendungen
semio-morpho-
gentischer
Transformationen,
Köln 1986
10
Gute Übersicht
über Positionen zur
Evolutionstheorie
verschafft: Bernhard
Irrgang, Lehrbuch
der Evolutionären
Erkenntnistheorie,
2. Aufl., UTB, Mün-
chen/ Basel 2001
11
Pierre Laplace,
Philosophischer
Versuch über die
Wahrscheinlichkeit,
1814 in Sambursky,
a. a. O. (Fußnote 1)
12
Ebenda
47Querschnitt Juli 2004
nicht. Er gibt damit das entscheidende
Wissenschaftsparadigma auch gegenwärti-
ger Forschungsprogramme vor: stets geht es
um die bestmöglichen Prognosen. Auch die
von Rudolf E. Clausius (1822–1888) in der
Thermodynamik eingeführte Entropie, die
von Ludwig Boltzmann (1844–1909) statistisch
interpretiert wurde, änderte nichts an der
Gültigkeit der deterministischen Vorstellung.
Objektiver Indeterminismus in der Quantenmechanik?
Werner Heisenberg (1901–1976) führte
zur Beschreibung atomarer Prozesse in der
Quantenmechanik die „Unbestimmtheits-
relation“ (1927) bzw. die „Unschärferelation“
ein: es geht um die nie zugleich exakt
bestimmbare Messung des Ortes und des
Impulses von Elementarteilchen (bzw.
auch um Zeit und Energie): die dualistische
Relation wird oft als Beispiel für Indeterminis-
mus herangezogen. Trotz der Unbestimmt-
heitsrelation in der Mikrophysik wird aber
nicht der Kausalnexus der Makrophysik in
Frage gestellt. Strengen Deterministen
(z.B. Albert Einstein 1879–1955), ist die Unbe-
stimmtheitsrelation auch nichts anderes als
eine Laplacesche Bestimmung des Maßes
unserer Unkenntnis, jedoch so gar eine
prinzipiellerer Art, da sie zeigt, dass der/die
BeobachterIn mit zur Versuchsanordnung
gehörend immer schon einen Einfluss auf das
beobachtete System ausübt. Das berühmte
Zitat „Gott würfelt nicht“ ist ein weiterer
Ausdruck der deterministischen Position
Einsteins.
Zwei Seiten einer Medaille?
Karl Popper fasst die Relation des
Determinismus zum Indeterminismus bildlich
zusammen:13
und zwar durch die Metapher
von den Uhren und den Wolken: Uhren als
Bild eines mechanischen, deterministischen
Systems; Wolken als das des Indeterminis-
mus; dem Determinismus zufolge wären
alle physikalischen Systeme in Wirklichkeit
Uhren, auch die Wolken wären Mini-Uhren,
nur dass die Komplexität und die Unvorher-
sagbarkeit der Molekularbewegungen ihrer
Teilchen den Anschein wecken, dass sie
dies nicht seien. Nach dem Indeterminismus
wären alle physikalischen Systeme in Wirk-
lichkeit Wolken, auch die Uhren. Die mecha-
nistische Theorie sei eine Täuschung,
entstanden dadurch, dass die Mechanik
gewöhnlich auf schwere Systeme aus Tau-
senden von Molekülen bestehend, ange-
wandt wird. Feste physikalische Körper, wie
man sie überwiegend in unserer Welt findet,
verhalten sich mechanisch, aber eben nur
annähernd: deterministischen Täuschung.
Die Vorstellung der Interpretation des Atom-
kerns als System von in rascher Bewegung
befindlichen Teilchen reiche aus, die alte
atomistische Auffassung eines mechanischen
Determinismus zunichte zu machen.
Der „Zufall“ sei nicht dem „Zweck“ ent-
gegen gesetzt, sondern sei Gegenstand
einer Theorie objektiver Wahrscheinlichkeit
zufallsartiger Ereignisse, d.h. der „Zufall“ ist
„objektive Tatsache“. Die Existenz des Zufalls
stellt hier eine Komponente zur Erklärung der
Vielfalt der Erscheinungen des Universums
dar. Popper bezieht sich auf Ch. Peirce
(1839–1914), der zuerst im metaphysisch
begründeten Teil seiner Wissenschaftstheorie
vom „Tychismus“ die Objektivität des Zufalls
für die kosmische Evolution formulierte.14
Popper selbst vertritt den Indeterminismus:
„So führt die Situation in der Physik zu der
Annahme objektiver Wahrscheinlichkeiten
oder probabilistischer Verwirklichungsten-
denzen … Ohne eine solche Annahme ist die
moderne Atomphysik (Quantenmechanik)
kaum zu verstehen …“15
In „Das Ich und sein Gehirn“ führt Popper
eine philosophisch lesenswerte Debatte
über den „freien Willen“ mit dem Neuro-
physiologen John Eccles.
Auch schien der 2. Hauptsatz der
Thermodynamik (von Helmholtz; Boltzmann;
Gibbs) mit den Konsequenzen des Laplace-
schen Weltgeistes unverträglich zu sein.
Er besagt, dass in einem sich selbst über-
lassenen, abgeschlossenen System die Entro-
pie zunimmt, d.h. vereinfacht: die „Unord-
nung“ nimmt zu, und nach dem 2. Hauptsatz
13
Karl Popper/ John
Eccles, Das Ich
und sein Gehirn,
München/ Zürich
1977, S. 58 ff u. S. 49
14
Karl Popper,
Objective Know-
ledge, An Evolutio-
nary Approach 1972
(über Ch. S. Peirce)
15
Popper/ Eccles, Das
Ich und sein Gehirn,
a.a.O. (Fußnote 10),
S. 49
48
werden irreversible und idealisierte rever-
sible Prozesse unterschieden. Aber auch
hier gilt, dass die Entropie „subjektivistisch“
interpretiert als Maß unserer Unkenntnis auf-
gefasst werden kann.
Der Physiker Haken sagt, dass eine stren-
ge mathematische Formulierung sowohl die
„subjektivistische“ als auch die „objektivisti-
sche“ Deutung zulasse, denn dies würde –
auch wenn Laplaces Weltgeist alle Lagen der
Atome für alle Zeiten präzis erfassen könnte –
nichts an unserer Kenntnis oder Unkenntnis
ändern, auch die Entropie eines Gases würde
sich dadurch nicht ändern. Die fundamentale-
re Schwierigkeit: Die Entropie hat eine ein-
deutige Zeitrichtung, die Gesetze der Mecha-
nik hingegen sind (zumindest mathematisch)
in der Zeit umkehrbar: in der Natur, in der
physikalischen Wirklichkeit, ist dies jedoch
nicht der Fall: z.B. entmische sich Milch nicht
mehr vom Kaffee. Das Gesetz wachsender
Entropie gilt nur für geschlossene Systeme
(solche befinden sich im thermodynamischen
Gleichgewicht). Kein System kann als völlig
abgeschlossen betrachtet werden. Leben
basiert in jedem Fall auf offenen Systemen.
Wie Gesetze der wachsenden Entropie für
offene Systeme zu bestimmen sind, wäre
zum Verständnis der Entstehung höherer
Ordnungszustände und der Evolution nötig.
Physikalische Fluktuationen können auf
ein physikalisches System so einwirken, dass
wir mit den für relativ stabile Systeme gelten-
den deterministischen Verfahrensweisen
(z.B. mit der Differentialrechnung) nicht allein
auskommen.
Das Verständnis jener internen Schwan-
kungen sei bedeutsam, um die Schwierig-
keiten mit der Entropie zu beheben und zu
verstehen, welche Rolle Fluktuationen bei
der Erhöhung von Ordnungszuständen
(Evolution) spielen.
Haken bringt physikalische Fluktuationen
mit Indeterminismus in Bezug auf Begriffe wie
„freier Willen“: der „Wahl“ und „Freiheit“ in
Zusammenhang, ähnlich wie dies schon im
Zusammenhang mit der Quantenmechanik
diskutiert wurde. Das Problem wird u. a. an
folgenden zwei einschlägigen Beispielen
erörtert:
1. Bei von unten erhitzter Flüssigkeit wird
bei einer bestimmten berechenbaren
Temperatur eine walzenförmige Be -
wegung makroskopisch sichtbar und
deterministisch bestimmbar – nur: Die
Flüssigkeitswalze kann rechts- oder
linksherum laufen, darin kann ein indeter-
ministisches Moment der „Wahl“ oder
der „Freiheit“ gesehen werden, da mikro-
skopisch kleine Fluktuationen den Aus-
schlag geben und diese sich jeglicher
Voraussage entziehen.
2. Im Gedankenexperiment wird eine
Stahlkugel virtuell auf eine senkrecht auf-
gestellte Rasierklinge fallen gelassen. Von
Bruchteilen eines Millimeters hängt es ab,
ob die Kugel nach links oder rechts wegen
der Empfindlichkeit der Bahn gegenüber
den Anfangsbedingungen wegfliegt.
Haken sieht ein „tiefes philosophisches
Dilemma“, wenn kleine Veränderungen in
den Anfangsbedingungen zu ganz verschie-
denen makroskopischen Bewegungsabläufen
führen. Wenn auch hier das Indeterminier-
bare auf unzureichende Erkenntnismittel
zurückgeht und wir nicht in der Lage sind,
präzise die Anfangsbedingungen zu
beschreiben, wird immer noch als objektiv
gegeben angenommen, dass „kleine
mikroskopische Ursachen“ „große makro-
skopische“ Auswirkungen haben können.16
Dies gilt auch für „turbulente“ Prozesse,
bei denen so genannte „Schmetterlings-
effekte“ eine Rolle spielen – vertraut: kleine
Ursachen können große Wirkungen haben,
aber eben auch unvertraut große Wirkun-
gen, z.B. kann (muss nicht) unter bestimmten
Systembedingungen in einem komplexen
System, wie das z.B. des Wetters/Klimas,
bildlich gesprochen der Flügelschlag eines
Schmetterlings im Prinzip einen Orkan aus-
lösen – dies geht aus mathematischen Model-
len der „deterministic chaos“-Lehre hervor:
der Name sagt bereits, dass die „Chaos-
theorie“ immer noch eine deterministische
Grundlage hat, die nur insofern einen Para-
digma-Wechsel gegenüber dem mechanisti-
schen Weltbild Laplaces darstellt, als man in
ihrer Konsequenz zu der gegenteiligen Ein-
sicht gelangt, dass Ordnung, nicht wie im
16
Hermann Haken,
Evolution und Frei-
heit in den Natur-
wissenschaften,
Indeterminismus,
Wahl und Freiheit:
Wie sind diese
Begriffe im Bereich
des Anorganischen
zu verstehen?
Vortrag bei Civitas
Gesellschaft,
München 1973
49Querschnitt Juli 2004
mechanistische Weltbild die Regel im Kos-
mos sei, sondern in der Chaostheorie sich
umkehrt: Ordnung ist die Ausnahme.17
Natur- und Geistes-wissenschaften – Modell-übertragungen?
Für Haken sind solche Untersuchungen
für die physikalischen Grundlagen der
Bio logie wesentlich. Äußerste Vorsicht ist
ge boten, wenn, wie Haken vorschlägt,
Methoden und Begriffsbildungen der Physik
auf geisteswissenschaftliche Gebiete, z.B.
Soziologie, übertragen werden. Jedoch
bin ich nicht der Auffassung, dass solche
Modell übertragungen ganz unzulässig
seien; sie können in der Heuristik der
Geistes- und Sozialwissenschaften gute
Dienste leisten (Haken spricht z.B. unbe-
dacht von molekularen „Sklaventreibern“).
Erinnert sei an die Debatte um die
„Verstärkertheorie“ des Physikers Pascual
Jordan: er übertrug 1932 Vorstellungen
über subatomare Prozesse auf solche von
A-Kausalität im Mikroskopischen, die sich
dann a-kausal ins Makroskopische, in die
sichtbare Welt, wirksam verstärken könnten.
Er folgerte gar, dass die deterministische
Verneinung der Willensfreiheit durch die
Erfahrung der A-Kausalität widerlegt sei.
Erwin Bünnig18
entgegnete 1943, dass
die Verstärkung a-kausaler Phänomene
keine Rolle in der antizufälligen Ordnung des
Lebens spielen könne; es wäre eine zu ver-
hängnisvolle Störung biologischer Steuerun-
gen. Auch die Kybernetik kennt „Störgrößen“
bei kybernetischen Rückkoppelungsprozes-
sen, jedoch sorgen Stellglieder dafür, dass
jene in der Regel keine ausschlaggebende
Rolle spielen können. Andererseits würde ich
gegenüberstellen, dass die „Pufferung“ von
Störgrößen bei sich selbst stabilisierenden
Prozessen auch nicht unbeschränkt und in
jedem Einzelfall möglich sind. Auch ein
kybernetisches Regelsystem kann „kippen“,
so wie alle relativ stabilen Systeme, was
durch die Chaostheorie hinreichend bestätigt
wird: Einsichten, die im 3. Jahrtausend emp-
findlich unser Sicherheitsgefühl stören. Die
Auseinandersetzung um die „Verstärker-
theorie“ gipfelte in Spottversen des
Bio kybernetikers Berhard Hassensteins
ver fasst im Stile Christian Morgensterns:
Das Wirkungsquant
oder die Verstärkertheorie
Ein Wirkungsquant fliegt durch das Dorf
es sucht das Hirn des Herrn von Korf.
Es findet dort in dem Gewühl
ein ganz bestimmtes Molekül.
Von Korf ist grad in schwerer Not:
„Eß Wurst- ich oder Käsebrot?“
Das Quant, das wirft sich in die Brust:
Du glaubst, du willst! Allein: Du musst!
Nie kannst die Freiheit du erringen.
Doch ich bin frei und kann dich zwingen!“
Elektron „9“ sprach: „Spring mich doch!“
Das Quant: „Ich überleg mir‘ s noch.“
Dann hat durch es Elektron „8“
'nen akausalen Sprung gemacht.
Von Korf nahm daraufhin spontan
die Wurst und fing zu essen an
und nahm die Sache ganz im Stillen
dann als Beweis für freien Willen
Dem Quant hat das den Rest gegeben:
freiwillig schied es aus dem Leben.19
Kann Willensfreiheit, persönliche/poli-
tische „Freiheit“ und „Verantwortung“ auf
physikalische Grundlagen zurückgeführt
werden, gleichwohl Physik grundlegend
konstituierend für Entscheidungssysteme wie
den Menschen und die Gesellschaft sind?
Ausgegangen wird meist von einer Hier-
archie von ontologischen Seinsebenen und
davon, dass zur Lösung von Problemen wie
das der Willensfreiheit zusätzlich Begriffsbil-
dungen nötig würden: wie z.B. „Emergenz“
oder „Fulguration“ (Auftauchen neuer System-
eigenschaften). Allerdings muss geprüft wer-
den, ob wir nicht doch ohne diese Begriffe
auskommen (W.v. Occam's Rasiermesser).
Die Sprachfalle
Der Positivist Moritz Schlick (1882–1936)
„entlarvt“ Manches als „Scheinfrage“, auf
irrtümlicher Deutung von Worten beruhend.
So weist er auf die verhängnisvolle Ver-
wechslung von „präskriptiven“ Gesetzen
17
H. G. Schuster,
Deterministic Chaos,
An Introduction,
Weinheim 1984
Heinz-Otto Peitgen/
P.-H. Richter, The
Beauty of Fractals,
Berlin/ Heidelberg/
New York 1986
18
Erwin Bünnig,
Quantenmechanik
und Biologie, Natur-
wissenschaften Nr.
31, 1943, S. 194–197
19
Bernhard Hassen-
stein, Willensfreiheit
und Verantwort-
lichkeit, Naturwis-
senschaftliche und
juristische Aspekte,
Heidelberg 1979
50
z.B. der Rechtspraxis mit den „deskriptiven“
Gesetzen der Naturwissenschaft hin: „Die
Gesetze der Himmelsmechanik schreiben
den Planeten nicht vor, wie sie sich zu
be wegen haben, … sondern sagen nur aus,
was Planeten tatsächlich tun“.20
Aber wir dürfen auch die physikalische
Basis der Evolution, die Systeme mit „Prä-
skription-Fähigkeit“ (z.B. den Menschen) her-
vorbringt, nie vernachlässigen. Wir verfallen
sonst leicht einem naiven Leib-Seele- oder
Geist-Materie-Dualismus, in dem ein bezie-
hungsloses Nebeneinander von Materie und
Geist herrscht (auf die Unterscheidung von
„res extensa“ und „res cogitans“ nach R.
Decartes zurückgehend). Kaum vorstellbar
ist, dass alle Willensentscheidungen be gründet
auf zufällige, mikrophysikalische Fluktuatio-
nen zurückführbar seien – im Einzelfall kön-
nen wir es aber nicht zwingend ausschließen.
Biologischer Determinismus umfasst
nicht nur die physikalisch-chemischen Deter-
minanten von Organismen, sondern auch
die informationstheoretische und genetische
sowie die semiotische. Grundlegende physi-
kalisch-chemische Gesetze sind im Biologi-
schen involviert. Für Organismen gelten
dieselben mechanischen Hebelgesetze wie
in der anorganischen Natur (z.B. für Arm-
bewegungen, auch wenn organische Arm-
Beweglichkeit nicht auf Hebelgesetze allein
reduzierbar ist). Schwierigkeiten bereitet
im Biologischen die Frage nach der Neg-
Entropie; Uneinigkeit entsteht laufend, wenn
es um die Frage bewussten Verhaltens geht
(Intentionalitätsproblem in Bewusstseins-
und Kognitionsphilosophie): Hierarchien von
Bewusstseinsfunktionen werden unterschie-
den.21
Die Unterscheidungen betreffen die
Fähigkeiten von Lebewesen zur Informations-
verarbeitung in Zusammenhang mit ihren
Verhaltenskoordinationen.
Man gelangt z.B. zu folgender Einteilung:
Einzeller und Vielzeller:
Taxien und Reflexe
Wirbellose (z.B. Würmer):
Taxien, Reflexe und Instinkte
(angeborene Verhaltensprogramme),
einfaches Lernen und Gedächtnis
Wirbeltiere:
wie bei Wirbellosen
niedere Primaten:
desgleichen, und einsichtiges Handeln
und einfaches logisches Denken
Menschen:
ebenso, mögliches hoch entwickeltes
Denken charakteristisch
Andere Einteilungen22
bilden ähnliche
Grundlagen, über „determiniertes oder
undeterminiertes Verhalten“ zu diskutieren,
über ererbte Programme des Verhaltens, die
an genetische Determinanten gebunden sind
und erlerntes Verhalten, das an Gedächtnis-
funktionen gebunden ist, zudem über die
Frage, welche gesellschaftliche Konsequen-
zen aus der Unterscheidung folgen. So ist
der Arbeitstitel „Die Programmierung des
kindlichen und jugendlichen Gehirns“ des
Hessischen ProfessorInnen-Forums auch
im Jahr 2000 ein Indikator23
für die gesell-
schaft liche Rolle, die grundlegenden Unter-
scheidungen zukommt.
Die Unterscheidung zwischen angebore-
nem und erlerntem Verhalten impliziert, dass
die Disposition für Gedächtnisentwicklung
und der Lernsinn selbst angeboren sind. Dies
darf aber nicht zu Unschärfen führen. Unzu-
lässig ist die Vereinfachung, dass das ange-
borene Verhalten das determinierte sei im
Unterschied zum undeterminierten Verhalten,
das frei sei, da es auf Lernen beruhe.
Wir sind bis heute nicht in der Lage,
Verhalten auf eine direkte genetische Codie-
rung zurück zu führen, wie dies z.B. für die
Beteiligung von Enzymen an der Phänotypus
-Ausbildung (d.h. Merkmalsausbildungen)
gelungen ist, sondern die Schwierigkeiten
liegen hier vielmehr in der Klärung der
Frage, wann und wann nicht die Begriffe
„determiniert“ oder „noch-nicht-determi-
niert“ oder „undeterminiert“ in Bezug auf
das Verhalten (der Lebewesen) angewandt
werden können, sowohl generell als auch
speziell für den Einzelfall.
Es lässt sich für einige unserer angebore-
nen Verhaltensmuster sagen, dass sie derart
determiniert sind, dass wir uns nicht anders
verhalten können, selbst wenn wir es wollten:
20
Moritz Schlick, Ver-
antwortlichkeit und
Vermeidbarkeit, in
„Fragen der Ethik“,
Wien 1930
21
Vgl. z.B. Angelika
Karger, Die Bewusst-
seinskonzeption bei
Charles S. Peirce,
Stuttgart 1981 und
Aufsätze in Folge,
erschienen in Zeit-
schrift „Semiosis“,
Baden-Baden
22
Konrad Lorenz,
Vergleichende
Verhaltensforschung,
Grundlagen d. Etho-
logie, München 1982
23
Eberhard Beckers,
Hans-Joachim Hahn,
Prof. Dr. Hermes A.
Kick, Prof. Dr. Herta
Schlosser, Professo-
ren-Forum, Die
Programmierung
des Kindlichen und
Jugendlichen Gehirn,
Gießen 2000
Anmerkung:
Hierin befindet sich
auch ein bezeich-
nender aktueller
Beitrag zur Determi-
nismus-Debatte, wie
er in der Gegenwart
geführt wird, nämlich
von dem Neurobio-
logen Hinrich Rah-
mann von der Uni-
51Querschnitt Juli 2004
z.B. der Niesreflex oder Verhaltensweisen,
die im Experiment durch z.B. elektrische Rei-
zung von gewissen Gehirnarealen ausgelöst
werden. Zur Untersuchungen stehen dann
also Verhaltensweisen, die wir selbst nicht
oder nur schwerlich modifizieren können.
Man spricht vom „unwillkürlichen Verhal-
ten“. Bedingte Möglichkeiten einer gewissen
erlernbaren Kontrolle auch über das vegeta-
tive Verhalten sind ein eigener Forschungs-
gegenstand (z.B. Erforschung von Bio-Feed-
back-Methoden, Autosuggestion, Hypnose
u.a.). Diese stellen meist aber schon eine
Koppelung mit den „höheren“ Bewusstseins-
funktionen wie Selbst-Reflexion und Einsichts-
fähigkeit her. Einem Neugeborenen ist die
Möglichkeit zum Bio-Feedback-Verfahren
verschlossen. Ungeklärt ist, ob es zu einer
Art unbewusster Autosuggestion befähigt ist,
z.B. in traumatischen Situationen.
Angeborenes Verhalten erfolgt nach
empirischen Beobachtungen „unbedingt“
und in diesem Sinne „blind“ gegenüber einer
spezifischen Umwelt-Situation: z.B. läuft das
frisch geschlüpfte Hühnerküken, wie durch
die Experimente von Lorenz bekannt, jedem
bewegten Gegenstand nach, das es zuerst
nach dem Schlüpfen aus dem Ei erblickt, als
wäre es seine „Mutter“, „blind“ einem ange-
borenen Verhaltensprogramm der Prägung
zu einem bestimmten Zeitpunkt folgend. Sta-
tistisch interpretiert ist das Programm freilich
nicht „blind“, da nach den Regeln der Wahr-
scheinlichkeit das erste bewegte Objekt, das
ein Küken wahrnehmen wird, wahrscheinlich
tatsächlich seine Mutter sein wird. Ist jedoch
das erste Objekt z.B. ein Fuchs, der das
Küken frisst, spielt dies nach den statistischen
Gesetzen keine Rolle für das Überleben der
Art und damit für das „Überleben“ des Ver-
haltenprogramms“ – in Rechnung stellend
das „Prinzip der großen Zahl“ (der Nach-
kommenschaft) u.a. Wird das „Überleben des
Verhaltensprogramms“ von uns als „Erfolg“
interpretiert, so verlassen wir schon den
Boden des Bemühens um wertfreie Neutrali-
tät und begründen eventuell die Ideologie
eines Bewertungsrahmens, welcher der
„Art“ den Vorzug vor dem „Individuum“ gibt.
Deswegen wird eine „neutrale, ideologiefreie
Evolutionstheorie“ das Prinzip der „Selekti-
on“ wertfrei als tautologische Prinzip der
Ergebnisse nüchtern festhalten: „Was über-
lebt, das überlebt.“
Neben solchen unbedingt (blind) erfol-
genden Verhaltensweisen sind meist auch
solche möglich, die durch das „Versuch-und-
Irrtum-Prinzip“ innerhalb eines individuellen
Lebens flexibleres Verhalten ermöglichen
(z.B. durch Lernen). Der Begriff „Irrtum“ ist
ebenfalls bereits ein stark interpretierender
und wertender, wenn Verhaltensweisen beur-
teilt werden, die nicht unmittelbar letal enden
(Man denke an das Wort G. W. F. Hegels, das
in Leuchtschrift am Stuttgarter Hauptbahnhof
prangt „ … dass diese Angst zu irren, schon
der Irrtum selber ist …“).
Höhere Flexibilität (wir lernen z.B., plötz-
lich auftauchenden Hindernissen auszuwei-
chen), erhöht die Überlebenschance des
Individuums und birgt ein gewisses Moment
der Offenheit, Freiheit und des Undetermi-
nierten.
Ob der Begriff „Freiheit“ hier überstrapa-
ziert wird, bleibt zu fragen. Flexibilität und
damit erhöhte Überlebenschancen bedeuten
für das Lebewesen nur eine Vermehrung
von Handlungsalternativen „in the long run“.
Vielleicht ist unsere Freiheitsvorstellung aus
solchen Phänomenen ableitbar.
Ein Indeterminist sieht in der biologischen
Flexibilität eventuell eine Begründung für
sein Weltbild, da die Flexibilität, modal
formuliert, sich auf mögliche Situationen
bezieht, die nicht mit Notwendigkeit eintref-
fen; das Individuum lernt, dass Möglichkeiten
mit Notwendigkeit eintreten. Der „Lernsinn“
ist im Sinne Peirces immer an „Notwendig-
keit“ gebunden.
Der radikale Determinist dagegen wird
hier vor allem eine Determination zur Flexibi-
lität erkennen: wir können nichts dafür, dass
wir flexibel sein können! Flexibilität ist für ihn
nichts weiter als ein erweitertes „Determina-
tionsspektrum“!
Dennoch: höhere Funktionen der Lern-
fähigkeit, insbesondere wenn sie auf „Ein-
sicht“ beruhen, können das Spektrum der
Flexibilität erheblich erhöhen. Insofern ist
unstrittig, dass die individuelle Lernfähigkeit
versität Hohenheim,
Hinrich Rahmmann,
Zur Entwicklung
des menschlichen
Gehirns aus neuro-
biologischer Sicht,
ebenda, S. 15–40.
Er geht auf einen
aktuellen Befund zur
Gehirnforschung ein,
der in jüngster Zeit
oftmals von Neuro-
physiologen als
Beitrag zur Deter-
minismus-Streitfrage
herangezogen wird,
und zwar als unter-
stützender Befund
zugunsten des
weltanschaulichen
Determinismus. Der
Befund besagt auf-
grund gut geprüfter
Experimente, dass
etwa eine ganze
Sekunde vor einer
willkürlichen Finger-
bewegung schon
Bereitschaftspotenzi-
ale im Cortex entste-
hen. Bevor wir also
registrieren, dass
wir unseren Finger
bewegen „wollen“,
will es das „Gehirn“
längstens.
52
verbunden mit der Ausbildung eines indivi-
duellen Gedächtnisses das Moment der
Freiheit enthält: für Information-verarbeitende
Systeme entscheidend konstituierend.
Nicht zu unterschätzen: wie mächtig
gegenüber jeder von uns empfundenen
Freiheit unsere angeborenen Verhaltens-
programme sind. Es ist nicht nur eine Frage
der Prioritäten, die es gegenüber dem
Er erbten und Angeborenen je nach persön-
licher Einstellung zu setzen gilt. Es gilt viel-
mehr, und hierin stimme ich mit der Ansicht
des Bio logen Hans Mohr (Universität Frei-
burg) überein, Einsicht zu gewinnen in die
Vielfalt und Stärke unserer biologischen
Determinationen. Einige Beispiele von Mohr
mögen dies erläutern24
:
Beispielsweise das Auftreten bestimmter
Depressionsarten mit der Indikation: Mangel
an Lithiumsalzen bzw. gestörte Aufnahme
desselben im Stoffwechsel. Es besteht ein
gut nachweisbarer Zusammenhang des „see-
lischen“ Verstimmtheit und des depressiven
Verhaltens aufgrund der unzureichenden
Stoffwechselfunktionen. Als sehr gut gesi-
chert gilt, dass die Lithum-Stoffwechsel-Stö-
rung als alleiniger Faktor für depressiven
Verstimmung in bestimmten Fällen ursächlich
angenommen werden kann – psychothera-
peutische Maßnahmen sind dann nicht ange-
zeigt; Lithum-Behandlung ist dagegen bei
guter Einstellung des Salzes jedoch sehr
erfolgreich25
, da wir es mit einer ausschließ-
lich Stoffwechsel bedingten Determination
des Verhaltens zu tun haben.
Als weitere Beispiele dienen genetische
Besonderheiten (wobei es wieder nicht wert-
frei wäre, wenn wir von „Erbkrankheiten“
sprächen, nur weil es unsere Pflicht wäre,
wenn wir es können, diese positiv zu beein-
flussen, d.h. zu „heilen“): z.B. die Phenylketo-
nurie, die auf dem Fehlen eines einzigen
Enzyms (der Phenylalaninhydroxylase)
beruht und welche zeigt, dass der „Defekt“
(neutral: die reguläre Abweichung) eines
einzigen Genes ausreicht, um die normale
geistig-seelische Entwicklung des Menschen
zu verhindern („normal“ hat Doppelbe-
deutung: einerseits: „statistisch häufig“, ande-
rerseits: „erwünscht“, vielleicht in anderen
Fällen „unerwünscht“: je nach Gesellschafts-
konstrukt). 26
Aufschluss gibt die Forschung an ein-
eiigen, genetisch erbgleichen Zwillingen.
Selbstverständlich ist jeder Zwilling ein
Individuum: eineiige Zwillinge sind physisch
sehr ähnlich, wobei dennoch auftretende
physische Abweichungen durch ungleiche
Verteilung cytoplasmatischer Komponenten
während der Furchungsteilung erklärt
werden, zudem entwickeln sie eine eigene
soziale Identität.
Eineiige Zwillinge, die unter ähnlichen
Umständen aufwachsen, verhalten sich aber
unverhältnismäßig ähnlich, so Bouchards
Studie (Universität Minnesota), durchgeführt
1983 an 31 Paaren eineiiger Zwillinge, die
gleich nach ihrer Geburt getrennt worden
waren und in verschiedenen Umgebungen
(immer USA) aufwuchsen.27
Die umstrittenen
Ergebnisse werden weiter überprüft werden
(auf statistische Relevanz und Reliabilität); die
starke Übereinstimmung von Temperament,
Intelligenz, Empfindlichkeiten und selbst von
Marotten sowie das gleichzeitige Auftreten
von Krankheiten, das synchrone Auftreten
schicksalhafter Ereignisse bei eineiigen
Zwillingen sind unstreitbar, so dass die Phä-
nomene selbst vom durchaus als „nüchtern“
geltenden H. Mohr als „geradezu gespens-
tisch“ bezeichnet werden. Wie weit Milieu-
TheoretikerInnen die Auffassung vom Primat
des Milieu-Einflusses durch die Zwillingsfor-
schung zu revidieren hätten, sei dahingestellt.
In stärkerem Maße, als wir uns das vorstellen
wollen, werden wir von erblichen Determina-
tionen bestimmt. Wir sollten die Forderung
Mohrs, möglichst viel Einsicht in unsere
Determinationen zu gewinnen, Ernst nehmen.
Denn Freiheit „von“ einer erblichen Disposi-
tion ist sicher – wenn überhaupt – nur dann
zu erlangen, wenn man sie kennt. Kenntnis ist
Voraussetzung für Kontrolle und/oder Modifi-
kation, und vor allem Schutz vor Manipulation
durch andere, die ihrerseits diese Einsichten
für sich nutzbar machen – man denke an
den manipulierenden Einsatz des „Kindchen-
schemas“(nach Lorenz) in der Werbung,
wenn SympathieträgerInnen mit Merkmalen
des „Kindchenschemas“ präsentiert und an
24
Hans Mohr, Freiheit
und die biologische
Natur des Menschen,
Vortrag bei Civitas-
Gesellschaft,
München 1983
25
Manfred Eigen/
Ruthild Winkler, Das
Spiel, Naturgesetze
steuern den Zufall,
München/ Zürich
1975
26
Böhme/ Hagemann/
Löther, Beiträge
zur Genetik der
Abstammungslehre,
Berlin 1978
27
Hoimar von Ditfurth,
Bericht über die
Zwillingsforschung
Bouchards an
University of Min-
nesota, Geo, Mai
1983,
S. 18–54
53Querschnitt Juli 2004
ein vermarktetes Produkt gekoppelt werden,
um die unbedingte Sympathie der Rezipient-
Innen für das werbende Produkt zu erhöhen.28
Von der deterministischen Denkfigur
geht eine Schockwirkung aus. Deshalb
betonen WissenschaftlerInnen den kleinsten
Hinweis auf indeterministische Deutungen:
z.B. Arber, Molekularbiologe, weist darauf
hin, dass Mutationen undeterminierte Er -
eignisse darstellen, und auch innerhalb des
Genetischen treffe man auf relevante Unter-
scheidungen determinierter und undetermi-
nierter Art, z.B. 2 Arten von Spaltungsen-
zymen setzen an der DNS an. Bei der einen
sei die Spaltungsstelle vorbestimmt, bei der
anderen nicht. Man brauche daher hier eine
„Prädestination“ nicht zu befürchten.
Jurisprudenz
Einsicht in starke Determiniertheit unse-
res Verhaltens hat sich schon längst in unse-
rer Rechtsprechung entschieden ausgewirkt.
Bei der Rechtsfindung werden medizinische,
soziologische und psychologische Determi-
nanten z.B. bei der Motivforschung oder bei
der Differenzierung der „Strafmündigkeit“
oder der „Zurechnungsfähigkeit“ berück-
sichtigt. Hospers hat dies in seinem „Zweifel
eines Deterministen“ ausführlich behandelt.29
Eingedenk der Einsicht in die Determinatio-
nen stellt sich eindringlicher die Frage nach
der Verantwortung. Verantwortung lässt
sich nicht aus einem Konstrukt „freier Willen-
sentscheidungen“ ableiten, die sich auf
objektiv undeterminierte Ereignisse im
Physikalischen oder biologisch begründen
lassen. Es geht ja nicht nur um die Verant-
wortung und/oder Determiniertheit derer, die
vor Gericht stehen, sondern es geht grund-
sätzlicher um unserer aller Determiniertheit.
Es geht also um die Fragen, „ob“ und „wie“
wir über den Grad unserer und anderer
Determiniertheit urteilen können, und ob
wir und wie weit wir bei der Beurteilung der
Determinationen anderer Menschen oder
Lebewesen unsere eigenen Determinanten
in Rechnung stellen, und welche Vereinba-
rungen wir akzeptieren und für zustimmungs-
fähig halten, so dass wir Selbstgerechtigkeit
(und vor allem Selbstjustiz) vermeiden.
Die Frage, welche Folgen wir wünschen,
beinhaltet den Horizont von Ethos und der
Ethik, den Kant mit der Frage: „Wie sollen
wir handeln?“ zeichnete. Die erkenntnis-
theoretisch relevante Frage in der Deter-
minismusdebatte lautet nicht: „Können wir
auf bestimmte Weisen handeln?“ (z.B. können
wir „wollen“?) oder „wie wollen wir han-
deln?“ – ich habe bewusst das „Wollen“ als
ein Handlungs beispiel gewählt –, sondern:
„Können wir im weitesten Sinne wollen, was
wir wollen?“
Weitere Literatur
1. Hans Michael Baumgartner (Hg.),
Prinzip Freiheit, Eine Auseinanderset-
zung um Chancen und Grenzen trans-
zendentalphilosophischen Denkens,
Freiburg/ München 1979
2. Dieter Birnbacher/ Norbert Höster
(Hg.), Texte zur Ethik, darin u. a. Moritz
Schlick, Verantwortlichkeit und Ver-
meidbarkeit; Nicolai Hartmann, Selbst-
bestimmung und Selbstbewusstsein;
John Hospers: Zweifel eines Deter-
ministen, München 1976
3. Ernst-Wolfgang Böckenforde, Staat,
Gesellschaft, Freiheit, Studien zur Staats-
theorie und zum Verfassungsrecht,
Frankfurt a M. 1976
4. Hoimar v. Dithfurth, Bericht über
Bouchards Zwillingsforschung; Geo,
Mai 1983, S. 18–54
5. Manfred Eigen/ Ruthild Winkler,
Das Spiel, Naturgesetze steuern den
Zufall, München/Zürich 1975
6. Helmut Fahrenbach, Befreiung als prak-
tisches Problem der Freiheit, Über die
Notwendigkeit einer kritisch-utopischen
Philosophie emanzipatorischer Praxis,
in: Josef Simon (Hg.), Freiheit, Theoreti-
sche und praktische Aspekte des Pro-
blems, Freiburg/München 1977
7. Arnold Gehlen, Moral und Hypermoral,
eine pluralistische Ethik, 4. Aufl.,
Wiesbaden 1981
8. Alfred Gierer, Die Physik, Das Leben
und die Seele, München 1985
28
(Vgl. Entwicklung
des Bärenmarke-
logos; oder kindliche
Profile von Frauen
in der Werbung,
„kindliche Hilflosig-
keit“ vermittelnd)
Konrad Lorenz,
Über tierisches
und menschliches
Verhalten, Bd. II,
München 1965
29
John Hospers, Zwei-
fel eines Determinis-
ten, in Birnbacher/
Hoester (Hrg.), Texte
zur Ethik, dtv 1976,
(Original: What
means Freedom?,
N.Y. 1961)
54
9. Hermann Haken, Evolution und Freiheit
in den Naturwissenschaften, Indetermi-
nismus, Wahl und Freiheit – wie sind
diese Begriffe im Bereich des Anorgani-
schen zu verstehen?, Evolution und
Freiheit, Civitas Gesellschaft, Ergeb-
nisse 5, Hirzel-Verlag 1986
10. Werner Heisenberg, Physik und
Philo sophie, Frankfurt a. M. 1959
11. Hans-W. Klement/ F.-J. Radermacher,
Freiheit und Bindung menschlicher
Entscheidungen, Forschungsinstitut
für Anwendung orientierte Wissens -
ver ar beitung, FAW Ulm 1986
12. Martin Kriele, Befreiung und politische
Aufklärung, Plädoyer für die Würde des
Menschen, Freiburg 1980
13. Hermann Krings, System und Freiheit,
Gesa. Aufsätze, Freiburg/München,
1980, S. 99–130
14. Hermann Krings/ H. M. Baumgartner/
C. Wild, (Hg.), Handbuch philosophischer
Grundbegriffe, München 1973, S. 493–510
15. Hubert Markl, Evolution, Genetik und
menschliches Verhalten, München/
Zürich 1985
17. Jürgen Mittelstraß (Hrsg.); Enzyklopädie
Philosophie und Wissenschaftstheorie,
Bd. I, Stichwort: „Freiheit“, „Determinis-
mus“, Mannheim 1980
17. Ulrich Potthast (Hrsg.), Seminar: Freies
Handeln und Determinismus, Frankfurt
a. M. 978
18. Joachim Ritter (Hrsg.), Historisches
Wörterbuch der Philosophie, Bd. 2
Stichwort „Determinismus“, Darmstadt/
Basel 1972
19. B. F. Skinner, Jenseits von Freiheit und
Würde, München 1974
20. Roger Sperry, Naturwissenschaft und
Wertentscheidung, München 1985
21. Vorträge und Diskussionen,
Symposium München, Zufall, Freiheit,
Vorsehung, Freiburg/München 1975,
darin u. a.: Beda Thum, Kausalität,
Naturgesetz und Freiheit unter moral-
theoretischem Gesichtspunkt; Norbert A.
Luyten, Das Kontingenzproblem, Das
Zufällige und das Einmalige in philoso-
phischer Sicht; August Meesen, Freiheit,
Determinismus und Zufall im Rahmen
der klassischen Physik; A. Meesen,
Die Unbestimmtheit der quantenmecha-
nischen Voraussagen und die freien
Willenentscheidungen; August W. v. Eiff,
Das Gedächtnis – bio logische Grund-
lagen eines psychophysiologischen
Phänomens;
22. Alexander Schwan, Wahrheit – Pluralität –
Freiheit, Studien zur philosophischen
und theologischen Grundlegung Freiheit-
licher Politik, Hamburg 1977
23. Angelika Karger, Stichwort: Determinis-
mus in: Der blaue Reiter, Journal für
Philosophie, Nr. 1. 1995, S. 43
56
2. Kulturhistorischer Rückblick
Die Entwicklung der Stadt Darmstadt
aus kulturhistorischer Sicht stellt sich wie
folgt dar [nach 1]:
1330 (Romanik, Gotik)
- Grafen von Katzenelnbogen
- Darmstadt erhält die Stadtrechte
1590 (Renaissance)
- Landgraf Georg I.
- Erste Stadterweiterung (Alte Vorstadt)
1618 (Renaissance)
- Landgraf Ludwig V.
- 2400 Einwohner
1700 (Barock)
- Landgraf Ernst Ludwig
- 1895 Einwohner
1750 (Klassizismus)
- Landgraf Ludwig VIII.
- Stadterweiterung nach Norden
(Pankratiusvorstadt)
1871 (Historismus)
- Großherzog Ludwig III.
- 39594 Einwohner (Gründerzeitliche
Stadterweiterung)
1900 (Jugendstil)
- Großherzog Ernst Ludwig
- 72381 Einwohner
1. Einleitung
Das Potential an Wohngebäuden im
Bestand wird immer größer. Die Altbau-
sanierung, d. h. die Instandsetzung und
die Erneuerung auf einen aktuellen Standard
(Modernisierung), gewinnt damit einen
höheren Stellenwert.
Mit der neuen Energieeinsparverordnung
soll bei Neubauten, wie auch bei Bauten im
Bestand, der Standard an den winterlichen
Wärmeschutz erhöht und der CO2-Austoss
durch den damit geringeren Jahresheiz-
wärmebedarf verringert werden. In dieser
Fallstudie werden mögliche Maßnahmen
besprochen sowie der Einsatz ökologischer
Dämmstoffe näher beleuchtet und bewertet.
Vorgaben, wie sie sich aus Gründen des hier
vorliegenden Denkmalschutzes ergeben,
fließen in die Betrachtung mit ein.
Prof. Dr.-Ing. Jürgen Spittank,
Fachbereich Bauingenieurwesen
Fallstudie zur Sanierung einer unter Denkmalschutz stehenden Wohnbebauung in Darmstadt unter bauphysikalischen und ökologischen Gesichtspunkten
Wärmeschutz im Wohngebäudebestand
57Querschnitt Juli 2004
3. Das Objekt
Das Objekt wurde in der Jugendstilzeit
(1926) erbaut und befindet sich im Röhnring,
im Nordosten Darmstadts (Bild 1). Zu den
typischen Auffälligkeiten dieser damaligen
Blockbauweise gehören die langgestreckten
Putzfassaden, der Fassadenschmuck in Form
von Stuckarbeiten und die Rechteckfenster
mit den Klappläden. Im zweiten Weltkrieg
wurden die Häuser bis auf die Grundmauern
zerstört aber ab dem Jahre 1950 wieder im
Stil der alten Bebauung aufgebaut und folgen-
de Maßnahmen bislang durchgeführt [2]:
1985: Abtragung und Erneuerung des
Außenputzes;
1991: Einbau eines Niedertemperaturkes-
sels;
1994: Holzfenster durch Kunststofffenster
ersetzt.
4. Denkmalschutz
Im Jahre 1995 stellte die Denkmalschutz-
behörde das gesamte Röhnringviertel und
das angrenzende Martinsviertel unter Denk-
malschutz. Ausschlaggebend für den Denk-
malschutz waren die Bauweise der Errich-
tungszeit und das einheitliche Straßenbild.
Dieses soll der Nachwelt erhalten bleiben,
um die damaligen Lebens- und Bauweise
wiederspiegeln zu können. Die beiden
Viertel wurden in einem sehr engen Zeitrah-
men etwa zwischen den Jahren 1920–1930
errichtet. Wegen der Industrialisierung und
der damit einhergehenden rapide wachsen-
den Einwohnerzahl herrschte Wohnungs-
knappheit in Darmstadt und von daher war
es geboten in aller Eile neuen Wohnraum
zu schaffen.
Als Folge der Auflagen der Denkmal-
schutzbehörde dürfen die Fassaden nicht
mehr mit einer Außendämmung versehen
werden, da das Fassadendekor dann in die-
ser Form nicht erhalten werden kann (Bild 2).
Die jetzt vorhandenen Kunststofffenster sind
Bild 1:
Südansicht
Bild 2: Fassade
58
Kohle Erdöl Erdgas
600
500
400
300
200
100
0
180
150
120
90
60
30
0
Mrd
. t
Stei
nk
ohle
ein
hei
ten
(SK
E)
Jah
re
558
6110
169
Jahre
227
11343
Jahre
180
267
66
Jahre
bei einer Erneuerung nur durch Holzfenster
zu ersetzten und rote Tonziegel als Dach-
eindeckung zu verwenden. Ebenso dürfen
die Außentüren nur instandgesetzt, aber
nicht ausgetauscht werden.
In die Fallstudie für eine mögliche
Sanierung fließen die Auflagen der Denk-
malschutzbehörde, die Energieeinsparver-
ordnung zur Verbesserung des Wärmeschut-
zes sowie auch ökologische Gesichtspunkte
mit ein.
5. Energieeinspar-verordnung (EnEV)
Die EnEV [3], [u.a.] ist eine Verordnung
zum energieeinsparenden Wärmeschutz und
zur energieeinsparenden Anlagentechnik
bei Gebäuden. Sie ist am 01.02.2002 in Kraft
getreten und ersetzt die Wärmeschutzver-
ordnung vom 16.08.1994 und die Heizan-
lagenverordnung [4]. Sie ist für alle Gebäude,
die zum Zwecke ihrer Nutzung beheizt wer-
den, verpflichtend. Die EnEV ist Bestandteil
des Klimaschutzprogramms der Bundes-
regierung. Durch die darin gestellten Anfor-
derungen soll der Energiebedarf von Gebäu-
den gesenkt, die CO2-Emissionen verringert
und eine Daseinsvorsorge der Rohstoffe
gesichert werden. Der Aspekt der Daseins-
vorsorge ist sehr wichtig, da die Vorräte an
fossilen Energieträgern durch die stetig
wachsende Weltbevölkerung in absehbarer
Zeit erschöpft sein werden (Bild 3).
Dem muss durch sparsameren Umgang
mit den Ressourcen und einer Umstellung auf
erneuerbare Energieträger entgegen gewirkt
werden. Mit dem Klimaschutzprogramm wird
eine Verminderung der CO2-Emissionen bis
2005 um 25% gegenüber dem Stand von
1990 angestrebt (Bild 4).
Durch die in der EnEV zusammengefasste
Wärmeschutzverordnung und die Heizanla-
genverordnung lässt sich eine relativ genaue
sicher gewinn-
bare Reserven
(in Mrd. t SKE)
geschätzte
zusätzliche
Reserven
(in Mrd. t SKE)
Reichweite
der sicheren
Reserven bei
derzeitiger
Förderung
(in Jahren)
Bild 4: CO2-Emissionen [5]
Voraussichtlicher
Weltenergiebedarf
Notwendige
Reduktion zur
Klima-
stabilisierung
CO2-
Emissionen
2040
Bild 3: Vorrat der fossilen Energieträger [5]
CO2-
Emissionen
1990
59Querschnitt Juli 2004
Gebäude Technik Energie
Energiebedarf(Endenergie)
Heizwärmebedarf(Nutzenergie)
Energiebedarf(Endenergie)
Primärenergie-bedarf
Lüftungs-wärmeverluste
Transmissions-wärmeverluste
Solare und interneGewinne
Warmwasser-bereitung
Heizungsanlagen-verluste
StromverbrauchHeizung
Primärenergiekennwertdes Energieträgers
Bild 5a: Schematische Darstellung zur Berechnung des Primärenergie bedarfs [6]
Transport-
verluste
Stillstands- und Bereitschafts-
verluste des Heizsystems
Fossile Heiz-
energieträger
Transport Produktion/
Lagerung
Transport
Bild 5b: Darstellung der Einflussgrößen auf den JahresPrimärenergie bedarf [7]
Aussage über den Jahresprimärenergie-
bedarf und den Jahresheizwärmebedarf der
Gebäude treffen. Die Neuerungen liegen in
höheren Anforderungen an die einzelnen
Bauteile (z.B. Außenwand, etc.), in der Er fas-
sung des Wirkungsgrades der Heizungsanla-
ge und insbesondere darin, dass die Vorkette
des Energieträgres mittels Aufwandszahlen
in den Energiebedarf eines Gebäudes mit
eingerechnet werden. Das bedeutet, dass
zur Bewertung des Energiebedarfs auch die
Energieverluste bei der Förderung, der Auf-
bereitung, der Umwandlung, beim Transport
und der Vereilung des Energieträgers mit
einbezogen werden (Bilder 5a, b).
Begriffserläuterungen
Heizwärmebedarf: bezeichnet die Wär-
memenge, die dem Gebäude vom Heiz-
system zur Verfügung gestellt werden
muss. In die Bestimmung dieses Wertes
gehen Wärmeverluste (Transmission und
Lüftung) und Energiegewinnung (solar
und intern) ein.
Heizenergiebedarf: bezeichnet die
Energiemenge, die für die Beheizung
des Gebäudes unter Berücksichtigung
des Heizwärmebedarfs und der Verluste
des Heizungssystems nötig ist (Bild 6).
Endenergiebedarf: bezeichnet die
Energiemenge, die für die Beheizung des
Gebäudes unter Berücksichtigung des
Heizwärmebedarfs und der Verluste des
Heizsystems nötig ist. Hinzu kommt hier
noch die Energie für die Warmwasser-
bereitung und die Verluste des Warm-
wasserbereitungssystems.
Primärenergiebedarf: bezeichnet die
Energiemenge, die zur Deckung des
Endenergiebedarfs benötigt wird.
Zusätzlich wird eine Energiemenge
berücksichtigt, die in der Vorkette
durch z.B. Transport und Umwandlung
verloren geht.
60
Anlagenaufwandszahl: kennzeichnet
die Verluste des Heizsystems durch
die Wärmeverteilung, -speicherung
und -erzeugung.
Aus dem Heizwärmebedarf und dem
Heizwarmwasserbedarf, der bei Wohnge-
bäuden pauschal mit 12,5 kWh /m2a belegt
wird, wird der Primärenergiebedarf über
die Anlagenaufwandszahl ermittelt.
Als zusätzliche Bewertungsgröße muss
bei Wohngebäuden der vorhandene mit
dem zulässigen Transmissionswärmeverlust
verglichen werden.
Für den Gebäudebestand reicht bei
wesentlichen Neuerungen, d.h. Veränderun-
gen an mindestens 20% eines Bauteils der
Nachweis der Einzelbauteile aus. Der vor-
handene U-Wert (Wärmedurchgangskoeffi-
zent) eines Bauteils muss somit geringer
3. WSchoVO
2. WSchoVO
1. WSchoVO300
250
200
150
100
50
0
He
izw
ärm
eb
ed
arf
(k
Wh
/m2 a
)
–1918
Anteil der Wohnungen (%)0 20 40 60 80 100
Originalzustand
wirtschaftlich
optimal gedämmt
1919–19481949–1957
1958–1968
1969–1977
Bild 6: Heizwärmebedarf des Wohnge bäudebestandes in Hannover [5]
Erde/Mensch/Umwelt
Erstellung
Verarbeitung
Produkt
HerstellungRückbau
Entsorgung
Nutzung
Betrieb und Unterhalt
Abfälle/Schadstoffe
Abbau von Rohstoffen
Von der Erstellung bis zum
betriebsbereiten Gebäude
Vom zurückgebauten Gebäude zum Baustoff
Produkt aus wiederverwertbaren Materialen
Vom Gebäude
am Ende
seiner Lebensdauer
zum Rückbau
Vom Produkt/
Baustoff zum
Bauteil/Gebäude
Abfälle/Schadstoffe
Abbau von Rohstoffen
Abfälle/Schadstoffe
Abbau von Rohstoffen
Abfälle/Schadstoffe
Abbau von Rohstoffen
Bild 7: Lebenskreislauf von Baustoffen [5]
61Querschnitt Juli 2004
900
800
700
600
500
400
300
200
100
0
Oft üblicheDämstoffe
kW
h/m
2
ÖkologischeDämstoffe
784
227
389
294
104
PS-Hart-schaum
Glaswolle Steinwolle Flachs Hanf
3,5
3,0
2,5
2,0
1,5
1,0
0,5
0
-0,5
-1,0
-1,5
Oft üblicheDämstoffe
kg
/kg
ÖkologischeDämstoffe3,1
2,1
1,4
0,4
-0,5
PS-Hart-schaum
Glaswolle Steinwolle Flachs Hanf
Bild 8a: PEI ausgewählter Dämmstoffe [10], [11], [12], [13] Bild 8b: GWP ausgewählter Dämmstoffe [10], [11], [12], [13]
sein als der in der EnEV festgelegte. Zusätz-
lich darf der Primärenergiebedarf wie bei
Neubauten ermittelt werden. Der zulässige
Primärenergiebedarf für den Gebäudebe-
stand darf in diesem Fall das 1,4-fache des
Wertes von Neubauten betragen.
6. Ökologisches Bauen
6.1 Ökologisches Bauen im allgemeinen
Der Begriff ökologisches Bauen ist ein
wesentlicher Bestandteil der Baubiologie.
Diese ist die Lehre der Wechselbeziehungen
der gebauten Umwelt auf die Gesundheit des
Menschen, folglich macht sie den Menschen
zum Mittelpunkt der Betrachtungen und rückt
seine Gesundheit in den Vordergrund. Diese
Wissenschaft erstreckt sich über mehrere
Gebiete, wie z.B. Architektur, Medizin und
Naturwissenschaften. Die Bauökologie dage-
gen beschäftigt sich mit den Folgen des Bau-
ens für unsere Umwelt und hat das Ziel, diese
zu minimieren [8]. Bauen soll als ein Vorgang
begriffen werden, der sich in die Abläufe der
Natur und Umwelt eingliedert (Bild 7).
Um den Anforderungen der Bauökologie
gerecht zu werden, muss man viele Eingriffs-
möglichkeiten betrachten. Für Neubauten
bieten sich diverse Möglichkeiten einer
ökologischen Bauweise, zu nennen sind hier:
Die Auswahl des Baugrundstücks;
Der Massenausgleich des Bodenaushubs;
Eine flächensparende Bauweise;
Die Konstruktion von Gebäuden;
Eine optimierte Gebäudetechnik;
Die Auswahl geeigneter Baustoffe.
6.2 Bauökologie im Bereich der
Altbausanierung
Wenn man im Rahmen einer Altbau-
sanierung gleichzeitig ökologische Gesichts-
punkte beachten will, kann man nur auf eine
geringe Anzahl von Möglichkeiten zugreifen
[9]. Diese befinden sich neben einer opti-
mierten Gebäudetechnik insbesondere im
Bereich der Dämmstoffe, d.h. in der Auswahl
des Materials und der Ausführung.
Zur Beurteilung der Dämmstoffe können
verschiedene Verfahren herangezogen
werden. Diese Verfahren weisen in ihren
Angaben und Ergebnissen Schwankungen
auf, weil es bis heute keine Vorschriften gibt,
in denen die Vorraussetzungen und Rand-
bedingungen klar definiert sind. Sie nennen
sich Ökobilanzen, Produktlinienana lysen
oder Stoffflussanalysen.
Das Ziel dieser Verfahren ist die Ermitt-
lung und Darstellung von Werten mit denen
sich die verschiedenen Stoffe vergleichen
lassen. Die zwei wichtigsten Kenngrößen
sind der Primärenergieinhalt (PEI) und das
Global Warming Potential (GWP). Der PEI
beschreibt den Energieinhalt des Dämm-
stoffes, d.h. die Energie die aufgebracht
werden muss um diesen Stoff nutzbar zu
machen, das GWP die globale Erwärmung
durch Treibhausgase. Das GWP verdeutlicht
den Beitrag einer Substanz zum Treibhaus-
effekt relativ zum Beitrag einer gleichen
Menge CO2, d.h. jede treibhauswirksame
Substanz wird auf die Leitsubstanz CO2
umgerechnet und durch eine Äquivalenz-
menge ersetzt.
62
Die Grundlage zur Ermittlung dieser
Werte ist der Lebenskreislauf von Bau-
stoffen (s. a. Bild 7). Dieser beginnt bei der
Ressourcenge winnung der Rohstoffe, die
zur Herstellung des Dämmstoffs benötigt
werden. Darauf folgt die Herstellung, Nut-
zung und schließlich die Wiederverwertung
des Dämmstoffes.
Zur genauen Beschreibung eines Dämm-
stoffes sollten nach Möglichkeit der Energie-
aufwand und die treibhauswirksamen Sub-
stanzen in jeder dieser Phasen ermittelt
werden (Bild 8 a, b). Die Bewertungsver-
fahren sind allerdings noch nicht ausgereift
genug um jede Phase zu erfassen. Deshalb
ist es umso wichtiger, dass in der Literatur
Angaben gemacht werden, welche Phasen
zur Ermittlung der Werte herangezogen wur-
den und welche Rand bedingungen zugrunde
liegen. Da diese Angaben selten gemacht
werden, lassen sich die Dämmstoffe nur
schwer vergleichen. In Tabelle 1 werden
Werte genannt für welche die Angaben vor-
handen sind. Zur Ermittlung dieser Zahlen
werden die Energiegehalte und treibhaus-
wirksamen Substanzen von der Rohstoff-
gewinnung bis zum Werkstor berücksichtigt.
7 . Bestandsaufnahme
Die Haustüren (Bild 9) bestehen aus Holz,
sind teilweise mit Einfachverglasung verse-
hen und seit 1950 eingebaut: U = 4,4 W/m2·K.
Die Außenwände (Bild 10) bestehen aus
Vollziegelsteinen mit einem Kalkzement-
mörtelputz außen und innen: U = 1,6 W/m2·K.
Zur Zeit sind Kunststofffenster (Bild 11) mit
Zweifachverglasung eingebaut: U = 2,8 W/m2·K.
Das vorhandene Kehlbalkendach (Bild 12)
ist ungedämmt. Die Dachsparren 6/14 cm
weisen einen Achsabstand von e = 72 cm auf.
Die obere Abschlussdecke (Bild 13),
besteht aus einer Kehlbalkenlage mit
h = 20 cm, ist oben und unten mit einer
Holz schalung versehen. Im Balkenzwischen-
raum befindet sich ein Schlackebeton mit
d = 10 cm. Unterseitig ist die Decke verputzt:
U = 0,8 W/m2·K.
Bild 9 (links):
Haustür
Bild 10 (rechts):
Außenwände
Tabelle 1: Kennwerte ausgewählter Dämmstoffe [10], [11], [12], [13]
Dämmstoff Rohdichte ρkg/m³
Wärmeleitzahl
W/(m·K)
PEI
kWh/m³
GWP
kg/kg
PS-Hartschaumplatten 30 0,035 784 3,077
Glaswollematten 23 0,035 227 2,095
Steinwollematten 75 0,040 389 1,381
Flachsfasermatten 30 0,040 294 0,410
Hanffasermatten 25 0,045 104 -0,548
63Querschnitt Juli 2004
Die Kellerdecke (Bild 14) besteht aus
einem preußischen Kappengewölbe und ist
mit 6,5 cm dicken Vollziegesteinen ausge-
mauert. Die darüber liegende Betonschicht
hat eine Dicke d = 5 cm. Der Bodenbelag
besteht aus Holzdielen: U = 2,0 W/m2·K.
Die Heizanlage (Bild 15) besteht aus
einem mit Gas betriebenen Niedertempera-
turkessel mit einer Nennleistung von 128 kW
und beheizt drei Hausblöcke.
Ein kleiner Wärmedurchgangskoeffizient
U bedeutet eine gute Wärmedämmeigen-
schaft. Am Beispiel eines sich verjüngenden
Kegels lässt sich die Wärmedämmqualität
veranschaulichen (Bild 16).
Bild 15: Heizungsanlage
Bild 11: Kunststofffenster
Bild 12: Kehlbalkendach
Bild 16: Wärmedämmqualität
z.B. = 3,0 W/m2·K (schlecht)
z.B. = 0,3 W/m2·K (gut)
Bild 13: Abschlussdecke
Bild 14: Kellerdecke
ab
ne
hm
en
de
r H
eiz
en
erg
ieb
ed
arf
64
8. Fallstudie zu einer möglichen Sanierung
Die hier vorliegende Studie beschränkt
sich auf fünf verschiedene Dämmstoffe,
und zwar auf drei oft Gebräuchliche
(Bilder 17a–c):
Polystyrol-Hartschaum
Glaswolle
Steinwolle
und zwei Ökologische (Bilder 17d–e):
Flachs
Hanf
Der nachfolgenden Untersuchung liegen
die geforderten Wärmedurchgangskoeffizi-
enten U nach EnEV für Einzelbauteile zu-
grunde (Tabelle 2). Auf dieser Grundlage
wird der spezifische Jahresheizwärmebedarf
und die spezifische Jahresprimärenergie
sowie der zugehörige, verringerte CO2-
Ausstoß berechnet und in den Bildern 18a, b
dargestellt.
Eine mögliche Komplettsanierung ist in
mehreren von einander unabhängigen Stufen
denkbar und empfehlenswert:
1. Stufe: Kellerdecke und Dachgeschoss-
decke bis 31.12.2006 gemäß EnEV
(ggf. Dachschrägen sofort mit dämmen).
2. Stufe: Wegen der Notwendigkeit einer
Innendämmung aus Denkmalschutz-
gründen sind die Außenwände und
Fenster in einem weiteren Arbeitsschritt
zu sanieren. Bei der rückwärtigen Fas-
sade (s. Bild 10) ist mit der Denkmal-
schutzbehörde noch abzuklären, ob eine
Außendämmung mit erheblich geringe-
rem Aufwand denkbar wäre.
3. Stufe: neuer Heizkessel
Die Dämmstoffe, mit denen sich die
o.g. Sanierung durchführen ließe, werden
abschließend bezüglich der Kosten näher
beleuchtet und bewertet [19]. Die Material-
preise pro m2 sind bei den hier betrachteten
ökologischen Dämmstoffen zwei- bis dreimal
so hoch (Bild 19a). Dieser Preis pro m2 relati-
viert sich bei einer Betrachtung nach der End-
verarbeitung, d. h. inklusive des ohnehin nöti-
Oben von links
nach rechts:
Bild 16a:
PS-Hartschaum-
platte
[14]
Bild 16b:
Glaswollematten
[15]
Bild 16c:
Steinwollematten
[16]
Unten links und
rechts:
Bild 16d:
Flachsfasermatte
[17]
Bild 16e:
Hanffaserplatte
[18]
Tabelle 2: Geforderte U-Werte für einzelne
Bauteile nach EnEV
Einzelbauteil U-Wert EnEV
(W/m2·K)
Außenwand 0,35
Fenster 1,70
Dach 0,30
Dachgeschossdecke 0,30
Kelledecke 0,40
65Querschnitt Juli 2004
250
200
150
100
50
0
kW
h/(
m2 a
) 150
55
225
95
Jahresheiz-wärmebedarf
Jahresprimär-energiebedarf
Bestand
nach Sanierung
15,0
12,5
10,0
7,5
5,0
2,5
0
104
kg 9
3,5
13,5
6
CO2-Emmissionen fürDeckung des Jahres-
heizwärmebedarf
CO2-Emmissionen fürDeckung des Jahres-primärenergiebedarf
Bestand
nach Sanierung
Bild 18a (links): Spezifischer Jahresheizwärme-und Jahresprimärenergiebedarf vor und nach einer möglichen Sanierung
Bild 18b (rechts): anfallende CO2-Emissionen bei der Verbrennung von Erdgas zur Deckung der Energiebedarfe vor und nach
einer möglichen Sanierung
Oft üblicheDämstoffe
ÖkologischeDämstoffe
PS-HartschaumGlaswolleSteinwolle
FlachsHanf
78
9
14
1920
15
10
5
0
Kosten in3/m2
42 43 44
49
54
60
50
40
30
20
10
0
42 43 44 45
50
60
50
40
30
20
10
0
Kosten in3/m2
Kosten in3/m2
Bild 19a (links): Kosten pro 10 cm Dicke für die ausgewählten Dämmstoffe pro m2
Bild 19b (mitte): Kosten pro 10 cm Dicke inkl. End einbau für die ausgewählten Dämmstoffe pro m2
Bild 19c (rechts): Kosten pro 10 cm Dicke inkl. End einbau für die ausgewählten Dämmstoffe pro m2 unter Berücksichtigung
von Fördergeldern für die Verwendung ökologischer Dämmstoffe
gen Verkleidungsmaterials im Innenbereich
und des ohnehin nötigen Arbeitslohns bis zur
tapezierfertigen Endverarbeitung (Bild 19b).
Die Bundesregierung bietet Möglichkei-
ten einer staatlichen Förderung zur Reduktion
des CO2-Ausstosses an, die durch Wärme-
dämmassnahmen erzielt werden. Über die
Kreditanstalt für Wiederaufbau (KfW) kann
eine Förderung aus dem CO2-Gebäude-
sanierungsprogramm oder dem Programm
der CO2-Minderung in Anspruch genommen
werden, und das unabhängig ob man einen
oft üblichen Dämmstoff oder einen ökologi-
schen Dämmstoff wählt. Darüber hinaus
lässt sich ein Bundeszuschuss für Natur-
dämmstoffe (wie z. B. Flachs, Hanf, etc.)
erwirken. Bei einer Mindestabnahmemenge
von 5 m3 beträgt die Förderung zwischen
30 und 40 Euro/m3. Rechnet man diese För-
dergelder für Naturdämmstoffe mit ein, dann
ergibt sich ein Preisspiegel für die hier unter-
suchten Dämmstoffe im Endeinbauzustand
wie in Bild 19c dargestellt. Im Endeinbauzu-
stand liegen damit die Preise für den Flachs
nur noch um 2–3 % höher als bei den sonst
üblichen mineralischen Dämmstoffen. Eine
ökologische und auch ökonomische Alter-
native für die Dach- bzw. Dachdeckendäm-
mung und auch für die Innendämmung
ist damit – für dieses Objekt im speziellen
und für andere Sanierungs objekte im all-
gemeinen – durchaus gegeben.
Im Rahmen dieser Fallstudien sei ab -
schließend zu erwähnen, dass im Hinblick
auf die erforderliche Innendämmung auf
Grund des Denkmalschutzes noch weitere
Details auszuarbeiten sind, die den Tau-
wasserschutz und die Anschlusspunkte
des Wand-Deckenbereich sowie des Wand-
Fensterbereichs, etc. betreffen.
66
9. Zusammenfassung
Nach einer kurzen Beschreibung der
Ansatzpunkte der Energieeinsparverordnung
wurde auf eine Beurteilung verschiedener
Dämmstoffe bezüglich ihres Primärenergie-
inhaltes (PEI) und des Global Warming
Potentials (GWP) eingegangen.
Der schonende Umgang mit Ressourcen,
die Wiederverwertbarkeit bei gleichzeitiger
Umweltverträglichkeit und die Verwendung
von Bauprodukten mit heimisch nachwach-
senden Baustoffen kennzeichnet nicht nur
ökologisches sondern gleichzeitig auch
nachhaltiges Bauen aus.
Es konnte aufgezeigt werden, dass der Ein-
bau eines Naturdämmstoffes – im Neubau wie
auch im Bereich der Altbausanierung – keine
größeren Baukosten in bestimmten Fällen
verursachen, wenn entsprechende Bundes-
fördermittel in Anspruch genommen werden.
Literatur
[1] G. Fries, N. Heiss, W. Langner, I. Lehn,
E. Reinhold-Postina: Kulturdenkmäler
in Hessen und Darmstadt; Herausge-
ber: Landesamt für Denkmalpflege
Hessen in Zusammenarbeit mit dem
Magistrat der Stadt Darmstadt,
Vieweg Verlag
[2] K. Nahler: Sanierung und Modernisie-
rung einer unter Denkmalschutz
stehenden Wohnbebauung in bauphy-
sikalischer und statisch-konstruktiver
Hinsicht, Diplom arbeit FH Darmstadt,
Fachbereich Bau ingenieurwesen
(Referent Prof. Dr. J. Spittank), 2002
[3] M. Gierga: EnEV Energieeinsparver-
ordnung, Herausgeber: Arbeitsgemein-
schaft Mauerziegel im Bundesverband
der deutschen Ziegelindustrie e.V., 2.
Ausgabe, März 2002
[4] DIN V 4701-10; Energetische Bewer-
tung heiz- und raumlufttechnischer
An lagen, Beuth Verlag, Berlin,
Februar 2002
[5] Institut für Klima, Umwelt, Energie Wup-
pertal; Energiegerechtes Bauen und
Modernisieren, Birkhäuser Verlag 1996
[6] I. Gabriel, H. Ladener: Vom Altbau zum
Niedrigenergiehaus, Ökobuch Verlag,
3. Auflage, 2002
[7] G. Hammer: Die neue Energieeinspar-
verordnung im Bild, Herausgeber
Weka-Media GmbH 32. Aktualisie-
rungslieferung, 2001
[8] B. Schulze Darup: Bauökologie, Bau-
verlag, 1996
[9] N. Mühlfeld: Sanierung einer unter
Denkmalschutz stehenden Wohnbe-
bauung in bauphysikalischer und
ökologischer Hinsicht, Diplomarbeit
FH Darmstadt, Fachbereich Bau-
ingenieurwesen (Referent Prof. Dr.
J. Spittank), 2003
[10] P. Eyerer, H.-W. Reinhardt: Ökologische
Bilanzierung von Baustoffen und
Gebäuden-Wege zu einer ganzheit-
lichen Bilanzierung, Birkhäuser Verlag
2000, Basel
[11] H. Mötzl: Ökologie der Dämmstoffe,
im Auftrag des Institut für Baubiologie
und -ökologie, Springer Verlag 2000,
Wien
[12] Katalyse Institut für angewandte
Umweltforschung Köln: Dämmstoff-
tabellen aus der Reihe ökologische
Bewertung von Gebäudedämmstoffen
insbesondere unter abfallwirtschaft-
lichen Aspekten, Köln
[13] C. Sörensen: Wärmedämmstoffe im
Vergleich, 7.Auflage: Umweltinstitut
München e.V. 2000
[14] http://www.jackodur.de
[15] http://www.schenk.de/dt/
produktkatalog/index.html
[16] http://www.parac.de
[17] http://www.heraklith.com/heraklith/
heraklith.html
[18] http://www.naturbaudirekt.de/
search.asp/search/thermo-hanf
[19] Spittank, J.: Sanierung und Modernisie-
rung einer unter Denkmalschutz
stehenden Wohnbebauung in bau -
phy sikalischer Hinsicht, Vortrag
Ruhr-Uni versität-Bochum, Fakultät für
Bauingenieurwesen, 20.03.2002
68
2. Naturwissenschaftliche Experimente im Kinder-garten
Kinder sind die geborenen Wissenschaft-
ler. Sie sind unvoreingenommen, experimen-
tierfreudig, wollen alles wissen und hinterfra-
gen alles. Man würde nur kreatives Potential
vergeuden, wenn man nicht schon Kinder
mit den Naturwissenschaften konfrontieren
würde, selbstverständlich, in dem man sie
eigenhändig experimentieren lässt.
G. Lück hatte bereits Mitte der 90er Jahre
gezeigt, wie gut einfache chemische Experi-
mente im Kindergarten ankommen und wie
groß das Erinnerungsvermögen der Kinder an
das Erlebte selbst nach längerer Zeit noch war
[1]. Ich fand die Arbeiten von Frau Lück schon
damals hoch interessant, hatte aber erst 2002
die Gelegenheit, sie selbst aufzugreifen, und
zwar als mein Sohn in den Kindergarten kam.
Ich führte in seiner Gruppe einige Experimen-
tiereinheiten durch, und schnell entwickelte
sich aus der anfänglichen Eltern-Initiative ein
großes Projekt. Die Ergebnisse wurden in
einem fachdidaktischen Journal publiziert [2].
1. Einleitung
Chemie-Fachbereiche von Hoch-
schulen und Chemie-Firmen treten gerne
an Oberstufen-Schülerinnen und Schüler,
vor allen aus Chemie-Leistungskursen,
heran, um Werbung für ihre Ausbildung
zu machen und attraktive Berufsperspek-
tiven aufzu zeigen. Dies ist sinnvoll, reicht
aber nicht aus, um langfristig ein nach-
haltiges Interesse an naturwissenschaftlich-
technischen Fragen bei jungen Menschen,
den zukünftigen Leistungsträgern unserer
Gesellschaft, zu wecken. Dies muss viel
früher geschehen, beginnend mit spiele-
rischen naturwissenschaftlichen Experimen-
ten im Kindergarten und dann gemäch -
lich, aber kontinuierlich aufbauend durch
verstärkten Sachunterricht in der Grund-
schule, durch Themenwochen, auch
außerhalb der Schule, sowie durch natur-
wissenschaftliche Arbeitsgemein schaften
in der gymnasialen Unterstufe, bis in
der Mittelstufe der reguläre Fach unter-
richt einsetzt.
Prof. Dr. rer. nat. Volker Wiskamp
Fachbereich Chemie- und Biotechnologie
Projekte im „Jahr der Chemie“
Chemie – nicht erst ab Klasse 8
69Querschnitt Juli 2004
Der Arbeitskreis Fort- und Weiterbildung
des Elisabethenstiftes in Darmstadt interes-
sierte sich dafür und lud mich ein, einen halb-
tägigen Workshop „Naturwissenschaftliche
Experimente im Kindergarten“ für Erziehe-
rinnen anzubieten. Aufgrund der großen
Resonanz fand ein weiterer, dreitägiger
Workshop statt [3]. Dieser wurde zu sätzlich
von der Firma Merck bezuschusst. Der
Konzern finanzierte für jede der 18 Teilneh-
merinnen eine Experimentier-Grundaus-
stattung im Wert von 120 Euro, welche die
Umsetzung der von mir vorgestellten Ver-
suche erleichtern sollte. Der Kurs wurde
2004 wiederholt. Schließlich führte ich
in der Fachschule für Sozialpädagogische
Berufe im Elisabethenstift einen Wahlpflicht-
kurs „Naturwissenschaftliches Experimentie-
ren“ für angehende Erzieherinnen und
Erzieher, die sich noch in der Ausbildung
befanden, durch.
Inzwischen habe ich einen physikalisch-
chemischen Bildungskanon für den Elemen-
tarbereich unsres Bildungssystems vorge-
schlagen [4].
3. Experimentier-Arbeits-gemeinschaften im Kinder-hort
Der Einstieg der Firma Merck in das
Projekt ergab sich aus einer Weiterentwick-
lung unserer bestehenden Bildungspartner-
schaft. Wir hatten gerade zusammen mit unse-
rem dritten Partner, der Lichten bergschule
in Darmstadt, einen Beitrag „Chemische Bil-
dung im Dreieck Schule/Fachhochschule/
Industrie“ beim Innovationswettbewerb des
Hessischen Unternehmerverbandes einge-
reicht [5] und damit den dritten Preis erzielt.
Nun wollten wir die Zusammenarbeit auf
einem anderen Gebiet fortsetzen.
Die Kindergarten-Aktivitäten übertrugen
wir auf den Hort-Bereich der firmeneigenen
Kindertagesstätte. Den Schulkindern, die dort
nachmittags hingehen, boten wir ein natur-
wissenschaftliches Kreativ-Programm an. Ich
schrieb das Konzept für eine Arbeitsgemein-
schaft „Umweltbildung durch naturwissen-
schaftliche Experimente“ (10 einstündige
Einheiten). Die durchweg positiven Ergebnis-
se, – Begeisterung und Interesse der Kinder,
Akzeptanz von Seiten ihrer Eltern, zuneh-
mende Freude der Erzieherinnen an der
neuen Tätigkeit, verbunden mit der Über-
zeugung, dass diese sinnvoll ist –, wurden
publiziert [6] und auf einer Fortbildungs-
veranstaltung für Hort-Erzieherinnen vor-
gestellt.
Vier weitere Skripte „Chemische Stoffe
im Schulranzen“, „Sonne, Wind, Blitz und
Regen … und die Naturwissenschaften“,
„Elementar-Physik“ sowie „Naturwissen-
schaft und Schöpfung“ wurden von mir
verfasst und erprobt [7].
4. Stärkung des Sachunter-richtes in der Grundschule
Die Hort-Arbeitsgemeinschaften bildeten
die thematischen Grundlagen für Fortbil-
dungsveranstaltungen für Grundschullehre-
rinnen und -lehrer, womit das Schulförder-
programm von mir und der Firma Merck
erheblich erweitert wurde. Die Pilot-Schule
war die Elly-Heuss-Knapp-Grundschule,
deren Lehrerinnen und Lehrer von mir
geschult wurden (fachdidaktische Kon-
ferenzen sowie Beratung meinerseits bei
einzelnen Unterrichtstunden) und die von
der Firma Merck mit den nötigen Geräten,
Vorschulkinder
– begeisterte
Chemiker der
Zukunft?
70
Chemikalien und Lehrmaterialien (Basis-
Set für knapp 1000 Euro) versorgt wurden.
Gespräche mit weiteren Grundschulen,
die an einer naturwissenschaftlichen Profil-
bildung und einer Bildungspartnerschaft
mit Merck und der FHD interessiert sind,
werden zur Zeit geführt.
5. Naturwissenschaftliches Propädeutikum am Gymnasium
An hessischen Gymnasien gibt es ab der
Klasse 5 den Biologie-Unterricht. Der Physik-
Unterricht beginnt erst in der Klasse 7, der
Chemie-Unterricht sogar erst in der Klasse 8.
Damit die von den Schülern in der Grund-
schule bereits gemachten Erfahrungen mit
den beiden Fächern in der Zwischenzeit nicht
in Vergessenheit geraten, wurde am Lichten-
berg-Gymnasium ein naturwissenschaftliches
Propädeutikum entwickelt [8]. Fünftklässler
können eine 15–80minütige Arbeitsgemein-
schaft wählen, in der sie je fünf Experimen-
tiereinheiten zur Chemie, Physik und Infor-
matik durchlaufen. Sie lernen in den Kursen
(der Chemie-Kurs wurde von mir konzipiert
und geleitet), worum es in den einzelnen
Fächern geht (Chemie: die Wissenschaft der
Stoffe), und sie lernen die wissenschaftliche
Methodik kennen, wie man von der Hypothe-
se über das Experiment zum Erkenntnisge-
winn kommt und diesen dokumentiert. In der
Klasse 6 wurde das Propädeutikum fortge-
setzt. Im Chemie-Teil standen vor allen
Arbeitstechniken (Destillation, Filtration etc.)
auf dem Programm. Die bisherige hohe
Akzeptanz der Kurse wird sehr wahrschein-
lich dazu führen, dass sie auch in Zukunft
angeboten werden.
6. Biochemie für hoch begabte Unterstufenschüler
Für hoch begabte Schüler der Klassen
5–6 wurde ein Biochemie-Kurs konzipiert,
womit ein Thema gewählt wurde, das wegen
seiner Komplexität und seines hohen Schwie-
rigkeitsgrades im normalen Schulcurriculum
erst am Ende der gymnasialen Oberstufe auf-
taucht. Wie in anderen Kursen, die ich für
hochbegabte Jugendliche entwickelt habe,
ging es um die Frage „Was ist Chemie über-
haupt?“, die anhand von Experimenten mit
Bezug zur Biologie beantwortet wurde [9].
7. Naturwissenschaften im Kindersommer
Chemie in die Freizeit von Grundschul-
und Unterstufenkinder einzubringen, gelingt
z.B. mit den berühmten Kosmos-Chemie-
Baukästen, die im Spielzeughandel erhältlich
sind. Unter fachdidaktischen Gesichtspunkten
sind die Experimentiersets hervorragend,
allerdings nur, solange sich die jungen For-
scher an die Begleithefte halten. Doch zu häu-
fig wird das geleitete, kindergerechte For-
schen zum unkontrollierten „Böller-Bauen“
– und damit gefährlich. Ich hatte die Gele-
genheit, naturwissenschaftliche Experimente
auf andere Weise zur Freizeit-Aktivität von
7–12Jährigen zu machen, und zwar im Rah-
men des von einigen evangelischen Gemein-
den in Darmstadt veranstalteten Kindersom-
mers. An dem zweiwöchigen Programm in
den Sommerferien nehmen seit Jahren im
Schnitt 100 Kinder teil. Im Sommer 2002
lautete das Kurs-Thema: „Erde, Luft, Wasser,
Feuer … megastarkes Abenteuer“. Ich war
mit zwei Experimentiereinheiten dabei,
und es machte den Kinder sichtbaren Spaß,
die vielseitigen Eigenschaften der Chemi-
kalie Wasser zu erforschen bzw. unter fach-
kundiger Anleitung Verbrennungsreaktionen
und Flammenfärbungen durchzuführen.
2003 lautete das Motto der Kindersommers
„Es war einmal ... Entdecker erforschen
Geheimnisvolles“. Hier begannen meine
Kurse mit Märchen, die mit chemischen
Experimenten gedeutet wurde. Das Märchen
vom „Müll röschen“ beispielsweise führte
den Kinder die Verantwortung des Chemi-
kers für die Umwelt und die Bewahrung
der Schöpfung vor Augen. Und die Ge-
schichte von der „Kunststoffprinzessin“
zeigte den jungen Menschen, was die
Makrom olekulare Chemie alles leisten kann,
um unser tägliches Leben angenehmer zu
machen [10, 11].
Feriencamp für
Kinder – beson-
ders spannend
wegen der Che-
mie-Experimente
71Querschnitt Juli 2004
Im Olympischen Jahr 2004 habe ich vor,
den Kindersommer mit „Chemischen Wett-
kämpfen“ zu bereichern.
8. Ferienakademie für hoch begabte Grundschüler
Auch die Kinder- und Jugendakademie
Südhessen e.V., mit der ich auf dem Gebiet
der Hochbegabten-Förderung zusammen
arbeite (s.o.), nutzte die Herbstferien 2003
erstmals für eine Ferienakademie für Grund-
schulkinder. „Ungarisch und Chemie“ lautete
ein Beitrag. Es ging um die Einführung in die
Sprache Ungarns, seine Landeskunde und
seine Küche. Und was passte dazu als natur-
wissenschaftliche Komponente besser als
„Chemie im Kochtopf“ [12]?
Im Herbst 2004 werde ich mich wieder an
der Ferienakademie für Hochbegabte Schü-
lerinnen und Schüler beteiligen, diesmal mit
einem Kurs „Chemie, Sport und Religion“,
zusammen mir meinen beiden Doktoranden,
die auf dem Gebiet des fächerverbindenden
Chemie/Sport- [13, 14] bzw. Chemie/
Religionsunterricht arbeiten.
9. Persönliche Schlussbemerkung
2003 – im Jahr der Chemie – veranstalte-
ten viele Chemie-Fachbereiche in Deutsch-
land Zaubershows für Oberstufenschüler.
Diese Mega-Events passen gut in eine Frei-
zeit- und Fun-Gesellschaft. Justus, der Che-
mie-Truck, fuhr von Schulhof zu Schulhof,
und lud klassenweise Jungen und Mädchen
dazu ein, im Minutentakt ein Experiment
nach dem anderen zu erproben, was meis-
tens in einem planlosen Zusammenschütten
verschieden farbiger Flüssigkeiten endete.
Dies alles war nicht nach meinem
Geschmack. Ich wollte der Chemie und
den sehr jungen Menschen mit der hier
beschriebenen chemiedidaktischen Basis-
arbeit einen anderen Gefallen tun.
Dank
Für die finanzielle Unterstützung der hier
beschrieben Projekte bedanke ich mich bei
der Deutschen Bundesstiftung Umwelt, dem
Fonds der Chemischen Industrie, der Firma
Merck KGaA sowie der Kinder- und Jugend-
akademie Südhessen e.V.
Literatur
[1] G. Lück: Leichte Experimente für Eltern
und Kinder. HERDER spectrum, Freiburg
2000
[2] V. Wiskamp: Chemie im Kindergarten.
c+b 2002, Heft 2, S. 37–50
[3] V. Wiskamp: http://
www.fbc.fh.darmstadt.de/homepages/
Wiskamp/didaktik/kindergarten/index.html
[4] V. Wiskamp: Physikalisch-chemische
Experimente im Kindergarten – Vorschlag
für einen Bildungskanon. MNU,
im Druck
[5] V. Wiskamp, C. Jansen, M. Pfleger, H. Rit-
ter, T. Schmidt: Chemie im Dreieck Schule/
Hochschule/Industrie. ChemKon, im Druck
[6] V. Wiskamp, C. Jansen: Umweltbildung
durch naturwissenschaftliche Experi-
mente. Chemie & Schule, im Druck
[7] V. Wiskamp: http://www.fbc.fh-
darmstadt.de/homepages/Wiskamp/
didaktik/grundschule/index.html
[8] V. Wiskamp: http://www.fbc.fh-darm
stadt.de/homepages/Wiskamp/didaktik/
gymnasium/ags/index.html, Links zu
Chemie-Propädeutikum Klasse 5 bzw. 6
[9] V. Wiskamp, W. Proske, J. Röder: Bioche-
mie für hoch begabte Unterstufenschüler.
Chemie & Schule, im Druck
[10] V. Wiskamp: Chemie und Märchen.
c+b 2003 (Heft 3), S. 7–13
[11] V. Wiskamp: http://www.fbc.fh-
darmstadt.de/homepages/Wiskamp/
didaktik/freizeit/index.html
[12] V. Wiskamp: Chemie-Kurse für Hoch-
begabte. Verlag Harri Deutsch,
Frankfurt 2004
[13] V. Wiskamp, W. Proske, M. Holfeld:
Energiebereitstellung im Sport – fächer-
verbindender Chemie/Sport-Unterricht.
Chemie & Schule 17 (2002), Nr. 3, S. 2–4
[14] V. Wiskamp rt. al.: Carnitin – Eine Amino-
säure für die Verbrennung von Fetten.
NiU-Chemie 14 (2003), Heft 75, S. 37–39
Kein Fehler im System
72
Prof. Dr. Bernhard Kreling
Fachbereich Informatik
Integration von Lehrveranstaltungs-
organisation und Prüfungsverwaltung 74
Jorge Ors Roig, Dieter Metz, Lothar Petry
Fachbereich Elektrotechnik und
Informationstechnik
Einbezug der Händler-Situation
in das FHD-Netz-Trainings system 76
Prof. Dr.-Ing. Dieter Metz
Fachbereich Elektrotechnik und
Informationstechnik
Netztraining im liberalisierten
Strommarkt 78
Prof. Dr. Karl Erich Wolff
Fachbereich Mathematik und
Naturwissenschaften
Repräsentation von Lebenslinien
in begrifflichen Zustandsräumen 80
Prof. Dr. Andreas Pfeifer
Fachbereich Mathematik und
Naturwissenschaften
Bewertung von Zinsderivaten 81
Prof. Dr. Martin Meyer-Renschhausen
Fachbereich Wirtschaft/Energiewirtschaft
Energiemanagement im
Hochschulsektor 84
Prof. Dr. Monika Bösel
Fachbereich Sozialpädagogik
Forschungsprojekt: Soziale
Netzwerke von Migrantinnen 86
Prof. Dr. Bernd Seidenstücker
Fachbereich Sozialpädagogik
Forschungsprojekt „Fortentwicklung
der Jugendhilfepraxis zum Kind-
schaftsrecht“ 88
Inhalt
Projekte
Prof. Dr. Ralf Schellhase
Fachbereich Wirtschaft
Die Bedeutung von Sekundärdienst-
leistungen im Business-to-Business-
Marketing 90
Prof. Dr.-Ing. Mathias Döring
Fachbereich Bauingenieurwesen
Traditionelle und neuzeitliche
Bewässerung in den Oasen
der Libyschen Wüste Ägyptens 92
Cand. Ing. Harald Klöß,
Fachbereich Mathematik und
Naturwissenschaften
Langzeitdatenarchivierung auf
Mikrofiche mittels Laserstrahlung 95
Prof. Klaus Schwebel
Fachbereich Elektrotechnik und
Informationstechnik
Fourieranalyse und Fourier-
transformation mit Matlab/Simulink 96
Prof. Hermann Meuth, Ph.D., Kai Schade,
cand. ing., und Ireneusz Janiszewski, M.Sc.
Elektronische Mikrosysteme,
Fachbereich Elektrotechnik und
Informationstechnik
Innovative Piezomotor-Ansteuerung 98
Prof. Dr. Hartmut Vinçon
Editions- und Forschungs stelle
Frank Wedekind
Querschnitt. Beiträge aus Forschung
und Entwicklung der FHD 2003 102
Dr. Sigrid Dreiseitel
Public-Relations-Strategien
deutschsprachiger Autoren der
Jahrhundertwende 102
Dipl.-Inform. (FH) Daniel Eichelsbacher
Fachbereich Informatik
Chameleon – ein Tool zur Förderung
des individuellen Lernprozesses von
Studenteninnen und Studenten 105
Prof. Dr. Michael Rebstock, Diplom-
Betriebswirt (FH), Janina Fengel, Diplom
Media System Designer (FH), Matthias Petry,
Fachbereich Wirtschaft
Forschungsprojekt SemaVar – Seman-
tic Variety in Electronic Negotiations
– Behandlung semantischer Vielfalt in
elektronischen Verhandlungen 108
Dipl.-Ing. (FH) Astrid Bischoff,
Prof. Dr.-Ing. Reiner Wackermann
Fachbereich Bauingenieurwesen
Wasserknappheit auf Mittelmeerinseln
– Randbedingungen und Möglichkeiten
der nachhaltigen Wasserbewirtschaf-
tung in (semi)ariden Regionen am Bei-
spiel der Kykladeninsel Mykonos 111
Martin Führ, Jaqui Dopfer, Stefani Merenyi
Sonderforschungsgruppe
Institutionen analyse sofia
Transnational Law Making in View of
the Free-Rider-Problem – Product
Related Environmental Policy and Cross
Border Electronic Commerce 120
Prof. Dr. Ralph Stengler
Fachbereich Kunststofftechnik
Automatisierte Qualitäts sicherungs-
kette bei der Compoundierung von
technischen Kunststoffen 123
Prof. Dr.-Ing. Mathias Döring
Fachbereich Bauingenieurwesen
Römische Infrastruktur am Golf von
Neapel – Eine technikgeschichtliche
Dokumentation 125
73Querschnitt April 2001
74
Prof. Dr. Bernhard Kreling
Fachbereich Informatik
Integration von Lehrver-
anstaltungsorganisation und
Prüfungsverwaltung
Umfeld und Historie
An der FH Darmstadt wurde in
den letzten Jahren das Prüfungsver-
waltungssystem HISPOS der Hoch-
schul-Informations-System GmbH
eingeführt. Dieses deckt alle Ver-
waltungsvorgänge rund um die
Planung, Organisation und Durch-
führung von Prüfungen und das
Verbuchen von Prüfungsergebnis-
sen bis hin zum Zeugnisdruck
vollständig ab. Mit der Einführung
von HISPOS wurde zugleich die
Zuständigkeit für die Prüfungs-
verwaltung weitestgehend in die
Fachbereiche verlagert, die dieses
System derzeit in recht unterschied-
licher Tiefe nutzen.
Die Planung und Organisation
von Lehrveranstaltungen hingegen
wird – trotz vielfältiger Verkopplun-
gen der Verwaltungsabläufe mit
der Prüfungsorganisation – von
HIS bisher nicht gut unterstützt
(ein Modul HISLSF „Lehre, Studium,
Forschung“ befindet sich in der
Entwicklung, lässt aber derzeit
noch viele wichtige Funktionen
vermissen). An der FHD ist die
Lehrveranstaltungsorganisation
traditionell Sache der Fachberei-
che, die dafür unterschiedliche
Papier- oder EDV-basierende
Lösungen betreiben.
Zur Planung des Lehrangebots
und zur Erstellung des Stunden-
plans wird am FB Informatik seit
Sommer 2000 eine Eigenentwick-
lung eingesetzt (siehe Querschnitt
Nr. 15, April 2001 und http://www.
fbi.fh-darmstadt.de/~kreling/
Stundenplanungssystem.htm).
Die Ver gabe von Plätzen für
Prak tika und Wahlpflichtfächer
wurde von den Lehrenden damals
noch dezentral organisiert. Mit der
neuen Bachelor-Studienordnung
des FB Informatik, die eine Vielzahl
von Fächern mit Praktika im Grund-
studium vorsieht, in Verbindung mit
hohen Studierendenzahlen wurde
jedoch eine stundenplantechnische
Verzahnung der Praktika erforder-
lich, die ihrerseits eine zentrale Platz-
vergabe unumgänglich macht.
Zu diesem Zweck wurde die erste
Version des Online Belegsystems
entwickelt und zum Sommerse-
mester 2001 eingesetzt. Zum Winter-
semester 2001/02 wurde es zu
einem Vergabever fahren für knap-
pe Plätze in Wahlpflichtfächern
weiterentwickelt. Dabei wurde
das Verfahren von direkter Ein-
schreibung auf Belegwünsche mit
anschliessendem Zuteilungsver-
fahren umgestellt. Seit Sommer-
semester 2002 werden nun die
Plätze für alle Lehrver anstaltungen
des Fach bereichs Informatik über
dieses System vergeben (http://
www.fbi.fh-darmstadt.de/~belegen)
und Papier-Beleg scheine haben
sich erübrigt.
Im Sommer 2003 begann der
Fachbereich Informatik mit der
Umstellung der Notenverwaltung
auf HISPOS. Lehrveranstaltungs-
organisation und Prüfungsorgani-
sation wurden integriert und das
Online Belegsystem entsprechend
weiterentwickelt. Es enthält nun
zusätzlich den neuen zentralen
Prüfungsterminplan des Fachbe-
reichs und deckt die Anmeldung
zu Prüfungen sowie das Belegen
von Lehrveranstaltungen anderer
Fachbereiche (SuK) durch Studie-
rende ab.
Workflow
Das Grundprinzip des Gesamt-
systems ist, dass jede Information
nur einmal eingegeben wird und
dann für weitere Bearbeitungs-
schritte in elektronischer Form
zur Verfügung steht. Durch enge
Kopplung der Teilsysteme ent-
stammen nun Vorlesungsver-
zeichnis, Stundenplan, Prüfungs-
verzeichnis, Prüfungsterminplan
und Notenlisten letztlich derselben
Datenbasis, wodurch die Konsistenz
dieser Dokumente gewährleistet
ist und Zuordnungsprobleme erst
gar nicht auftreten können.
Die Planung eines Semesters
beginnt mit der Lehrveranstaltungs-
planung (wer macht was) durch
den Prodekan mit Hilfe des Werk-
zeugs „Semesterplanung“. Er wählt
aus dem Prüfungsverzeichnis die
anzubietenden Lehrveranstaltun-
gen aus und ordnet Lehrende zu.
Neue Wahlpflichtfächer und neue
Lehrende kann er dabei direkt
eingeben – sie werden später via
„HisposToDo_Daten.mdb“ nach
HISPOS übertragen. Das Ergebnis
ist das Vorlesungsverzeichnis, das
direkt für das Vorlesungs- und
Personalverzeichnis der FHD
exportiert und zugleich ins Web
gestellt wird.
Der Stundenplaner erfragt
die Raum- und Zeitwünsche der
Lehrenden webbasiert über den
„RZW-Server“ und erstellt dann
mittels „Semesterplanung“ die
Stundenpläne (wann und wo), die
ebenfalls direkt in HTML exportiert
und automatisch per eMail an die
Lehrenden gesandt werden. Er
überträgt die Stundenplandaten
in die „Beleg system Datenaufbe-
reitung“, wo aus den verfügbaren
Praktikumsterminen automatisch
Pakete von überschneidungs-
freien Praktikumsgruppen
geschnürt werden.
Die Fachbereichsreferentin
erstellt aus den Prüfungsdaten mit
Hilfe des Werkzeugs „Prüfungs-
75Querschnitt Juli 2004
Anmel-dungen
(SuK)
erwartete LNs
mit pordnr,
imm. Studenten
Sekretariat(aktuelle F‰cher)
Sekretariat(alte Diplom-Fächer)
Notensam-melstelle
Semester-planung
Studi-Archiv
Noten(neueBelegNr)
PrüferPrüfungen
HIS/POSGX
POSBatchInput.txt
Noten-spiegel
Notenlisten
POSBatch
HIS/ISY
sosposDB
HIS/POS
Hand-scheine
Noten-korrektur
Online BelegsystemWeb Front-End
pordnrPrüferkürzelimm. Studenten
Noten-spiegel
Hand-scheine
Noten-korrektur
Teilnehmerlisten
Noten(alte BelegNr)
Prüfungs -planung
Lehrende
RZWServer
Raum-/Zeitwünsche
Prüfungsverzeichnis
Vorlesungs-verzeichnis
Stunden-pläne
Prüfungs -termine
Aufsichtsplan
Studierende
HisposExtract.mdb
Verwaltungsnetz Öffentliches Netz
Zuteilungs-ergebnis
BelegsystemDatenaufbereitung
Termine
FBI/ISY
HisposToDo_Daten.mdb
mit pordnr
nichterwarteteLNs
Zuteil.-Algo.
planung“ den Prüfungsterminplan
mit Prüfungsterminen, -räumen und
-aufsichten.
Der Stundenplaner führt nun in
der „Belegsystem Datenaufbe rei-
tung“ die Stundenplandaten, den
Prüfungsterminplan und die Daten
der rückgemeldeten Studierenden
(via HisposExtract.mdb direkt aus
HISSOS importiert, wo sie vom
Student Service Center gepflegt
werden) zusammen und lädt damit
das „Online Belegsystem“. Die
Lehrenden bekommen zur Kontrolle
automatisch per eMail einen Auszug
ihrer Daten und können Starttermine
ihrer Veranstaltungen und fehlende
Prüfungstermine online ergänzen.
Eine Woche vor Vorlesungs-
beginn wird das Online Belegsystem
für die Studierenden geöffnet, die
nun ihre Belegwünsche eingeben.
Nach Ende der Belegfrist holt der
Stundenplaner die Belegwünsche in
die Datenaufbereitung und startet
den „Zuteilungsalgorithmus“, der
die verfügbaren Plätze nach einem
komplexen System von Vorrang-
regeln auf die Studierenden verteilt.
Die Studierenden bekommen ihr
persönliches Zuteilungsergebnis
per eMail, ebenso die Lehrenden
die vorläufigen Teilnehmerlisten
ihrer Lehrveranstaltungen. Die
Zuteilungsergebnisse werden
zurück in das Online Belegsytem
geladen und die „Restplatzbeleg-
phase“ eröffnet – eine Art Tausch-
börse, in der die Studierenden ihnen
zugeteilte Plätze wieder freigeben
und Restplätze belegen können.
Eine Woche nach Vorlesungsbeginn
erhalten die Dozenten schließlich
die endgültigen Teilnehmerlisten.
Im Lauf des Semesters melden
sich die Studierenden im Online
Belegsystem zu Prüfungen an –
unabhängig von der Belegung
von Lehrveranstaltungen, damit
Wiederholer nicht unnötigerweise
knappe Praktikumsplätze belegen.
Die Fachbereichsreferentin über-
prüft die Zahl der Anmeldungen
und organisiert ggfs. weitere
Prüfungsräume und -aufsichten;
sie hat zu diesem Zweck über
die „Prüfungsplanung“ direkten
Zugriff auf die Prüfungsdaten im
Online Belegsystem. Die Lehrenden
können den Stand der Anmeldun-
gen online abfragen und nach
Anmeldeschluss elektronische
Notenlisten im MS Excel-Format
herunterladen.
Nach Durchführung der Prüfung
und Korrektur der Klausuren tragen
die Lehrenden die Noten mittels
MS Excel oder Texteditor in die
elektronischen Notenlisten ein und
76
liefern sie im Sekretariat ab. Die
Sekretärin importiert die Notenlis-
ten in die „Notensammelstelle“, die
zu Semesterbeginn mit einer Liste
der erwarteten Notenlisten aus der
„Belegsystem Datenaufbereitung“
geladen wurde. So kann die Sekre-
tärin jederzeit überprüfen, welche
Notenlisten noch ausstehen. Aus
der Notensammelstelle werden die
Noten schließlich über die „POS-
Batch“-Schnittstelle in die Noten-
verwaltung HISPOS übertragen
und dort mit den Noten aus ande-
ren Fachbereichen zusammenge-
führt. Ein Sonderfall ist der aus-
laufende Diplom-Studiengang, der
nicht mit HISPOS verwaltet wird;
dessen Noten werden im „Studi-
Archiv“ gesammelt und ausgewer-
tet. Das Studi-Archiv enthält die für
den FB Informatik relevanten Daten
des alten FHD-Notenverwaltungs-
systems „STUDI“. Das Abtippen
von Belegscheinen und Notenlisten,
das früher vom Rechenzentrum
übernommen wurde, entfällt nun
also völlig – das beschleunigt die
Abläufe und senkt die Zahl der
Übertragungs- und Zuordnungs-
fehler beträchtlich.
Technik
Entsprechend der eingangs ge-
schilderten historischen Entwick-
lung wurde ein heterogenes ver-
teiltes Datenverarbeitungssystem
geschaffen, das Eigenentwicklun-
gen mit dem Fremdprodukt HISPOS
integriert.
Die Komponenten Semester-
planung, Belegsystem Datenauf-
bereitung, Prüfungsplanung,
Notensammelstelle und Studi-
Archiv sind MS Access Daten-
banken (Visual Basic, SQL, ActiveX)
auf MS Windows. eMails werden
per Visual Basic generiert und
über Outlook Express verschickt.
Der Zuteilungsalgorithmus ist in
C++ geschrieben und greift über
MFC und DAO auf die Belegsystem
Datenaufbereitung zu.
Das Online Belegsystem Web
Front-End ist in PHP geschrieben
und läuft auf einer Linux / Apache /
PostgreSQL-Installation. Der RZW-
Server ist in ähnlicher Weise mit
Linux / Apache / MySQL und PHP
implementiert.
Die Schnittstellen zwischen
den verschiedenen Komponenten
sind teils mit ODBC, teils als Datei-
Export/Import und teils als direkte
Verknüpfung von Datenbanken
realisiert (insbesondere zwischen
dem öffentlichen Netz und dem
Verwaltungsnetz ist Dateitransfer
derzeit die einzige Möglichkeit).
Fazit
Der Fachbereich Informatik verfügt
nun über ein maßgeschneidertes
integriertes System, welches den
gesamten Ablauf der Planung und
Organisation von Lehrveranstaltun-
gen, der Stundenplanung, der Platz-
vergabe, der Terminplanung und
Organisation von Prüfungen bis
hin zur Archivierung der Noten in
HISPOS lückenlos abdeckt. Durch
zweckmäßige Verteilung der Arbeit
auf alle Beteiligten ist der administ-
rative Aufwand trotz der Größe
des Fachbereichs vergleichsweise
gering. Nicht zu unterschätzen ist
dagegen der Aufwand für die
An passung und Weiterentwicklung
bei Änderung einzelner organisato-
rischer Abläufe, wie sie häufig
durch neue Lehrveranstaltungsfor-
men, Nutzung von Synergieeffekten
oder durch neue Studiengänge ent-
stehen. In einem FB Informatik sind
solche Entwicklungsarbeiten aber
natürlich nicht nur als Verwaltungs-
unterstützung zu sehen, sondern
auch als Quelle interessanter Pra-
xisprojekte, von denen auch Studie-
rende profitieren.
Jorge Ors Roig, Dieter Metz,
Lothar Petry
Fachbereich Elektrotechnik
und Informationstechnik
Einbezug der Händler-Situation
in das FHD-Netz-Trainings-
system
Dies ist ein Kurzbericht der
Diplomarbeit von Jorge Ors Roig,
Universität Vigo, der eine Arbeit
an der FH-Darmstadt im Winter-
semester 2003/04 am FHD-Netz-
trainingssystem durchgeführt hat.
Die Betreuer waren Prof. Dr. Metz
und Prof. Dr. Petry, Fachbereich EuI.
Die Arbeit erfolgte im Rahmen des
Forschungsprojektes „Netz training
im liberalisierten Strommarkt“.
Nach den zunehmend größeren
Störungen der Stromversorgung
in vielen Ländern steht die Ver-
sorgungszuverlässigkeit wieder
stärker im Focus der Öffentlichkeit.
Können solche Großstörungen auch
in der Bundesrepublik auftreten?
Die Analyse der Fehler zeigt, dass
es Strukturprobleme in der Ener-
gieversorgung der betroffenen Län-
der gibt: Zu große Importabhängig-
keit und Übertragungsengpässe.
Beides gilt zur Zeit für die Bundes-
republik (noch) nicht. Manche Aus-
fälle wären mit Sicherheit durch
höhere Investitionen und bessere
Handlungsweise vermieden wer-
den können. Das scheint die Quit-
tung für die Marktliberalisierung
zu sein, durch die Investitionen und
Personal massiv zurückgefahren
wurden. Zudem ist der Markt durch
das Geflecht von Verträgen zwi-
schen den Marktteilnehmern (Kun-
den, Händlern, Netzgesellschaften
und Stromerzeuger) unübersichtli-
cher geworden. Weil wirtschaftliche
Überlegungen überall dominieren,
sollte in dieser Arbeit das Training
hinsichtlich der Rolle der Strom-
händler erweitert werden. Seine
77Querschnitt Juli 2004
Endkunden. Deren ungeplanten
übermäßigen Stromabnahmen
werden ihm in Rechnung gestellt,
wobei die auf zubringende Regel-
energie vom Übertragungsnetz-
betreiber kommt und einen stark
schwankenden aber typischer-
weise hohen Preis hat.
In der Arbeit wurde die Situation
eines Händlers nachgebildet, der
über einen Bilanzkreis Verantwor-
tung trägt. Dessen Situation ist
folgende: Ein Bilanzkreis ist Basis
der Planung und Überwachung. Ein
Bilanzkreis ist ein virtuelles Gebiet
in einem Netz, in dem alle Kunden
eines Händlers zusammengefasst
sind. Die Anzahl der Kunden kann
sich allerdings häufig ändern.
Deren Verbrauchsverhalten wird
als Lastprofile bezeichnet. Lastprofi-
le sind die typischen Lastganglinien
der Verbraucher, die bei größeren
Kunden aus Messungen abgeleitet
werden können oder in Form von
synthetischen Lastprofilen (bei
Kleinkunden) zur Verfügung stehen.
Aus allen Kunden-Lastganglinien
entsteht eine Summenlastganglinie
für einen Bilanzkreis, für die der
Händler Energiedeckung z.B. über
Grundlastverträge und die Strom-
börse EEX beschaffen kann. Basis
sind jeweils 1/4-Stundenwerte der
Energie. Die Energie kann inner-
halb des Bilanzkreises oder auch
außerhalb beschafft werden.
Die erste Aufgabe besteht also in
der Zusammenstellung der Kunden-
lasten und einer Prognose des zeit-
abhängigen Energiebe-darfs seiner
Kundengruppe(n) für den nächsten
Tag und die fernere Zukunft. In
Simulator wird eine Anzahl von
Klein- und Großkunden definiert
und deren Summen-Lastgang er-
mittelt. Über ein Pro gnoseverfahren
können über Temperatur-, Wind-
und Tageslichtparameter die Lasten
modifiziert werden, um eine mög-
lichst gute Näherung an die zu er -
wartende Abnahme zu erhalten. Das
Ergebnis ist ein optimal geschätzter
Verbrauchsfahrplan des Bilanzkrei-
ses in 1/4 h Auflösung für jeden Tag
des Jahres.
Der nächste Schritt besteht in der
Beschaffung der Energie zur Deckung
dieses Bedarfs. Hier wird ein Szenario
im Simulator ange -boten bei dem
der Händler über einen Mix von lang-
fristigen und kurzfristigen Angeboten
und Preisen die Energie beschaffen
kann. Der Händler ist weiter frei,
Übermengen sicherheitshalber
vorzuhalten oder auch ein Defizit zu
planen. In jedem Fall wird die Diffe-
renzenergie als Regelenergie vom
Übertragungsnetzbetreiber bezogen.
Als nächsten Schritt werden diese
Fahrpläne (Lastganglinie des Bilanz-
kreises und die beschaffte Gang-
linien zur Lastdeckung) für den
nächsten Tag dem Übertragungs-
netzbetreiber gemeldet, der sie for-
mal und inhaltlich prüft. Dies wird im
Simulator über ein Prüfverfahren
nachgebildet.
Nach Abgabe der Fahrpläne
kann die Übung fortgesetzt werden.
Dazu erfolgt in der Simulation ein
Zeitsprung in den übernächsten
Tag. Die tatsächliche Leistungs-
abnahme der Kundengruppe(n)
für den ursprünglich geplanten Tag
wird simuliert. Hierfür werden im
Simulator zufallsgesteuert Abwei-
chungen nachgebildet, da die Reali-
tät von der Planung mehr oder weni-
ger abweicht. Diese Differenzen,
Leistungsdefizite oder Überschüsse,
werden als Regelenergie bezeichnet
und müssen vergütet werden.
Hier berechnet der Simulator den
Leistungsausgleich über ein Verfah-
ren gemäß der Verbändevereinba-
rung (VV2+). Vertragsabhängig wer-
den kleine Schwankungen in einem
„Naturalausgleich“ unberücksichtigt
gelassen, größere Abweichungen
Handlungsweisen, Planungsschritte
und Risiken sollen durch Übungen
am FHD-Trainingssystem, sozusa-
gen in der virtuellen Welt erlebt und
in die Ausbildung der Energietech-
niker, Energiewirte und Wirtschaft-
ingenieure aufgenommen werden.
Integriert wird die Arbeit in das
FHD-Netz-Trainingssystem. Dies
hat sich als Instrument zum Training
des Netzbetriebes gut bewährt und
wird bei einigen Stromversorgern
bereits eingesetzt. Studierende
der FHD und Mitarbeiter der Strom-
versorger trainieren an der FHD
regelmäßig den technischen Netz-
betrieb und insbesondere dabei
die Analyse und Aufklärung von
Störungen wie beispielsweise Lei-
tungsausfälle, Erdschlüsse und
Kurzschlüsse. In einer authenti-
schen Trainingsumgebung mit
einem Standard-Leitsystem und
einem rein simulierten elektrischen
Energienetz können die typischen
Fehlersituationen nachgestellt und
die Strategien zur Analyse und
Beseitigung geübt und verbessert
werden. Auch die wirtschaftliche
Situation der Netzgesellschaft im
liberalisierten Markt wird durch
online-Indikatoren erfasst und
angezeigt. Netzgesellschaften finan-
zieren sich über die transportierten
Leistungen und die Energie zum
Endkunden. Auch von daher ist
eine möglichst unterbrechungsfreie
Stromversorgung anzustreben.
Die Position des Stromhändlers
kommt hier zu Recht in den Fokus.
Dieser hat die Kunden unter Ver-
trag. Er muss deren Strombedarf
prognostizieren und entsprechende
Energiemengen bei den Strom-
produzenten und -händlern
be stellen, langfristig oder kurz-
fristig und nach den Regeln des
Marktes. Sein größtes finanzielles
Risiko steckt insbesondere in dem
letztlich unplan baren Verhalten der
78
aber in einen Verrechnungsmodus
eingefädelt. Hier erlebt der Händler
in der Übung
die Folgen seiner falschen Progno-
se. Im Glücksfall trifft die Wirklich-
keit die Prognose des Händlers, und
seine Ertragssituation wird gut aus-
sehen. Im ungünstigen Fall hat der
Kunde mehr als geplant verbraucht,
und der Händler muss teure Regel-
energie bezahlen und erhält vom
Endkunden nur dessen Normal -
tarif. Hier können schnell auch hohe
Verluste eingefahren werden.
Im Simulator sind parametrier-
bare Vertragssituationen für die
Berechnungen hinterlegt, und die
Energiebilanz des Bilanzkreises
werden 1/4-stündlich durchgeführt,
visualisiert und die Differenz zwi-
schen bezogener und verbrauchter
Energie berechnet und dargestellt.
Aus den Abweichungen werden
die Kosten berechnet und online
angezeigt. Der Trainer kann jeder-
zeit die Kundenlasten und -Para-
meter beeinflussen bzw. die fest
geplanten Einspeisungen ausfallen
lassen und so das Gleichgewicht im
Bilanzkreis zusätzlich massiv stören.
Die Berechnungen sind in EXCEL
ausgeführt. Im April 2004 lief eine
ausführliche Testphase.
Prof. Dr.-Ing. Dieter Metz
Fachbereich Elektrotechnik
und Informationstechnik
Netztraining im liberalisierten
Strommarkt
Dies ist ein Kurzbericht des gleich-
namigen Projektes, das in Koope-
ration mit Industriepartnern und
weiteren Hochschulen im In- und
Ausland durchgeführt wird. Es ist
ein langfristiges Projekt mit dem
Ziel, Trainingssimulatoren zu ent-
wickeln, mit denen der Betrieb aus-
gedehnter Stromnetze risikolos
geübt und eine hohe Arbeitssicher-
heit im Umgang mit Netzstörungen
erreicht werden kann. Damit soll
ein Beitrag geleistet werden, die
Stromversorgung trotz sinkender
Investitionen und deutlich verrin-
gertem Personal auf einem mög-
lichst hohen Stand zu halten.
Nach den in den Jahren 2002
und 2003 zunehmend größeren
Störungen der Stromversorgung in
den USA, in London, in Italien usw.
steht die Versorgungszuverlässig-
keit wieder stärker im Focus der
Öffentlichkeit. Können solche Groß-
störungen auch in der Bundesre-
publik auftreten? Wenn man die
Netzstörungen analysiert wird
klar, dass es meist technische, aber
auch menschliche Ursachen gibt.
Strukturprobleme in der Energie-
versorgung der betroffenen Länder
werden dabei deutlich: Zu große
Importabhängigkeit und Übertra-
gungsengpässe erhöhen die Gefahr
von Ausfällen mit gravierenden
Abschaltungen von Millionen von
Menschen. In einigen Fällen waren
aber auch mangelhafte, weil zu
primitive Leit- und Schutztechnik
in Verbindung mit menschlichen
Fehlern verantwortlich. Schließlich
kann man auch künstlich (!) herbei-
geführte Marktverknappungen ver-
antwortlich machen. Der Verdacht
kommt auf, dass hier die Zeche
der Einführung der Marktlibera-
lisierung gezahlt wird, durch die
Investitionen in das Netz und in das
Personal, auch in die Ausbildung,
massiv zurückgefahren wurden.
Manche Ausfälle hätten tatsächlich
durch höhere Investitionen und
sicheres Handeln vermieden oder
in ihren Auswirkungen einge-
schränkt werden können.
Große Stromausfälle gibt es
zur Zeit für die Bundesrepublik
erfreulicherweise nicht. Schließlich
wurde in der Vergangenheit auch
viel in die Netze investiert. Die Libe-
ralisierung hat aber bei uns zum
massiven Zurückfahren von Investi-
tionen, Wartung und zu Personalre-
duktionen geführt. Beispielsweise
wurden innerhalb weniger Jahre
rund 10 % Kraftwerkskapazität ab -
gebaut, und einige Stromver sorger
haben ihr technisches Personal fast
halbiert. Tatsächlich wird die Auslas-
tung der Betriebsmittel größer, und
mit weniger Personal müssen größe-
re Netze betreut werden, die zudem
schlechter gewartet werden.
Um die Stromversorgung zu
sichern, müssen in den Leitstellen
gut ausgebildetes Personal für die
Betriebssicherheit und Zuverlässig-
keit im Netz sorgen und in den An-
lagen arbeiten. An der Steck dose
wirkt das Netz ruhig. Tat sächlich
sind aber ständig Umschaltungen
vorzunehmen. Moderne, effiziente
Leit systeme (SCADA-Systeme) sind
die not wendigen Werkzeuge, um
das Netz zu führen. Dazu sind die
Prozess daten klar darzustellen und
sichere Netz-Bedienungen zu er-
möglichen. Die Netz-Eingriffe sind
dabei mit Plausibilitätsprüfungen
abzusichern und vorab auf Ungefähr-
lichkeit zu prüfen. So können viele
Gefahren situationen vorab erkannt
und vermieden werden. Um auf alle
denkbaren Störungen im Netz vor -
be reitet zu sein, ist es zudem wichtig,
auch den Umgang mit Netzstörungen
laufend zu trainieren und sichere
Handlungsweisen einzuüben. Ein
modernes Leitsystem sollte daher
neben der online Überwachung,
Bedienung und Simulationsfunktionen
auch zusätzlich Trainingsmöglich-
keiten bieten. Hiermit können risiko-
los für Anlagen und Kunden Grenz-
bereiche des Netzes „erfahren“
werden. Nur wenn trainiertes Per-
sonal professionell handelt, kann
eine bestmögliche Stromversorgung
erreicht werden.
79Querschnitt Juli 2004
Weil wirtschaftliche Überlegun-
gen überall dominieren, war es an
der Zeit, das Netz-Trainingssystem
in dieser Hinsicht zu erweitern. Das
geschah bereits durch den Einbe-
zug wirtschaftlicher Indikatoren in
das Leitsystem. Beispielsweise wird
die Ertragssituation einer Netzge-
sellschaft online mitgerechnet und
dargestellt. Diese wird aus den
transportierten kWh zu den Kunden
laufend abgeleitet. Im Training kann
dann ermittelt werden, welcher
Netzeingriff positive oder negative
Auswirkungen auf die Ertragssitua-
tion bewirkt. Hiermit kann ein neues
Gewinnpotential für das Unter-
nehmen erschlossen werden.
Der FHD-Netz-Trainingssimula-
tor hat sich als Instrument zum
Training gut bewährt und wird bei
einigen Stromversorgern bereits
eingesetzt. Studierende der FHD
und Mitarbeiter der Stromversor-
ger trainieren an der FHD regel-
mäßig den Netzbetrieb und ins-
besondere dabei die Analyse und
Aufklärung von Störungen wie bei-
spielsweise Leitungsausfälle, Erd-
schlüsse und Kurzschlüsse. In einer
authentischen Trainingsumgebung
mit einem Standard-Leitsystem
(Resy-EVU) und einem rein simu-
lierten elektrischen Energienetz
können die typischen Fehlersitua-
tionen nachgestellt und die Strate-
gien zur schnellen Analyse der
Situation und zur Beseitigung und
Wiederversorgung geübt werden.
Auch die wirtschaftliche Situation
der Netzgesellschaft im liberali-
sierten Markt wird durch online-
Indikatoren erfasst und angezeigt.
Unterschiedliche Strategien haben
unterschiedliche wirtschaftliche
Konsequenzen. Die Kenntnis dar-
über ist wichtig, denn Netzgesell-
schaften finanzieren sich über die
transportierten Leistungen und
die Energie zum Endkunden. Auch
von daher ist eine möglichst unter-
brechungsfreie Stromversorgung
anzustreben.
Im Berichtsjahr sind weitere
wirtschaftliche Berechnungen in
das System implementiert worden.
Zu erwähnen sind vor allem die
Berechnungen nach dem CENS-
System. Dies besagt, dass abge-
schaltete Kunden vom Stromver-
sorger Kompensationszahlungen
(Pönalen) erhalten. Hinter diesen
Pönalen steht die Idee, die Strom-
80
versorger zu zwingen, ausreichend
in das Stromnetz zu investieren
und ausreichend betreuendes
Personal vorzuhalten. Denn wenn
sich Ausfälle häufen, sind hohe
Rückzahlungen viel teurer als konti-
nuierliche Investitionen in das Netz
und die Wartung der Anlagen. In
einigen Ländern Europas sind
unterschiedliche CENS-System
bereits versuchsweise eingeführt.
Damit wird bereits erfolgreich
gegen schlechte Ausfallzahlen
gekämpft. Gemeinsam ist die
hohe Strafgebühr für eine nicht
gelieferte kWh, die in den Bereich
von mehreren Euro (Gutschrift
an die Kunden) gehen.
Als Kooperationspartner sind
aktuell die repas-AEG Automation
in Dreieich zu nennen. Als weitere
Partner sind die FH Bielefeld, die TU
Clausthal und über eine DAAD-För-
derung die TH Skopje/Mazedonien
und die TU Craiova/Rumänien mit
eigenen Entwicklungen beteiligt.
Zwischen den Partnern gibt es
einen regen Austausch von Ideen,
Abstimmungen und Ergebnissen.
Das Projekt wird vom Zentrum für
Forschung und Entwicklung der
FH-Darmstadt gefördert.
Prof. Dr. Karl Erich Wolff
Fachbereich Mathematik
und Naturwissenschaften
Repräsentation von
Lebenslinien in begrifflichen
Zustandsräumen
Der Zweck des Projekts „Repräsen-
tation von Lebenslinien in begriff-
lichen Zustandsräumen“ ist die
Entwicklung einer allgemeinen
mathematischen Theorie von Bewe-
gungen von Objekten in beliebigen
diskreten oder kontinuierlichen
Räumen sowie deren Anwendung
in der Praxis. Das Projekt beruht
auf einer inzwischen zwanzig-
jährigen Kooperation des Fach-
bereichs Mathematik und Natur-
wissen schaften mit der am
Fachbereich Mathematik der
Technischen Universität Darm-
stadt angesiedelten Forschungs-
gruppe Begriffs analyse, sowie
dem Ernst-Schröder-Zentrum für
Begriffliche Wissensver arbeitung
und dem Forschungszentrum
Begriffliche Wissensverarbeitung
der TUD.
Eine begriffliche Objekt-
Raum-Zeit-Theorie
Die Repräsentation von Bewegun-
gen von Objekten in Raum und
Zeit stehen im Zentrum wissen-
schaftlicher Auseinandersetzungen,
die sich von den sehr sorgfältigen
Untersuchungen von Aristoteles
über die Entwicklung der Geo-
metrie von Euklid bis zu modernen
Raum-Zeit-Theorien von Einstein
und dessen Nachfolgern erstre-
cken. Die Einführung der Computer
wurde theoretisch begleitet von der
Automatentheorie, in der „Zustän-
de“ und „Transitionen“ ohne eine
theoretische Kopplung zu den
Raum-Zeit-Vorstellungen der Physi-
ker auf einer abstrakteren Basis
eingeführt wurden. Die Transitionen
in endlichen Zustandsräumen der
Automatentheorie stehen im engen
Zusammenhang mit anderen dis-
kreten Beschreibungen von „Bewe-
gungen“ allgemeiner Objekte, wie
etwa Personen, Institutionen, Infekti-
onen, in den durch diskrete Daten
repräsentierten Zustandsräumen.
Im Rahmen der vom Autor ent-
wickelten Begrifflichen System-
theorie ist es gelungen, sowohl
den Zustandsbegriff als auch den
Begriff der Transition so allgemein
mathematisch zu beschreiben, dass
die oben erwähnten klassischen
Fälle überdeckt werden. Daher hat
man jetzt eine begriffliche Theorie
von Bewegungen, die sowohl die
kontinuierlichen Bewegungen der
Physik als auch die diskreten Bewe-
gungen von Objekten in endlichen
Zustandsräumen in einer einheit-
lichen datenbasierten Theorie dar-
zustellen gestattet.
Das liefert eine Zusammen-
führung der „präzisen“, auf den
reellen Zahlen aufgebauten, physika-
lischen Bewegungstheorien mit
den „ungenauen“ Messungen des
Experimentalphysikers, da in der
Begrifflichen Objekt-Raum-Zeit-
Theorie eine theoretische Behand-
lung der Ungenauigkeiten und
Unbestimmtheiten, kurz gesagt der
„Granularitäten“, durch die begriff-
lichen Skalen ermöglicht wird.
Theoretische und praktische
Konsequenzen
Die Auswirkungen dieser „Begriff-
lichen granulären Objekt-Raum-
Zeit-Theorie“ sind sowohl für die
Theorie als auch für die praktischen
Anwendungen von großer Bedeu-
tung.
Auf der theoretischen Seite steht
nun ein mathematisches Werkzeug
zur Verfügung, in dem die von
Einstein in seiner berühmten Arbeit
zur speziellen Relativitätstheorie
in einer Fußnote bemerkte Proble-
matik der Granularität theoretisch
behandelt werden kann. Insbeson-
dere können die von Einstein nicht
theoretisch behandelten Objekte
und deren Teilobjekte nun in einem
theoretischen Rahmen untersucht
werden. Das liefert insbesondere
ein vertieftes Verständnis von „Teil-
chen“ und eröffnet damit eine theo-
retische Untersuchungsmöglichkeit
von Wellen und Teilchen.
Auf der praktischen Seite liefert
die „Begriffliche Granuläre Raum-
Zeit-Theorie“ die Möglichkeit der
graphischen Wissensrepräsentation
81Querschnitt Juli 2004
beliebiger temporaler Daten in
der vom Anwender gewünschten
Granularität. Insbesondere lassen
sich durch die im Rahmen des For-
schungsprojekts „Repräsentation
von Lebenslinien in begrifflichen
Zustandsräumen“ entwickelten
Computerprogramme die Lebens-
linien von Objekten in geeigneten
Begriffsverbänden visualisieren,
so dass dynamische Prozesse
nicht nur in technischen Bereichen,
wie in Destillationskolonnen und
Kohlekraftwerken, sondern zum
Beispiel auch in Zustandsräumen
von Familien in psychoanalytischen
Untersuchungen dargestellt werden
konnten.
Internationale Tagungen, Ver-
öffentlichungen und Vorträge
Die Ergebnisse des Forschungs-
projekts „Repräsentation von
Lebenslinien in begrifflichen
Zustandsräumen“ wurden vom
Autor auf internationalen Tagungen
durch Vorträge und Veröffentli-
chungen vorgestellt. Auf der First
International Conference on Formal
Concept Analysis, die im Frühjahr
2003 an der Technischen Universi-
tät Darmstadt durchgeführt wurde,
hielt der Autor einen Vortrag über
„A Conceptual Granularity Theory
for Objects in Space and Time“,
der angenommen ist zur Veröffent-
lichung in den Springer Lecture
Notes in Artificial Intelligence. In
einem weiteren Vortrag über „Con-
ceptual Relational Time Systems“
wurde vom Autor zusammen mit
dem FH-Studenten W. Yameogo
eine gemeinsame Forschungsarbeit
dargestellt, die aus der Vorlesung
„Temporal Logic“ für den Master-
studiengang im Fachbereichs Infor-
matik der FHD erwachsen war.
Im Rahmen der Kooperation mit
dem Forschungszentrum Begriff-
liche Wissensverarbeitung (fz°bw)
hielt der Autor im Mai 2003 im
fz°bw-Seminar einen Vortrag über
die Frage „Ist Zeit eindimensional?“
und im Juli in der Philosophischen
Teerunde der TUD einen Vortrag
über „Bewegung von Objekten in
Raum und Zeit - Eine begriffliche
Fundierung“. Auf der International
Conference on Conceptual Structu-
res im Juli 2003 in Dresden folgte
ein Vortrag über „Time Dimension,
Objects, and Life Tracks – A Con-
ceptual Analysis“. Im August hielt
der Autor auf der International Con-
ference on Computing Anticipatory
Systems (CASYS‘03) in Liège (Bel-
gien) einen Vortrag über „Particles
and Waves in Conceptual Time
Systems“. Im September 2003
berichtete der Autor als einge -
ladener Vortragender auf der
Fourth International Conference
Journées de l‘Informatique Messine,
JIM‘2003, in Metz über seine For-
schungsarbeiten zur begrifflichen
Interpretation der Theorien der
Fuzzy Sets und der Rough Sets
und deren Einbettung in eine
begriffliche Granularitätstheorie.
Im Oktober folgte im fz°bw-
Seminar ein Vortrag über „Teilchen
und Wellen in begrifflichen Zeit-
systemen“ und im November auf
der 9. Tagung zur Allgemeinen
Mathematik an der TU Darmstadt
ein Vortrag über „Zeitliche Prozes-
se begriffsanalytisch präsentieren
und reflektieren“.
Zukünftige Forschungs-
aktivitäten
Das Forschungsprojekt „Repräsen-
tation von Lebenslinien in begriff-
lichen Zustandsräumen“ wird noch
bis Ende des Jahres 2004 fortge-
führt. Auf der zweiten internationa-
len Tagung zur Formalen Begriffs-
analyse in Sydney im Februar
2004 hat der Autor über seine For-
schungsergebnisse vorgetragen.
Im Juli 2004 wird er auf der von
ihm mit organisierten International
Conference on Conceptual Structu-
res in Huntsville (Alabama, USA)
über seine Begriffliche granuläre
Raum-Zeit-Theorie vortragen.
Dabei werden insbesondere die
Darstellung von Teilchen und
Wellen im Vordergrund stehen.
Prof. Dr. Andreas Pfeifer
Fachbereich Mathematik
und Naturwissenschaften
Bewertung von Zinsderivaten
Eine Vielzahl von neueren Finanz-
produkten ermöglicht es Unterneh-
men, aber auch Kommunen, ihre
Zinspositionen zielgenau zu steu-
ern. Mit Instrumenten des Zins-
managements lässt sich ein aktuell
niedriges Zinsniveau für einen in
der Zukunft liegenden Kredit- oder
Prolongationsbedarf bereits heute
sichern. Eine Zinstauschvereinba-
rung (Zinsswap) erlaubt es, eine
feste in eine variable Zinsverbind-
lichkeit zu tauschen. Damit kann
beispielsweise ein bestehender
Kredit mit festen Zinsen (Festsatz-
kredit) auf eine günstigere variable
Finanzierung umgestellt werden.
Dazu ein Beispiel: Ein Unternehmen
hatte einen Festsatzkredit aufge-
nommen, dessen Zinsbindung noch
5 Jahre lang mit 6,5 % festgelegt ist,
vgl. Abbildung 1.
Das Unternehmen rechnet weiter
mit niedrigen Zinssätzen und möch-
te daher das attraktive Zinsniveau
im Kurzfristbereich für sechsmona-
tige Zinsbindung nutzen, ohne
durch vorzeitige Rückzahlung des
Festsatzkredites eine Vorfällig-
keitsentschädigung zahlen zu müs-
sen. Durch einen Swap kann das
Unternehmen – ohne Umschuldung
des Festsatzkredites – die Zins-
belastung reduzieren. Dabei zahlt
82
das Unternehmen einen variablen
Zinssatz und erhält von der Bank
einen festen Zinssatz. Ausgenutzt
wird dabei, dass zwischen dem
aktuellen kurzfristigen (variablen)
Zinssatz von 2,198 % (6-Monats-
EURIBOR) und dem langfristigen
Zinsen von 3,65 % (5-jähriger Swap-
satz, vgl. Abbildung 2) eine Zins-
differenz von knapp 1,5 % besteht.
Insgesamt (Kredit und Swap
zusammen) hat das Unternehmen
nun 6,5 % + 2,198 % - 3,65 % =
5,048 % zu zahlen, also 1,452 %
weniger, vgl. Abbildung 3. Schon
bei einer Kreditsumme von einer
Millionen Euro sind dies rund
14.500 2 Ersparnis pro Jahr.
Allerdings hat das Unternehmen
nun eine Verzinsung nach dem
EURIBOR zu zahlen, einem Durch-
schnittszinssatz von Zinssätzen
unter Banken für Ausleihungen
von 6 Monaten. Alle 6 Monate wird
geschaut, wie hoch der aktuelle
EURIBOR ist. Dieser festgestellte
Zinssatz gilt dann für die nächsten
6 Monate. Somit kann sich der Zins-
satz auf der variablen Seite des
Swaps alle 6 Monate ändern. Bleibt
er unter 3,65 %, hat das Unterneh-
men einen Vorteil.
Mit dem zusätzlichen Abschluss
eines Caps (Maximalzinsvereinba-
rung) kann sich das Unternehmen
gegen ein Überschreiten einer
bestimmten Zinshöhe absichern.
Diese Zinsversicherung wird in
der Regel durch eine einmalige
Vorabprämie erworben.
Neben Swaps und Caps gibt es
noch weitere Finanzderivate, die es
Unternehmen ermöglichen, seine
Zinspositionen ohne Einfluss auf
Liquiditäts- und Bilanzstrukturen
zielgerichtet zu steuern. Dazu
gehören Floors, Collars und For-
ward Rate Agreements sowie Opti-
onen und Zinsfutures. Der Vorteil
solcher neueren Finanzprodukte
liegt auch darin, dass ein Unterneh-
men viel flexibler ist und jederzeit
auf veränderte Zins- und Liquidi-
tätssituationen angemessen reagie-
ren kann. Wenn es die Unterneh-
mensgegebenheiten erfordern,
ist es möglich, solche Finanzder-
ivate – insbesondere Swaps – ein-
fach, schnell und kostengünstig
aufzulösen.
Um die oben genannten Finanz-
produkte beurteilen, also bewerten
und miteinander vergleichen zu
können, müssen umfangreiche
Rechnungen durchgeführt werden.
Die Berechnungen benötigen nicht
nur die Beschreibung der Finanz-
produkte selbst, sondern auch
aktuelle und historische Zinsdaten.
Im Projekt wurde ein Software-Pro-
gramm entwickelt, mit dem diese
Zinsprodukte bewertet werden
können. Neben einzelnen Zins-
produkten kann auch ein Portfolio
beurteilt werden.
Neben Barwertberechnungen
werden Risikokennzahlen wie bei-
spielsweise der Value-at-Risk auf
verschiedenen Wegen ermittelt.
Der Value-at-Risk (VaR) ist der
Wertverlust, den ein Finanzprodukt
in einer bestimmten Zeit (genannt
Haltedauer) mit einer bestimmten
Wahrscheinlichkeit (Konfidenzzahl)
unter normalen Marktbedingungen
nicht überschreitet. Allgemein
wird dazu die Varianz-Kovarianz-
Methode verwendet. Historische
Simulation und Monte-Carlo-Simu-
lationen können an Spezialfällen
auch durchgeführt werden.
Der Einsatz dieses Programms
zur Unterstützung der Lehre bietet
folgende Vorteile:
Abbildung 1: Ausgangssituation
Bank A
Unternehmen
Kreditzinsen
6,5 % (fest)
Abbildung 3: Zusätzlicher Abschluss eines Swaps, Daten Nov. 2003
Bank A
Kreditzinsen
6,5 % (fest)
Swap
Unternehmen
Bank B
EURIBOR
2,198 % (variabel)3,65 % (fest)
Laufzeit 30/360 p.a.
Jahre Geld Brief
1 2,39 % 2,43 %
2 2,80 % 2,84 %
3 3,17 % 3,21 %
4 3,47 % 3,51 %
5 3,70 % 3,74 %
6 3,90 % 3,94 %
7 4,06 % 4,10 %
8 4,20 % 4,24 %
9 4,31 % 4,35 %
10 4,40 % 4,44 %
Abbildung 2: Konditionen bei Swaps
(Festsatzseite, Nov. 2003). Die Bank
verlangt bzw. erhält im Beispiel vom
Unternehmen eine zusätzliche Marge
von 5 Basispunkten, d.h. bei einer
Laufzeit von fünf Jahren erhält das
Unternehmen einen Festsatz von
3,70 % – 0,05 % = 3,65 %.
83Querschnitt Juli 2004
Beispiele können mit realen
auf dem Finanzmarkt vorhande-
nen Produkten und mit realen
Zinsdaten gerechnet werden.
Das Programm ermöglicht eine
praxisorientierte Ausbildung
der Studierenden.
Das Programm ist keine Black-
box, vgl. Abbildung 5. Es wird
bei jedem Schritt, bei jeder
Berechnung deutlich, welche
Methoden und Verfahren ange-
wandt werden. Dadurch wird
auch klar, welche Beschrän-
kungen oder Mängel die in der
Praxis eingesetzten Verfahren
besitzen.
Zahlenwerte – wie beispiels-
weise Korrelationen – werden für
Berechnungsformeln nicht ein-
fach als gegeben vorausgesetzt,
sondern können innerhalb des
Programms ermittelt werden.
Es wird deutlich, dass manche
derivativen Finanzprodukte in
Relation zum Barwert ein sehr
hohes Risiko aufweisen.
Es können leicht Simulationen
durchgeführt werden. Erhöhen Abbildung 5: Programmaufbau
Produktdaten
Swap
Cashflow-Tabelle
Cashflow-Mapping
Bewertung
z.B. Barwert, Value-at-Risk
Allgemeine Finanzdaten
z.B. Zinssätze, Swapsätze
Ermittlung
der Dis-
kontierungs-
faktoren
Spot-Rate-,
Volatilitäts- und
Korrelations-
berechnungen
Produktdaten
Cap
…
Abbildung 4: Barwertberechnung eines Swaps (Sicht der Bank B)
sich die Zinssätze beispiels weise
um 0,5 % wird deutlich, dass
beim Swap das Barwertrisiko
zum größten Teil aus der
variablen Seite resultiert.
Literatur
Deutsch, H.P.: Derivate und Interne
Modelle; Stuttgart: Schäffer-
Poeschel, 2. Aufl. 2001
Gaiser, M.: Cashflow-Mapping bei
Finanzswaps; Diplomarbeit;
FH Darmstadt, 2003/04
Mina, J.; Xian, J.Y.: Return to
RiskMetrics: The Evolution of a
Standard; New York: RiskMetrics
(www.riskmetrics.com), 2001
Pfeifer, A.: Praktische Finanzmathe-
matik; Frankfurt Harri Deutsch,
2. Aufl. 2000
84
Prof. Dr. Martin Meyer-
Renschhausen
Fachbereich Wirtschaft/
Energiewirtschaft
Energiemanagement im
Hochschulsektor
Hintergrund
Universitäten und Fachhochschulen
benötigen Energie für vielfältige
Zwecke: für Raumwärme, Warm-
wasser, Beleuchtung, für Lüftung
und Klimatisierung sowie für Kraft
und Prozesswärme zur Durch-
führung von Experimenten. Eine
sichere Energieversorgung besitzt
für die Hochschulen einen hohen
Stellenwert. Angesicht begrenzter
Haushaltsmittel (Globalhaushalt
und leistungsabhängige Mittel-
zuweisungen) sehen sich die Hoch-
schulen vor die Notwendigkeit
gestellt, sich kostenorientiert zu
verhalten und den Einsatz der Pro-
duktionsfaktoren zu optimieren.
Dies schließt eine effiziente Ener-
gieverwendung ein. Weitere Motive
zu einer sparsameren Energiever-
wendung ergeben sich aus dem
Postulat, einer nachhaltigen, lang-
fristig umweltverträglichen Ener-
gieversorgung auch im „Unter-
nehmen Hochschule“ Geltung
zu verschaffen. Als Ausbildungs-
und Forschungsstätten sollten die
Hochschulen bei der Verminde-
rung von Umweltbelastungen
und Emissionen eine Vorreiterrolle
einnehmen.
Im Hochschulsektor existieren
beträchtliche wirtschaftlich aus-
schöpfbare Energieeinsparpoten-
ziale. Diese lassen sich durch Inves-
titionen in Wärmedämmung und
energieeffiziente Anlagen, durch
moderne Steuerungs- und Rege-
lungstechnik sowie durch organisa-
torische Maßnahmen ausschöpfen.
Die Tatsache, dass häufig beachtli-
che Energiemengen kostengünstig
durch organisatorische Maßnah-
men erschlossen werden können,
rückt die Frage nach den Voraus-
setzungen und Erfolgsbedingungen
der rationellen Energiebewirt-
schaftung in den Vordergrund.
Ein wichtiges organisatorisches
Mittel in diesem Zusammenhang
ist die Einführung eines Energie-
managements, worunter allgemein
Planung, Steuerung, Organisation
und Kontrolle des betrieblichen
Energieeinsatzes mit dem Ziel
der effizienten Energienutzung
verstanden wird. Während energie-
intensive Groß unternehmen bereits
häufig ein wirksames Energiema-
nagement aufgebaut haben, steht
diese Auf gabe den Hochschulen
noch bevor.
Fragestellungen der
Untersuchung
Ziel der vorliegenden Untersu-
chung ist die Beantwortung der
folgenden Fragen:
Welche Anforderungen sind
an ein modernes Energie-
management zu stellen?
Welche Auswirkungen besitzen
die rechtlichen Rahmenbedin-
gungen hinsichtlich des Auf-
baus eines modernen Energie-
managements?
Inwieweit bewirkt die Neuausrich-
tung der Hochschul finanzierung
auch eine Neuausrichtung des
Energie managements?
Welchen Stellenwert besitzt eine
nachhaltige Energieversorgung
im Rahmen des Zielsystems von
Universitäten und Fachhoch-
schulen?
Tabelle 1: Energiekosten der Hochschulen in Hessen 2002 – absolut und flächenbezogen Hochschule
Hochschule
beheizte
Fläche m² Strom (2) Wärme (2)
Wasser und
Abwasser (2) Gesamt (2)
Spezifisch
2/m²
FH Darmstadt 1, 2 80500 345400 389500 56000 790900 9,82
FH Frankfurt 65000 265000 338000 72200 675200 10,39
FH Fulda 36400 104600 121100 26400 252100 6,93
FH Gießen 40630 167000 231400 28100 426500 10,50
FH Wiesbaden 50100 237000 185000 37000 459000 9,16
Durchschnitt 54526 223800 253000 43940 520740 9,55
TU Darmstadt 332200 4522000 4797000 1718000 11037000 33,22
Uni Frankfurt 400000 2988000 3550000 513000 7051000 17,63
Uni Gießen 516000 3858400 5508600 557000 9924000 19,23
Uni Kassel 303000 1615700 1669300 162400 3447400 11,38
Uni Marburg 2 280000 2400000 3200000 830000 6430000 22,96
Durchschnitt 366240 3076820 3744980 756080 7577880 20,69
1 Ohne Standort Dieburg 2 geschätzt nach Bruttogeschossfläche (Quelle: Eigene Erhebung)
85Querschnitt Juli 2004
Wie ist das Energiemanage -
ment der Hochschulen derzeit
organisiert (Stab- oder Linien-
funktion)?
Wie ist die Leistungsfähigkeit
des Energiemanagement zu
beurteilen?
Welche Unterschiede bestehen
dabei zwischen Universitäten
und Fachhochschulen?
Welche Rolle spielt das externe
Energieberatungsangebot der
Oberfinanzdirektion (OFD)?
Welche Bedeutung spielt das
Outsourcing von Energiedienst-
leistungen?
Methodisches Vorgehen
Um die genannten Fragen zu beant-
worten, wurden die Hochschulen –
Universitäten und Fachhochschulen
– des Bundeslandes Hessen schrift-
lich und mündlich zum Stand des
Energiemanagements sowie zu
den Hemmnissen der rationellen
Energieverwendung befragt.
Gesprächspartner waren die
Energieverantwortlichen der Hoch-
schulen, die Leiter der betreffenden
Dezernate bzw. die Energiebeauf-
tragten. Die Beschränkung der
Befragung auf die Hochschulen
eines Bundeslandes weist den
Vorteil auf, dass die Auswirkungen
unterschiedlicher gesetzlicher Rah-
menbedingungen isoliert werden
können und so die Unterschiedlich-
keit der Gestaltungsansätze unter
den Hochschulen sowie die Unter-
schiede zwischen den verschiede-
nen Hochschultypen (Universitäten
und Fachhochschulen) deutlicher
zum Vorschein kommen. Zusätzlich
wurden Gespräche mit der Ener-
gieberatungsstelle der Oberfinanz-
direktion geführt.
Ergebnisse der Untersuchung
Die Ergebnisse der Untersuchung
können wie folgt zusammengefasst
werden.
1. Universitäten weisen im Ver-
gleich zu den Fachhochschulen
deutlich höhere absolute und
spezifische Energiekosten auf.
Die Struktur des Energiever-
brauchs (Anteil der Wärme-
und Stromkosten) ist dagegen
relativ gleich (siehe Tabelle 1).
2. Im Zielsystem der hessischen
Hochschulen spielen Umwelt-
und Klimaschutz keine nennens-
werte Rolle. Keine Hochschule
besitzt ein ausformuliertes
energie- oder umweltpolitisches
Leitbild oder Programm, an
dem sich die Leistungen der
Verwaltung messen ließen. Trotz
positiver Ansätze an einzelnen
Hochschulen nehmen sie ins-
gesamt keine umweltpolitische
Vorbildfunktion ein.
3. Die Organisation des Energie-
managements ist unterschied-
lich: In der überwiegenden
Mehrheit der Fälle wird das
Energiemanagement durch
die technischen Dezernate und
Abteilungen durchgeführt, d.h.
das Energiemanagement wird
als Linienfunktion betrachtet.
Nur in einem Fall existiert ein
Energiebeauftragter, der die
spezielle Aufgabe hat, bei allen
energierelevanten Entscheidun-
gen dem Ziel der rationellen
Energieverwendung Geltung zu
verschaffen (Energiemanage-
ment als Stabsfunktion).
4. Die Performance des Energie-
managements ist überwiegend
als „durchschnittlich“ einzustu-
fen. Basis der Einstufung ist
Tabelle 2: Spezifischer Heizenergieverbrauch (klimabereinigter und standortnormiert) der staatlichen Fachhochschulen
in Hessen 1990–2002
180
170
160
150
140
130
120
110
100
90
80
70
60
50
40
30
20
10
0
Jahr
KWh/m2 Gt EUR/MWhHeizenergie-Kennwerte Fachhochschulen
normierter Kennwert
mittlerer Energiepreis
1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002
148
125
135 136 134139
124 127 130134 131
123119
24,55 26,3723,36
25,53 25,87
30,50 30,48 32,8630,41 28,78
34,80
41,8238,76
(Quelle: EBS, Sonderauswertung 2003)
86
neben objektiven Faktoren wie
die Existenz von Energiebeauf-
tragten die Selbsteinschätzung
der Energieverantwortlichen.
Ansätze zu einer verbesserten
Leistungsfähigkeit des Energie-
managements (z.B. Aufbau von
Energieinformationssystemen)
finden sich vor allem bei den
Universitäten. Die Energie-
verbrauchsentwicklung der
Fachhochschulen wird von
der Oberfinanzdirektion aus-
ge wertet (s. u.).
5. Eine energie- und umwelt-
bezogene Zusammenarbeit
zwischen Verwaltung und Fach-
bereichen existiert faktisch nicht.
Obgleich in vielen Fachberei-
chen der Hochschulen energie-
und umweltbezogener Sachver-
stand vorhanden ist, wird dieser
von den Verwaltungen in der
Regel nicht in Anspruch genom-
men.
6. Die Neuausrichtung der Hoch-
schulfinanzierung hinterlässt
ihre Spuren auch im Bereich des
Energiemanagements. Vor allem
die Universitäten unternehmen
Schritte, das Energiecontrolling
zu verbessern, um Verbrauchs-
steigerungen kurzfristig zu
erkennen und begegnen zu
können. Zudem werden Vor-
bereitungen in Richtung auf eine
verursachergerechte Anlastung
von Raummieten und Energie-
kosten getroffen.
7. Das hochschulinterne Ener-
giemanagement der Dezernate
und Abteilungen wird ergänzt
durch die Energiecontrolling-
und Energieberatungsleistungen
der Oberfinanzdirektion (Ener-
gieberatungsstelle, EBS). Sei-
tens der Hochschulen wird die
Unterstützung der EBS vor allem
auf dem Gebiet der vertragsbe-
zogenen Kosteneinsparungen
Bedeutung beigemessen (Aus-
schreibung von Energiebezugs-
verträgen). Zurückhaltender
ist die Einschätzung hinsichtlich
der fachlichen Beratung und
der Betriebsüberwachung
(Energiecontrolling).
8. Outsourcing von Energie-
anlagen (Anlagencontracting)
gewinnt an Bedeutung und wird
seitens des Landes unterstützt.
Die gängige Finanzierung von
Energieanlagen aus dem Lan-
deshaushalt macht das Anlagen-
contracting aus Sicht der Hoch-
schulen nur in Ausnahmefällen
interessant. Einsparcontracting
wird bislang nur von einer Uni-
versität praktiziert.
Prof. Dr. Monika Bösel
Fachbereich Sozialpädagogik
Forschungsprojekt: Soziale
Netzwerke von Migrantinnen
„Also ich bin nach Deutschland als,
als Au-Pair Mädchen gekommen,
als Kinderbetreuerin und dann
nachher hab ich mir überlegt, ob
ich studieren will oder nicht und
jetzt will ich studieren.“
In der Migrationsforschung
wurde Migration, definiert als die
„dauerhafte Verlagerung des
Lebensmittelpunkts“ in ein anders
Land, lange Zeit ausschließlich als
männliches Projekt wahrgenom-
men. Mädchen und Frauen wan-
dern höchstens mit oder nach, war
die gängige Meinung, die Frauen
nur die Rolle der mitreisenden Ehe-
frau zubilligte, die mit ihren Kindern
dem männlichen Wegbereiter folgt.
Die wissenschaftliche Debatte war
von der Vorstellung geprägt, dass
Migrantinnen von ihren Männern
unterdrückt werden, nur für Kinder
und Hausarbeit zuständig sind,
Analphabetinnen, überhaupt unge-
bildet und „defizitär“ seien. Diese
Betrachtungsweise der Moderni-
täts-Differenz-Hypothese ist von der
Frauen- und Genderforschung in
den 80er und 90er Jahren grund-
legend korrigiert worden. Frauen
werden, ebenso wie Männer, als
eigenständige Akteurinnen des
Migrationsprozesses thematisiert.
Lebensalltag, subjektive Deutungs-
muster und Bewältigungsstrategien
der zugewanderten Frauen rücken
auch unter der Frage nach emanzi-
pativen Entwürfen von „Weiblich-
keit“ in den Mittelpunkt der empiri-
schen Untersuchungen.
Das Projekt „Soziale Netzwerke
von Migrantinnen“ ist theoretisch
in diesem Kontext zu verorten.
Ausgehend von dem Gedanken,
dass Lebens- und Problemlagen
geschlechtsspezifisch differieren,
sollten die besonderen Lebens-
wege von Frauen in der Migration
erforscht werden. Die grundlegen-
de Fragestellung unseres Projekts
focussiert soziale Netzwerke von
Migrantinnen, die als Teil ihrer all-
täglichen Lebenswelt verstanden
werden. Wir fragen danach, welche
Bedeutung soziale, im engeren Sinn
„natürliche“ Netzwerke, Familie,
Verwandtschaft und ethnische
Gruppe für die Lebenswege und
Lebensentwürfe von Migrantinnen
haben und welche Rolle sie für die
berufliche und soziale Integration
spielen könnten. Während in der
sozialpolitischen Diskussion ebenso
wie in Teilen der Netzwerkfor-
schung die unterstützende Funktion
und problemlösende Wirkung einer
sozialen Vernetzung in Alltagsbe-
zügen betont wird, wollten wir den
Gedanken der Ambivalenz sozialer
Netzwerke in den Mittelpunkt stel-
len. Die soziale Vernetzung in Fami-
lie, Verwandtschaft und ethnischer
Gruppe stellt ihren Mitgliedern
nicht nur Ressourcen zur Verfü-
87Querschnitt Juli 2004
gung, die zur Lebens- und Konflikt-
bewältigung ausgeschöpft werden
können, sondern impliziert im
umgekehrten Sinn normative Ver-
pflichtungen, die selbst wiederum
konfliktträchtig sind. Wir fragen, ob
nicht gerade auch die gesellschaft-
liche Stellung der Frauen in den
ethnischen Gruppen, ihre soziale
Einbindung in Familie und Ver-
wandtschaft eine restriktive Aus-
wirkung auf subjektive weibliche
Lebensentwürfe haben könnte.
Das Projekt wurde gemeinsam
mit Studierenden des Fachbereichs
Sozialpädagogik durchgeführt
(Sommersemester 2002 bis 2003)
und vom Hessischen Ministerium
für Wissenschaft und Kunst im
Rahmen des dort etablierten For-
schungssschwerpunkts „Gender
und Soziale Arbeit“ gefördert. Das
Projekt hat den Charakter eines
Lehrforschungsprojekts, d.h. es
wurde in das Curriculum des
Studiengangs Soziale Arbeit am
Fachbereich Sozialpädagogik inte-
griert. Die Studierenden haben in
Einrichtungen der Migrationssozial-
und -bildungsarbeit ein sozialpäda-
gogisches Praktikum absolviert,
in dem sie praktische Erfahrungen
gewinnen sollten und in dem sie
gleichzeitig als Forscherinnen
agierten. Kooperationspartner „vor
Ort“ waren der Caritasverband
Darmstadt und Frankfurt/Team
Stadtmitte, das Deutsche Rote Kreuz
Darmstadt sowie der Internationale
Bund, der Verein für berufliche
Bildung von Frauen (BAF) und das
Zentrum für berufliche Weiterbil-
dung in Darmstadt. Die Studieren-
den wurden in diesen Einrichtun-
gen von Sozialarbeiterinnen und
Sozialpädagoginnen angeleitet
und in dem begleitenden Projekt-
seminar am Fachbereich für die
Forschungstätigkeit qualifiziert.
Die praktische Sozialarbeit der
Studierenden bot den empirischen
Zugang zum Feld. Die Studierenden
nehmen in ihrer Rolle als Praktikan-
tinnen an den alltäglichen Interakti-
onen des Feldes teil und versuchen,
so unseren Ansatz einer „aktivie-
renden Sozialforschung“, eine
soziale, auf Vertrauen basierende
Beziehung zu ihren späteren Inter-
viewpartnerinnen aufzubauen. Wir
hofften mit unserem Vorhaben
Verständnis und Wissen über die
Lebenssituation der Adressatinnen
zu gewinnen, auf deren Grund-
lagen auch Perspektiven für die
soziale Arbeit mit Migrantinnen
entwickelt werden könnten.
Welches Datenmaterial haben
wir erhoben? Die Studierenden
haben im Pretest 7 qualitative,
leitfadengestützte Interviews mit
ausländischen Studierenden am
Fachbereich Sozialpädagogik und
in der Hauptuntersuchung 17 Inter-
views mit Migrantinnen in den Mig-
rationsdiensten und Bildungsein-
richtungen – auf Deutsch – geführt.
Das Interviewmaterial wird mit
Methoden der hermeneutischen
Interpretation ausgewertet. Erste
Ergebnisse wurden auf der Tagung
„Soziale Netzwerke von Migranti-
nen“ im Dezember 2002 öffentlich
vorgestellt. An dieser Tagung
haben Vertreterinnen der koope-
rierenden Einrichtungen und
Studierende des Fachbereichs
teilgenommen. Die Tagung bot
den Rahmen, Erfahrungen mit dem
Untersuchungsdesign der „sozial-
pädagogischen Feldforschung“
auszutauschen und die Probleme
eines Transfers wissenschaftlicher
Erkenntnisse in die Praxis sozialer
Arbeit zu reflektieren. Weitere
Ergebnisse wurden im Januar 2004
auf dem Evaluationsworkshop des
HMWK zum Forschungsschwer-
punkts „Gender und Soziale
Arbeit“ präsentiert. Auch vor der
endgültigen Auswertung der Unter-
suchungsergebnisse können schon
jetzt einige allgemeine Eindrücke
in bezug auf die Gruppe der inter-
viewten Studierenden festgehalten
werden:
Ausländische Studierende sind
am Fachbereich Sozialpäda-
gogik im Vergleich zu anderen
Fachbereichen der Fachhoch-
schule Darmstadt unterreprä-
sentiert. Von den 35 ausländi-
schen Studierenden im Jahr 2002
waren 5 Studierende männlich,
was dem Geschlechterverhältnis
der deutschen Studierenden
am Fachbereich entspricht.
Die Migrationsgründe der
ausländischen Studierenden
(ausschließlich wurden Frau-
en befragt) spiegelt die Breite
der Migrationsbewegungen
und Migrationsprojekte wider:
Bildungs-, Heiratsmigration,
„zweite Generation“ der aus-
ländischen Bevölkerung, „mit-
reisende Ehefrau“.
Die ausländischen Studierenden
sind strukturell integriert. Sie
haben einen Studienplatz, in
der Regel auch einen „Job“,
sie wohnen gemeinsam mit
ihren Partnern, Familien oder
in studentischen Wohngemein-
schaften.
Am Fachbereich „fühlen sie
sich wohl“ und anerkannt. Die
Beziehungen zu den deutschen
Kommilitonen bleiben aber eher
oberflächlich. Die Freunde und
Freundinnen rekrutieren sich aus
der eigenen nationalen Gruppe
und Sprachgemeinschaft.
Ihre Freizeit verbringen die
ausländischen Studierenden
überwiegend in der ethnischen
Parallelgesellschaft, in der sie
manchmal auch ihre zukünf-
tigen Ehepartner finden oder
gefunden haben. Die Familie,
88
die Verwandtschaft und im wei-
teren Sinn die ethnische Grup-
pe bleiben der – wenn auch
nicht immer unproblematische
– private Lebensmittelpunkt:
„Also zur Familie auf jeden Fall.
Ich telefoniere jeden Tag nach
Hause, also ohne Telefon, ohne
tägliche Telefonat kann ich nich
ins Bett geh‘n, weil ich irgendwie
immer noch Heimweh habe.“
Prof. Dr. Bernd Seidenstücker,
Britta Tammen
Fachbereich Sozialpädagogik
Forschungsprojekt „Fortent-
wicklung der Jugendhilfepraxis
zum Kindschaftsrecht“
Seit September 2003 bis zum
Ende des Jahres 2005 findet in
Kooperation zwischen der Fach-
hochschule Darmstadt und der
Technischen Universität Berlin das
Forschungsprojekt „Fortentwick-
lung der Jugendhilfepraxis zur
Kindschaftsrechtsreform“ statt.
Das Projekt wird durch das Bundes-
ministerium für Familie, Senioren,
Frauen und Jugend, durch die Bun-
desländer Bayern, Baden-Württem-
berg, Brandenburg, Niedersachsen,
Nordrhein-Westfalen, Rheinland-
Pfalz, Sachsen-Anhalt und Schles-
wig-Holstein sowie aus mitteln der
Fachhochschule Darmstadt finan-
ziert. Die Leitung des Projekts liegt
bei Prof. Dr. paed. Bernd Seiden-
stücker (FH Darmstadt, Fachbe-
reich Sozialpädagogik) und Prof.
Dr. jur. Johannes Münder (TU-Berlin,
Institut für Sozialpädagogik).
Im Rahmen des Forschungs-
projekts werden die Auswirkungen
der 1998 erfolgten bedeutenden
Reform des Kindschaftsrechts auf
die Arbeit der Kinder- und Jugend-
hilfe untersucht. Im Zentrum der
Untersuchung stehen Fragen nach
der Umsetzung des mit der Kind-
schaftsrechtsreform in Kraft getrete-
nen Beistandschaftsgesetzes, den
Auswirkungen der Gesetzesände-
rungen im Bereich des Umgangs-
rechts, der Rolle des im Rahmen
der Kindschaftsrechtsreform ein-
geführten Verfahrenspflegers (sog.
„Anwalt des Kindes“) und nach
der Umsetzung der im Wege der
Kindschaftsrechtsreform deutlich
erweiterten Beratungsaufgaben
der Kinder- und Jugendhilfe.
In methodischer Hinsicht ist
die Untersuchung in zwei Schritten
angelegt: Nach einer Analyse
des aktuellen Forschungs- und
Diskussionsstandes erfolgte zu
Beginn des Jahres 2004 eine reprä-
sentative standardisierte schriftliche
Be fragung von Fachkräften aus
Jugendämtern. Befragt wurden
MitarbeiterInnen aus dem Allge-
meinen Sozialen Dienst und aus
dem Bereich der Beistandschaft
zu den für ihren jeweiligen Arbeits-
bereich relevanten Themen. Im
Anschluss an die schriftliche Befra-
gung werden auf der Grundlage
der Auswertung der gewonnenen
Daten mündliche Befragungen von
Angehörigen der verschiedenen
beteiligten Berufsgruppen im
Wege von leitfadengestützten Inter-
views durchgeführt. Anhand der
insgesamt gewonnenen Ergebnisse
sollen zum Abschluss der Unter-
suchung handlungs leitende Emp-
fehlungen für die Kinder- und
Jugendhilfe entwickelt werden.
Als erster Arbeitsschritt wurde
in den Monaten September und
Oktober 2003 auf der Grundlage
einer umfassenden Auswertung
der einschlägigen Fachliteratur
eine Studie zum aktuellen Stand der
fachlichen Diskussion zur Kind-
schaftsrechtsreform erstellt. Heran-
gezogen wurden hierzu insbeson-
dere einschlägige Fachzeitschriften,
Buchpublikationen sowie wissen-
schaftliche Forschungsarbeiten.
Zu den inhaltlichen Bereichen, in
denen quantitative Entwicklungen
von Bedeutung sind, erfolgte
zudem eine Auswertung und
Analyse der einschlägigen Veröf-
fentlichungen in der Kinder- und
Jugendhilfestatistik des statistischen
Bundesamtes. In der Studie werden
der Meinungsstand sowie die zen-
tralen Argumentationslinien im Hin-
blick auf die Kindschaftsrechtsre-
form dargestellt, wobei der Focus
insbesondere auf die thematischen
Schwerpunkte der Untersuchung
gerichtet ist. Bezüglich der Umset-
zung des Beistandschaftsgesetzes
liegt ein zentraler Aspekt bei der
Frage, welche Veränderungen
der Wechsel von der in den alten
Bundesländern zwingend vorgese-
henen Amtspflegschaft für nicht-
eheliche Kinder zum freiwilligen
Angebot der Beistandschaft mit sich
gebracht hat. Zudem werden quan-
titative und qualitative Entwicklun-
gen der Beistandschaft dargestellt.
Hinsichtlich der Gesetzesänderun-
gen im Bereich des Umgangsrechts
wird zunächst die durch die Kind-
schaftsrechtsreform bewirkte
grundlegende Verschiebung der
Perspektiven aufgegriffen, die darin
liegt, dass das Umgangsrecht jetzt
primär als Recht des Minderjähri-
gen definiert wird. Darüber hinaus
erfolgt eine Befassung mit der
Erweiterung des Kreises der
umgangsberechtigten Personen
sowie mit der gesetzlich erstmals
verankerten Möglichkeit eines sog.
„begleiteten“ Umgangs zum Schutz
des Kindes oder des Jugendlichen.
Thematisiert werden auch die im
Hinblick auf das gerichtliche Ver-
fahren zur Regelung des Umgangs
erfolgten Gesetzesänderungen,
deren Ziel darin liegt, einvernehm-
liche Vereinbarungen der Beteilig-
90
ten anstelle von gerichtlichen
Anordnungen zu fördern. Bezüglich
der Rolle des Verfahrenspflegers
als drittem Schwerpunkt der Unter-
suchung stehen im Mittelpunkt der
fachlichen Diskussion vor allem die
Gründe und Modalitäten der Ver-
fahrenspflegerbestellung durch das
Gericht sowie das Aufgabenver-
ständnis und die Arbeitsweise der
VerfahrenspflegerInnen. Im Zusam-
menhang mit der Umsetzung der
durch die Kindschaftsrechtsreform
deutlich erweiterten Beratungsauf-
gaben der Kinder- und Jugendhilfe
als viertem Untersuchungsschwer-
punkt liegen zentrale Fragen vor
allem bei der Wahrnehmung neuer
Beratungsaufgaben Minderjährigen
gegenüber sowie bei der Beratung
für nicht verheiratete Mütter über
die wichtigsten Aspekte ihrer spezi-
fischen Situation.
Als zweiter Arbeitschritt wurden
in den Monaten November 2003
bis Januar diesen Jahres die Frage-
bögen für eine repräsentative stan-
dardisierte schriftliche Befragung
von Fachkräften aus Jugendämtern
entwickelt und einem Pretest unter-
zogen, indem sie Fachkräften aus
Jugendämtern zur exemplarischen
Bearbeitung vorgelegt wurden. Es
liegt jeweils ein Fragebogen für die
Befragung von Fachkräften des All-
gemeinen Sozialdienstes sowie für
die Befragung von Fachkräften aus
dem Bereich der Beistandschaft vor.
Beide Bögen enthalten Fragen zur
Struktur und Organisation des
jeweiligen Jugendamts sowie zu
der Person der konkreten Fach-
kraft. Darüber hinaus werden,
bezogen auf die einzelnen Untersu-
chungsbereiche, Fragen zu den
einschlägigen Angeboten und Auf-
gabenverteilungen in den einzel-
nen Jugendamtsbezirken sowie
zu deren Einschätzung durch die
Fachkräfte gestellt. Sowohl die
Fragebogenerstellung als auch die
Datenanalyse wurden zunächst
durch Frau Prof. Overbeck-Larisch
und inzwischen durch Frau Prof.
Bach sowie durch Herrn Sanns des
Fachbereichs Mathematik und
Naturwissenschaften fachlich
begleitet und unterstützt.
Im Anschluss an die Entwicklung
der Fragebögen wurden die in
die Untersuchung einbezogenen
Jugendämter anhand einer Zufalls-
stichprobe aus geschichteten Grup-
pen ermittelt. Berücksichtigt wur-
den dabei die Verteilung der Ämter
auf Landkreise und Städte sowie
die Einwohnerzahlen der Jugend-
amtsbezirke. Anfang Februar die-
sen Jahres wurden die Fragebögen
an insgesamt 122 Jugendämter
bundesweit verschickt. Die Rück-
laufquote beträgt 71 %. Die Frage-
bögen sind mittlerweile datentech-
nisch erfasst und werden bis Ende
August statistisch ausgewertet.
Prof. Dr. Ralf Schellhase
Fachbereich Wirtschaft
Die Bedeutung von Sekundär-
dienstleistungen im Business-
to-Business-Marketing
Hintergrund und
ökonomischer Kontext
In den 80er Jahren setzten viele
westeuropäische Unternehmen auf
exzellente Qualität und überlegene
Technologie ihrer Produkte, um
dem Preiswettbewerb zu entgehen.
Ein solcher technologischer Vor-
sprung ist jedoch heute in vielen
Branchen nicht mehr oder nur über
sehr hohe Investitionen in F&E zu
realisieren.
Vor allem asiatische Wettbe-
werber konnten in der Vergangen-
heit aufgrund kürzer werdender
Produktlebenszyklen und ihrer
Abbildung 1: Abgrenzung der industriellen Dienstleistungen
Ebene der nachfrageorientierten Differenzierung
Ebene der anbieterorientierten Differenzierung
Konsumtive
Sekundärdienstleistungen
(Nachfrager: Konsumenten)
Industrielle Dienstleistungen
(Anbieter:
Produzierende Unternehmen)
Rein investive Dienstleistungen
(Anbieter:
Dienstleistungsunternehmen)
Dienstleistungen
Investive Dienstleistungen
(Nachfrager: Organisationen/
Unternehmen)
91Querschnitt Juli 2004
modernen, umfassenden Qualitäts-
managementprogramme Wettbe-
werbsnachteile ausgleichen. Dies
führt aus Nachfragersicht zu einer
Austauschbarkeit der Produkte.
Insbesondere deutsche Hersteller
wählen daher andere Wege, abseits
von der Fokussierung auf Qualität
oder Technologie, um eine deut-
liche Produktdifferenzierung und
einen nachhaltigen Wettbewerbs-
vorteil zu erlangen.
Viele Unternehmen bieten des-
halb das Kernprodukt ergänzende
(industrielle) Dienstleistungen an.
Damit sind – wie in Abbildung 1
ersichtlich – solche Dienstleistun-
gen gemeint, die von Organisatio-
nen oder Unternehmen nachgefragt
werden und deren Anbieter pro-
duzierende Unternehmen sind.
Die Begriffe „industrielle Dienstleis-
tung“ und „Sekundärdienstleistung“
werden hier synonym verwandt.
Die Unternehmen verfolgen hiermit
zumeist zwei Strategien:
Einerseits dient das Service-
angebot der Differenzierung
gegenüber den Produkten der
Mitbewerber, weil es über das
eigentliche Produkt hinaus einen
Zusatznutzen bzw. eine erwei-
terte Problemlösung bietet. Die
so reduzierte Austauschbarkeit
des Kernprodukts mindert den
Preisdruck.
Zudem können Serviceleistun-
gen auch als Markteintritts-
barriere fungieren. Da sich die
Qualität von Dienstleistungen
für Kunden im vorhinein nur
schwer beurteilen lässt, bringt
ein Anbieterwechsel grundsätz-
lich ein schwer kalkulierbares
Risiko mit sich.
Ein schwieriges und weithin ver-
nachlässigtes Problemfeld besteht
im Erzielen von Zusatzumsatz oder
-gewinn durch Dienstleistungen.
Je nach Branche, Kunden struktur
und deren Preisbereit -schaft kann
eine Anhebung der Produktpreise
oder eine separate Verrechnung
der Leistung angestrebt werden.
Hierzu bedarf es jedoch genauer
Informationen bezüglich der
Bedürfnisstruktur und der Preis-
bereitschaft der eigenen Kunden.
Auf der anderen Seite kann
die Abrundung des Produktange-
botes durch Dienstleistungen neben
der Erlangung eines Wettbewerbs-
vorteils ebenfalls einen starken Ein-
fluss auf die Geschäftsbeziehung
zwischen Hersteller und Kunden
haben. Durch den Wandel vom
reinen Produkthersteller zum Pro-
blemlöser (siehe Abbildung 2)
kommt es zu einer intensiveren
Interaktion zwischen den beteilig-
ten Parteien. Dadurch kann der
Anbieter wichtige Informationen
über die Bedürfnisse seiner Kunden
gewinnen und diese in die Modifi-
kation oder Entwicklung seiner Pro-
dukte einbeziehen. Dies führt über
die gesteigerte Zufriedenheit der
Kunden häufig zu einer stärkeren
Bindung an den Lieferanten. Über
die intensive Interaktion und eine
stabile persönliche Beziehung
gelingt es oftmals, bestehende
Absatzpotentiale besser auszu-
schöpfen („cross-selling“).
Häufig sind Dienstleistungen
nicht mehr optionales Instrument
zur Differenzierung im Wettbe-
werb, sondern werden in vielen
Branchen von den Kunden aktiv
eingefordert. Die Tendenz vieler
industrieller Kunden, sich auf ihre
Kernkompetenzen zu fokussieren
und damit Beschaffungsaufwand
und Risiko mehr und mehr auf die
Lieferanten zu verlagern, unter-
streicht diese Entwicklung. Als
Gegenleistung, um „supplier of
choice“ zu sein, übernehmen die
Lieferanten häufig zusätzliche
Abbildung 2: Die Entwicklung vom Produkthersteller zum Problemlöser
Gestern
Produktgeschäft
Kern-
produkt
Dienst-
leistungen
Heute
Systemgeschäft
Morgen
Customized
Solution-Business
Produkt
Dienst-
leistungen
Dienst-
leistungen
Kern-
produkt
Zunehmende strategische Relevanz industrieller Dienstleistungen
92
Dienstleistungen wie Lagerhaltung
oder Just-in-Time Anlieferung.
Dieser großen und zunehmen-
den Bedeutung von Dienstleistun-
gen zur Vermarktung industrieller
Produkte stehen nach wie vor viel-
fältige Probleme beim Management
gegenüber. Als wesentlich gelten
hier die organisatorische Veranke-
rung im Unternehmen, die strategi-
sche Orientierung des Dienstleis-
tungsangebots, die Bereitstellung
kundenspezifischer Dienstleistun-
gen und die hierfür zu erlangende
Vergütung.
Während man der strategischen
Ausrichtung des Produktprogramms
meist große Aufmerksamkeit wid-
met, fehlt diese in vielen Fällen in
bezug auf Dienstleistungen. Die
Breite des Serviceangebots, der
Grad an Individualität, Selektivität
und die Intensität der Vermarktung
bleiben häufig unklar. Insbesondere
die Breite des Servicespektrums
wird oft durch das Anpassen des
Angebots an situative Erfordernisse
geprägt. Einen großen Kundenauf-
trag koppelt man bspw. an eine
bestimmte Serviceleistung, die
danach auch anderen Kunden ange-
boten und sukzessive als Standard
ins Programm übernommen wird.
Dieser oftmals historisch gewachse-
ne „Wildwuchs“ bedingt Hand-
lungszwänge, hohe Kosten und
verhindert eine ziel gerichtete, indi-
viduelle Ansprache der Kunden.
Zielsetzung des Forschungs-
projekts
Die betriebswirtschaftliche For-
schung hat sich bislang nur in unzu-
reichendem Maße mit der Bedeu-
tung von Sekundärdienstleistungen
in industriellen Geschäftsbeziehun-
gen auseinandergesetzt. Vorliegen-
de Studien beleuchten zumeist nur
ausgewählte Aspekte des aufgezeig-
ten Problemfeldes und fokussieren
auf einzelne Branchen. Inhalt und
Ziel des Forschungsprojekts ist es
daher, dieses Defizit theoretisch
und empirisch aufzuarbeiten. Ein
besonderer Fokus liegt dabei in der
Untersuchung der Bedeutung von
Value-added-Services unter Berück-
sichtigung der Motive und Einstel-
lungen der Personen im Buying
Center. Die gesichtete Literatur und
Expertengespräche dienen dabei
der Strukturierung und Abgrenzung
des Untersuchungs feldes, so dass
die gewonnenen Erkenntnisse in die
Erstellung eines Fragebogens für
eine persönliche und schriftliche
Befragung einfließen. Die Auswer-
tung der Befragung von Kunden ver-
schiedener Kooperationspartner
erfolgt mittels multivariater statisti-
scher Analysemethoden. Auf der
Basis dieser Ergebnisse erfolgt dann
die Ab leitung einer Systematik zur
Konzeption von Servicestrategien.
Dies impliziert die Identifikation
von Möglichkeiten, Sekundärdienst-
leistungen zu generieren und an-
zubieten und diese in einen kon-
zeptionellen Rahmen zu stellen.
Prof. Dr.-Ing. Mathias Döring
Fachbereich Bauingenieur-
wesen
Traditionelle und neuzeitliche
Bewässerung in den Oasen der
Libyschen Wüste Ägyptens
Situation
Die Oasen der Libyschen Wüste
liegen in 200 bis 500 m tiefen
abflusslosen Depressionen, die bis
zu 80 m unter den Meeresspiegel
reichen. Die Bevölkerung lebt aus-
schließlich von der Landwirtschaft.
Nur Siwa, die nördlichste der
Oasen, erhält gelegentlich Nieder-
schläge, sonst ist Regen unbekannt.
Ohne Bewässerung ist daher keine
Landwirtschaft möglich.
Das Wasser tritt in artesischen
Quellen unter Druck zu Tage
(Abbildung 1). Es ist fossiler
Herkunft und entstammt Nieder-
schlägen, die während der letzten
Eiszeit in Darfur (Sudan) und dem
östlichen Tschad, also 1500 km
weiter südlich, nieder gingen. Die
Fließzeit im nubischen Sandstein-
Aquifer (wasserführender Horizont,
Abbildung 2) beträgt etwa 8000 bis
30.000 Jahre.
In der traditionellen, seit etwa
4000 Jahren unverändert prakti-
zierten Landwirtschaft, die in allen
Oasen bis 1960 üblich war, bestand
Gleichgewicht zwischen den Quell-
schüttungen und der Grundwasser-
Neubildung im Sudan/Tschad durch
die heute nur noch episodischen
Niederschläge.
Im Rahmen des ägyptischen
„New Valley Projects“, das um 1960
zur Erschließung neuer Anbau-
flächen ins Leben gerufen wurde,
sind in den Oasen Dâkhla, Khârga,
Baris und El Maks bis heute etwa
1200 Bohrungen von bis zu 1000 m
Tiefe in den Aquifer abgeteuft wor-
den. Folge waren die allmähliche
Entspannung des artesischen Was-
sers und der damit erforderliche
Einsatz von Pumpen. An vielen Stel-
len hat sich durch den Wasserüber-
schuss bereits ein oberflächennah-
er Grundwasserkörper gebildet,
der durch kapillare Verdunstung
zur Versalzung der Böden führt und
z.T. bereits in Form von Salzseen
aus gesättigter Sole in Erscheinung
tritt. Damit verbunden sind Flächen-
verluste und Einbußen beim Ertrag
(Abbildung 3).
Verstärkt wurde dieser Effekt
durch den genossenschaftlichen
Betrieb der Tiefbrunnen und
Bewässerungskanäle, der ver-
breitet dazu geführt hat, dass die
Anlagen vernachlässigt und die
Kanäle nicht mehr abgedichtet wer-
93Querschnitt Juli 2004
Abbildung 1 (oben):
Artesische Quelle der Oase Walid.
Das Wasser tritt mit etwa 35°C
aus 500 m Tiefe unter Druck aus
Abbildung 2 (mitte):
Hydrogeologische Situation der
Ägyptischen Oasen (vereinfacht)
Kleine Oasen:
1 Ain Bisaro
2 El Atrun
3 Laqiya Arabain
4 Selima
5 Nukhelia (Merga)
6 Terfawi
7 Zarzura
8 Nesla
9 Bahrein
10 Sitra
11 Girabub
12 Abu Ballas (Wasserlager
Karawanenstraßen:
13 Dakhla – Kufra
14 Farafra – Siwa
15 El Fasher – Assiut (Straße der 40 Tage)
16 Siwa – Benghasi
Abbildung 3 (rechts):
Durch übermäßige Grundwasser-
förderung entstandener See aus
gesättigter Salzsohle (Oase Dâkhla)
94
den. Zusätzliche Versickerung in
das obere Grundwasserstockwerk
war die Folge. Die Umstellung der
Wassergewinnung von den traditio-
nellen zu neuzeitlichen Verfahren ist
daher umstritten.
Bisherige Untersuchungen
Im Rahmen des von der FU Berlin
federführend durchgeführten Son-
derforschungsprojektes „Geoscien-
tific Research in Northeast Africa“
sind die Grundwasserverhältnisse
der Ostsahara detailliert untersucht
sowie Alter, Herkunft und Rege-
nerationsfähigkeit des artesischen
Wassers geklärt worden. Auch
über den mit dem New Valley Pro-
ject verbundenen wirtschaftlichen
und sozialen Wandel wurde mehr-
fach berichtet.
Nicht untersucht wurden die
Veränderungen der Wasserbilanz,
die Zunahme von Versickerung
und Verdunstung bei der neuzeit-
lichen Wasserverteilung, Bildung
und Umfang der Salzablagerungen
sowie der mit der Umstellung der
Wasserwirtschaft verbundene
Anstieg des erntebezogenen
(spezifischen) Wasserbedarfs.
Außerhalb jeder Betrachtung blieb
bisher die traditionelle Bewässe-
rung, mit der bei vergleichbarer
Bevölkerungszahl und ähnlichem
Erntevolumen nur ein Bruchteil des
Wassers benötigt wurde.
Projekt
In einer Gegenüberstellung der
bis 1960 praktizierten und der
modernen Wasserwirtschaft
wurden die o.g. Aspekte an aus-
gewählten Beispielen untersucht.
Dazu gehörten:
Örtliche Bestandsaufnahmen:
- zur traditionellen Wasser-
wirtschaft in den Oasen
Siwa, Walid, Bahariya und
Faráfra,
- zur neuzeitlichen Wasserwirt-
schaft und Versalzung in
Dâkhla, Khârga und Baris.
die Abschätzung des spezifi-
schen Wasserbedarfs sowie der
Wasserverluste durch Versicke-
rung und Verdunstung. Dazu
wurde die kleine isolierte Oase
Walid südlich von Siwa, in der
die traditionelle Bewässerung
von einem einzigen Brunnen aus
noch ausschließlich praktiziert
wird, kartiert und die Quell-
schüttung gemessen.
Untersuchungen zur Wasser-
bilanz. Dazu wurden der in
Walid gewonnene spezifische
Wasserbedarf dem von ausge-
wählten Flächen in Dâkhla und
Baris gegenüber gestellt, die mit
aus Tiefbohrungen bewässert
werden.
Ergebnisse
Der Wasserbedarf neuzeitlich
bewässerter Flächen beträgt bei
gleichem Ertrag etwa dem drei-
bis fünffachen der traditionellen
Landwirtschaft. Ursachen sind:
Der weit verbreitete Irrtum, dass
zusätzliche Wassergaben die
Ernte verbessern (das Wasser-
aufnahmevermögen der Pflan-
zen ist jedoch begrenzt),
dadurch zu hohe Wasserförde-
rung,
Wasserverluste aus ungedichte-
ten Bewässerungsgräben
(traditionell waren diese ausge-
mauert) und die
mangelhafte Pflege der Bewäs-
serungsanlagen.
Da Niederschläge in den süd-
lichen Oasen fehlen, scheidet
ein natürliches Auswaschen des
Salzes aus. Künstliche Spülung
(leaching) scheitert daran, dass
dafür zusätzlich Wasser gefördert
werden müsste. Die Folge wäre
ein weiterer Eingriff in die ohnehin
defizitäre Wasserbilanz. Eine Rück-
gewinnung der versalzten Flächen
ist daher ohne großtechnischen Auf-
wand (z.B. Import von Wasser aus
dem 500–800 km entfernten Niltal)
nicht möglich. Langfristig muss damit
gerechnet werden, dass zumindest
einige Oasen der Libyschen Wüste
nicht aus Wassermangel, sondern
durch Wasserüberschuss zu Salz-
sümpfen und damit unbewohnbar
werden. Die Entwicklung ist in Siwa
bereits erkennbar, wo das Ansteigen
der Oasen-Seen zunehmend den
Lebensraum einschränkt.
Das Projekt wurde in Abstimmung
mit dem Ägyptischen Landwirt-
schaftsministerium, der International
Commission on Irrigation and Drai-
nage ICID (New Delhi), in Kontakt
mit der TU Berlin sowie in Zusam-
menarbeit mit dem Schweizerischen
Institut für ägyptische Bauforschung
(Kairo) durchgeführt. Die örtlichen
Erhebungen und Vermessungs-
arbeiten erfolgten durch Studierende
der FHs Darmstadt und Biberach.
Das Projekt ist abgeschlossen.
Literatur (Auswahl)
Bliss, F.: Die Oasen Bahariya und
Farafra. Bonn: Arbeitskreis für
Entwicklungspolitik 1983.
Döring, M.: 4000 Leben mit artesi-
schem Wasser – Die traditionelle
Wasserwirtschaft der ägyptischen
Oasen am Beispiel von Siwa.
Schriftenreihe der Frontinus-
Gesellschaft, H. 24/2001,
S. 147–178.
Döring, M., Nuding, A.: Wasser in der
Libyschen Wüste Ägyptens, Was-
ser & Boden, H. 10, 2002, S. 29–35.
Thorweihe, U., Schandelmeier, H.
(Hrsg.): Geoscientific Research in
Northeast Africa. Rotterdam 1993.
Thorweihe, U., Heinl, M.: Ground-
water Resources of the Nubian
Aquifer System. Berlin: Inst. f.
Geohydrologie der TU, 1998.
95Querschnitt Juli 2004
Cand. Ing. Harald Klöß
Fachbereich Mathematik
und Naturwissenschaften
Langzeitdatenarchivierung auf
Mikrofiche mittels Laserstrahlung
Das Laser-COM Projekt (Computer
Output on Microfilm) der Fach-
hochschule Darmstadt hat seit der
Gründung im September 2001
schon einige wichtige Erkenntnisse
gewinnen können, die für die Reali-
sierung eines COM-Systems not-
wendig sind. Ein solches System
(siehe auch Ausgabe Nr. 16 Mai
2002 Seite 104) belichtet digitale
Bilddaten in Farbe auf Mikrofilm.
Dazu werden drei Laser mit unter-
schiedlichen Wellenlängen ein-
gesetzt, jeweils einer im blauen,
grünen und roten Bereich des
visuellen Spektrums, die dann
gleichzeitig auf dem Film über-
lagert werden. Jeder Laser soll
hierbei acht bit tief moduliert wer-
den, was zu den, vom RGB-Monitor
bekannten, 16,7 Mio. Farben führt.
Um zu gewährleisten, dass die
Farbe eines so belichteten Pixels
auch der Farbe entspricht, die
digital als RGB vorgegeben wurde,
muss herausgefunden werden,
wie der Film auf eine Leistungs-
modulation der Laserquellen rea-
giert (siehe Abbildung 1).
Da der Zusammenhang T(E)
(zwischen deponierter Energie und
Transmission) offensichtlich nicht
linear ist, müssen die digitalen
Daten, die auf den Film geschrie-
ben werden sollen, erst aufbereitet
werden, bevor sie die Lasermodu-
lation richtig vorgeben können.
Ein vielversprechendes Modell,
das diesen Zusammenhang
beschreibt, wurde von der Projekt-
gruppe erarbeitet und wird ständig
verfeinert.
Die Projektgruppe der FHD ist
damit in der Lage, ihrem Industrie-
partner bei der Entwicklung eines
Prototypen grundlegende und wich-
tige Erkenntnisse bereitzustellen.
Zur Bearbeitung dieser Thematik
nahm ein studentisches Mitglied
der Laser-COM-Projektgruppe die
Chance wahr, im Wintersemester
2003/04 ein betriebspraktisches
Semester (BPS), bei der Firma
MikroPicture GmbH, die die Ent-
wicklung eines solchen LaserCOM-
Systems betreibt, durchzuführen.
Ein weiterer Bestandteil des
LaserCOM-Systems ist eine Scan-
einrichtung für den belichteten und
entwickelten Mikrofilm. Spätestens
beim Scannen stellt sich heraus,
ob Strukturen, die auf den Film
geschrieben werden sollten (z.B.
eine dünne Linie), auch richtig auf
den Film geschrieben wurden, oder
ob sie ggf. durch den Belichtungs-
vorgang bedingt deformiert sind.
Hierzu konnte ein Verfahren
erarbeitet werden, mit dem sich
die Breite oder der Abstand von
Linien messen lassen. In einem
digitalen Mikroskopbild des be -
lichteten Films (siehe Abbildung 2)
muss der Abstand von Hell-/
Dunkelübergängen bestimmt
werden. Die Auswertung jedes
einzelnen Spaltenprofils wäre
hier aber nicht geeignet, da ein
solches Bild sehr verrauscht ist.
Statt dessen kann das Bild mit
Methoden der Bildverarbeitung
so aufbereitet werden, dass man
in die Hell-/Dunkelübergänge
jeweils eine Gerade legen und
deren Abstände berechnen kann,
wobei alle Geraden parallel
zu einander sind.
Abbildung 1: Abhängigkeit der Transmission des Films von der Bestrahlung mit einem Laser, dargestellt bei einer festen Wellenlänge.
T(E)-Daten zum fitten
0,84
0,78
0,72
0,66
0,60
0,54
0,48
0,42
0,36
0,30
0,24
0,18
0,12
0,06
0Exposure /J/m≤
96
Bei all diesen Arbeiten hat sich
gezeigt, dass es noch eine Fülle
weiterer Aufgabenstellungen gibt,
deren Lösungen in näherer Zukunft
von uns erarbeitet werden können.
So gilt es z.B. die Abhängigkeit der
Farbkoordinaten eines Pixels von
einer evt. Defokussierung der Laser
zu untersuchen.
Interessierten Studenten, die
sich als wissenschaftliche Hilfskraft
an der Projektarbeit beteiligen,
bietet dieses, parallel zu dem Vor-
lesungsbetrieb, eine gute Möglich-
keit sich mit optischen Aufbauten
im Labor, dem Programmieren
von Simulationsprogrammen oder
auch organisatorischen Dingen
wie Materialbeschaffung etc., unter
Leitung der Professoren Dr. Ch.
Heckenkamp und Dr. W. Heddrich,
näher zu beschäftigen.
Wir danken dem BMBF für die
finanzielle sowie der Otto v. Gueri-
ckestiftung für die administrative
Unterstützung des Projekts. Den
Mitgliedern des Zentrum für For-
schung & Entwicklung sei Dank
für die immerwährende Hilfe in
allen Belangen, die dieses Projekt
betreffen.
Prof. Klaus Schwebel
Fachbereich Elektrotechnik
und Informationstechnik
Fourieranalyse und Fourier-
transformation mit Matlab/
Simulink
Während meines Aufenthaltes
bei VEDC Malang/Indonesien im
Wintersemester 2002/03 habe ich
dieses Thema als Forschungs-
beitrag meiner vom DAAD geför-
derten Kurzzeitdozentur erfolgreich
bearbeitet.
Ein „Matlab m-file“ löost das
klassische Fourier-Integral in
numerischer Form und erzeugt die
Fourier-Koeffizienten sowohl nach
Sinus- und Cosinusanteilen als auch
nach Betrag und Phase. Bekannter-
maßen werden so periodische Sig-
nale auf ihre Schwingungsanteile
(Grundschwingungen und Harmo-
nische) hin untersucht. Ein „Simu-
link“ Block Diagramm generiert
die Signale und speist sie an ge -
eigneter Stelle ins „m-file“ ein. Als
Ergebnis erscheinen in zwei „plots“
einerseits die Sinus- und Cosinus-
koeffizienten (a- und b-Koeffizien-
ten) und andererseits diese in kom-
plexer Form (c-Koeffizient) nach
Betrag und Phase, jeweils in Ab-
hängigkeit der ganzzahligen Viel-
fachen der Grundschwingung.
Ein Vergleich des ursprünglichen
periodischen Signals mit über die
Fourier - Synthese zusammenge-
setzte Schwingungen sowie deren
Fehlerquadrate fließt ebenfalls in
die obigen Diagramme ein, so dass
die Qualität der Analyse beurteilt
werden kann.
Die Fouriertransformation ist
auf nichtperiodische Signale wie
Rauschen zugeschnitten. Sie stellt
prinzipiell die Fourieranalyse mit
der gegen unendlich strebenden
Periodendauer bzw. der verschwin-
denden Grundfrequenz dar. Wählt
man statt der unendlichen eine
sehr lange Periodendauer, im Falle
eines Rauschsignals also ein Pseu-
dorauschen, so ist der Unterschied
zwischen Fourieranylyse und Fou-
riertransformation vernachlässig-
bar klein, wenn man beachtet, dass
die Normierung auf die Perioden-
dauer aufzuheben ist.
Die Anwendung bezieht sich
nicht nur auf Signale der Telekom-
munikation wie Amplituden- und
Frequenzmodulation, sondern
auch auf die verschiedenen For-
men der Gleichrichtung oder in
Regelkreisen, wo es sinnvoll oder
gar erforderlich ist, zur Schadens-
begrenzung gewisse Frequenzen
auszufiltern (z.B. Seekrankheit)
oder zur Frequenzanalyse der
harmonischen Balance. In der
Energietechnik spielt bei gleich-
gerichteten Spannungen die über
die Fourieranalyse definierbare
Welligkeit eine große Rolle, auch
dies ist im „m-file“ vorgesehen.
Das nun folgende Beispiel möge
die Zusammenhänge verdeutlichen:
In der Darstellung oben befindet
sich ein Simulink Plan (Abbildung
1), der die Spitzenwertgleichrich-
Abbildung 2: Mikroskopbild eines belichteten Mikrofilms
97Querschnitt Juli 2004
tung eines Netzsignals (230 Volt
effektiv, 50 Hertz) darstellt. Die
Simulation wird vom „m-file“ aus
gestartet und das gleichgerichtete
Signal über „workspace“ ins „m-
file“ eingespeist. Dann werden
die Forierkoeffizienten (a, b und c)
berechnet und neben den oben
beschriebenen Optionen (Original-
signal, durch Foeuriersynthese
zusammengesetztes Signal,
Fehlerquadrat) dargestellt, siehe
Abbildung 2.
Erläuterungen zu Bild 1:
Im Block „diode“ ist die mathe-
matische Beziehung zur Dioden-
kennlinie so einprogrammiert,
dass die Diodenschwellspannung
bei einem Strom von 1 Ampere
0,6 Volt beträgt. Seriell zur Diode
liegen der Widerstand (100 Ω)
und der Kondensator (100 µF)
parallel. Beim Integrator ist eine
sich automatisch einstellende
Anfangsspannung („Initial Voltage“)
so vorgesehen, dass eine statio-
näre Schwingung entsteht (harmo-
nische Balance).
Erläuterungen zu Bild 2:
Die Zahl der Harmonischen ist
auf 7 begrenzt. In der oberen
Reihe ist der c-Koeffizient nach
Betrag und Phase dargestellt.
Darunter erkennt man die Signale x
(Originalsignal, rot) und s (Nach-
bildung nach Fourier, blau) sowie
hieraus entstandenen Fehlerqua-
drate, alle in zeit licher Abhängig-
keit bei einer Darstellungszeit
von 20 msec, also einer Periode.
Die Signale besitzen sägezahnähn-
liche Form und haben im Bereich
von ca. 2 msec die größte Ab -
weichung, was wegen der steilen
Flanke von x zu diesem Zeitpunkt
auch erwartet wird. An dieser
Stelle erkennt man auch am
besten das rote Original signal,
was ansonsten vom blau darge-
stellten weitgehend verdeckt
wird.
Darüber hinaus errechnet
Matlab eine Brummspannung
von 16,45 Volt und eine Welligkeit
von 0,055.
Für die nächste Nummer vom
„Querschnitt“ ist ein ausführlicher
Bericht vorgesehen.
Abbildung 1: Simulink-Plan eines Spitzenwertgleichrichters
Abbildung 2: Nach Fourier analysierte, spitzenwertgleichgerichtete Netzspannung,
die Zeitdauer stellt die Netzperiode dar. ( x Originalsignal rot, s Nachbildung nach
Fourier blau)
25
20
15
10
5
0
340
320
300
280
260
100
50
0
-50
-100
60
40
20
0
k = omega/omgea0 k = omega/omgea0
time in sec time in sec
0 2 4 6 8 0 2 4 6 8
0 0.01 0.02 0.03 0 0.01 0.02 0.03
|c|
<c
in °
erro
r2
s (b
lau)
, x (
rot)
„rectifier“ runing only together with „FOURIER.m“
Sine Wave
230 V eff
50 Hz
diode 1/C Initial Voltage workspace
+–
+–
1.0E•8x(exp(26xu)-1)
1/R
110^-4
1s
1100
x
Scope
98
Prof. Hermann Meuth, Ph.D.,
Kai Schade, cand. ing., und
Ireneusz Janiszewski, M.Sc.
Elektronische Mikrosysteme,
Fachbereich Elektrotechnik
und Informationstechnik
Innovative Piezomotor-
Ansteuerung
Was ist ein Piezomotor?
Piezoelektrische (Ultraschall-)
Motoren (USM), Abbildung 1, stel-
len ein noch recht neues Konzept
elektrisch betriebener Kleinmoto-
ren dar. Bei dieser Art von Motoren
werden Rotoren bzw. Läufer nicht,
wie in herkömmlichen elektromag-
netischen Motoren, über elektro-
magnetische Kräfte sondern durch
Reibungskräfte angetrieben. USM,
insbesondere rotierende Wander-
wellen-Motoren, vereinigen un -
konventionelle Eigenschaften: Das
hohe Drehmoment bei niedrig(st)er
Drehzahl erlaubt, das sonst erfor-
derliche Getriebe einzusparen
und das hohe Haltemoment (Selbst-
arretierung) im Stillstand auch bei
Abschaltung macht Feststellbrem-
sen entbehrlich. Im Wesentlichen
erzeugen USM keine elektromag-
netische Interferenz (Elektrosmog),
und sind durch kleines Gewicht
und geringen Raumbedarf sowie
niedrige Betriebsgeräusche ge-
kennzeichnet. Sie finden ihren
Einsatz unter erschwerten Verhält-
nissen, z.B. im Weltraum und
Laborvakuum, in magnetisch
basierten bildgebenden Verfahren
wie Tomographen und miniaturi-
siert in Kleinbildkameras. Auf
Grund dieser Eigenschaften wer-
den USM zunehmend auch ideal
geeignet sein zur Anwendung als
Servo-Antriebe z.B. in Roboterar-
men (Robotik), zur Kraftunterstüt-
zung bei Gelenk-Prothesen (Bionik)
und in der Tragflächenmotorisie-
rung von Flugzeugen (Avionik).
Das Motorprinzip wurde
ursprünglich in Japan, aber auch
in Deutschland initiiert und hier in
den letzten zehn Jahren vorrangig
in elektromechanischer, material-
wissenschaftlicher und geometri-
scher Hinsicht wesentlich weiterent-
wickelt. Diese Antriebsart ist bereits
seit den vierziger Jahren bekannt,
jedoch sind bis heute nur wenige
Typen von USM realisiert. Dies liegt
einerseits an den etwas höheren
Herstellungskosten, bedingt ins-
besondere durch die Verarbeitung
von Piezo-Keramiken, liegt aber
auch an lange Zeit fehlender Tech-
nologien zur präzisen hochfrequen-
ten Anregung der mechanischen
Schwingungen in der Piezo-Kera-
mik. USM werden bereits industriell
eingesetzt beispielweise zur Objek-
tiveinstellung von Autofokus-Kame-
ras, in motorgetriebenen Video-
Kamera-Schwenk-Vorrichtungen,
zur Kopfstützenverstellung von
Autositzen, in Motorschraubern
oder in motorgetriebenen Projekti-
onsleinwänden. Wesentlich heraus-
forderndere Leistungskriterien
er geben sich für die o.g. neuen Nut-
zungsfelder in Avionik, Bionik und in
komplexen Systemen der Robotik,
wo die Anforderungen an insbeson-
dere intelligente Motoransteuerung
und deren Präzision, z.B. in Leis-
tung, Drehzahl und exakter Posi-
tionierung, besonders hoch sind.
Anforderungen an ein innova-
tives Ansteuerungsverfahren
Ein vielseitig erweiterter indus-
trieller Einsatz unter Nutzung der
spezifischen Motorvorteile wird
vermehrt eine intelligente (d.h.
durch integrierten digitalen Rech-
ner unterstützte), präzise und ins-
besondere kompakte elektronische
Motorsteuerungen verlangen. Die
Gehäuse
Tellerfeder
Gummischeibe
Rotor
Haftschicht
Piezo-Keramik
Gehäuse mit Motorflansch
Schwingstator
Abbildung 1: Der Piezomotor hat keine Wicklungen. Vielmehr hat er Ähnlichkeiten mit
einer Kupplung. Der feststehende Schwingstator (Piezo-Keramik mit Signaleinspeisung)
ist an den Rotor angepresst. Werden im Stator zwei gegenläufig rotierende um laufende
Ultraschallwellen erregt, so übertragen diese auf den Rotor ein Drehmoment.
(Bild: Daimler Chrysler Forschungszentrum Frankfurt)
99Querschnitt Juli 2004
Motoren erfordern hierzu mehrka-
nalige periodische Ansteuersignale
mit Frequenz-, Phasen- und Ampli-
tuden- bzw. Tastverhältnisabgleich
höchster Präzision, je nach den in
Abhängigkeit von gewünschten
bzw. resultierenden Betriebs- und
Umgebungsparametern. Weiter:
Piezomotoren eignen sich aus
mechanischer Sicht hervorragend
zur Miniaturisierung und wurden
inzwischen zu Forschungszwecken
auch mikrosystemtechnisch reali-
siert. Neben den erwähnten High-
Tech-Einsatzfeldern in Avionik,
Bionik und Robotik sind auch die
bereits etablierten kommerziellen
Massenmärkte u.a. bei Konsumen-
tenanwendungen von Bedeutung.
Deshalb ist einerseits die Erschlie-
ßung kostengünstiger Fertigungs-
methoden für die mechanischen
Komponenten in Großserien anzu-
streben, andererseits aber auch
die Entwicklung kompakter Elektro-
niken, die sich preiswert und in
großen Stückzahlen herstellen las-
sen. Hierfür bietet sich die Mikr o-
elektronik geradezu an.
Bisher genutzte Ansteuerverfah-
ren beschränken sich entweder auf
rein analoge Einfachlösungen oder
involvierte labormäßige (Multi-
Board/Multi-Prozessor) Ausführun-
gen. Die letzteren sind ihres großen
Aufbaus wegen in der Forschung,
nicht aber zum tatsächlichen uni-
versellen Einsatz im Feld, sinnvoll.
Für eine installationsfreundliche
und anwendungsoffene industrielle
Nutzung in Stückzahlen unter den
verschiedensten ambienten Bedin-
gungen ist jedoch eine erschwing-
liche und kompakte Realisierung auf
der Basis digitaler Signalgenerie-
rung und -verarbeitung unverzicht-
bar, die in einem neuen, vom BMBF
im Rahmen des AFuE-Programms
geförderten Projekt erforscht und
entwickelt werden soll.
Die Betonung auf digitaler Sig-
nalgenerierung bedeutet: können
bei Systemen durchgängig digitale
Verfahren verwendet werden, so
erweisen sie sich weitestgehend
unempfindlich gegenüber Ände-
rungen der Umgebung, wie z.B.
Temperatur. Ebenso ist dann eine
flexible Anpassung auf erweiterte
Anwendungen auch im Nachhinein
prinzipiell möglich.
Die zu entwickelnde Signal-
generierung muss nämlich auf die
speziellen Anforderungen eines
solchen Piezo-Motors ausgerichtet
sein und soll flexibel und weitge-
hend universell für die verschie-
densten Motor-Typen und Modelle
geeignet sein. Das Antriebsprinzip
eines Piezomotors beruht auf zwei
stehenden orthogonalen mecha-
nisch resonanten Wellen derselben
Abbildung 2a: Zeitindex t = 4.0
Abbildung 2b: Zeitindex t = 5
Abbildung 2c: Zeitindex t = 6
Abbildung 2: Darstellung der umlaufenden Ultraschallwellen. Wesentlich für
Umlaufrichtung und -geschwindigkeit bzw. Stillstand ist der Phasenversatz zwischen
den beiden Wellen.
100
Frequenz, die azimuthal auf einem
auf den Stator aufgeklebten Piezo-
keramik-Ring umlaufen (vgl. Ab -
bildung 1). Die Überlagerung die-
ser beiden Wellen (Abbildung 2)
geeigneter Amplituden und Phasen
(bzw. Tastverhältnis = Verhältnis
An- zu Auszeit, vgl. Abbildung 3)
erzeugt eine umlaufende Biege-
wanderwelle mit elliptischer
Be wegung der Stator-Oberfläche.
Der Rotor wird per Andruck an den
Stator, d.h. durch Reibungskräfte,
zum Umlauf mit der Wanderwelle
gebracht. Zur geeigneten Ausbil-
dung der erwünschten spezifischen
Schwingungsmoden müssen die auf
den Stator aufgeklebten Piezokera-
mikelemente geeigneter Polarisati-
on mit passender räumlicher und
zeitlicher Phasenverschiebung der-
art angeregt werden, dass sich
diese Moden zu einer umlaufenden
Welle mit einer Amplitudenauslen-
kung von wenigen µm überlagern.
Bez. der Polarisierungs- und Kera-
mik-Konfiguration wurde eine Reihe
von Geometrien entwickelt, z.B.
per λ/4 bzw. 3λ/4 Abständen mit
Lücken. Die Resonanz- und damit
die Anregungsfrequenzen sind
damit abhängig von der spezifi-
schen Motorart und der Motor-
größe. Sie bewegen sich im
Bereich von 20 bis 100 kHz, daher
die Bezeichnung Ultraschall-Motor.
Mit Sicht auf spezielle Anwendun-
gen werden mit zunehmender
Miniaturisierung aber auch schon
Frequenzen von mehr als 300 kHz
angestrebt.
Für den industriellen Einsatz
kommen auf Grund der Erfordernis
einer größeren Anzahl von Signal-
kanälen sowie der variablen Anfor-
derungen an Frequenzbereich und
parametrische Präzision kommerzi-
elle digitale Signalprozessoren
nicht in Betracht. Eine anwendungs-
spezifische miniaturisierte, hoch-
integrierte, d.h. mikroelektronische
Ansteuerelektronik in Halbleiter-
Standard-Technologie, ist somit
wünschenswert, die nach Möglich-
keit für ein ganzes Spektrum von
Motorausführungen flexibel adap-
tierbar sein sollte. Wesentliche und
zentrale Teile unserer Projektent-
wicklung beinhalten daher gestuft
zuerst einen dedizierten vier-,
eventuell sechskanaligen rein digi-
talen Signalgenerierungs- und -ver-
arbeitungsblock, der im weiteren
Verlauf durch einen integrier- und
frei programmierbaren Standard-
Prozessorkern zur Übernahme der
Schnittstellenfunktion und von Steu-
erungs- und Regelungsaufgaben
erweitert werden könnte. Durch
konsequente Nutzung standardi-
sierter mikroelektronischer Ent-
wurfsverfahren ist die geplante Ent-
wicklung hinsichtlich Kosten und
Stückzahlen sowie späterer Funkti-
onserweiterungen gut skalierbar
(d.h. vorhersagbar) und auf ver-
schiedenste Halbleitertechnologien
(d.h. auf unterschiedliche Zuliefe-
rer) übertragbar. Auch die Integra-
tion der erforderlichen Leistungs-
komponenten auf einen Chip mittels
erweiterter Halbleiter-Technologi-
en ist bei mikrotechnischen Anwen-
dungen für leistungsarme Kleinst-
motoren prinzipiell denkbar, ist
aber in unserem Projekt nicht vor-
gesehen.
Abbildung 3: Momentanbild des Signalansteuerungssignals (nur ein Kanal dargestellt, insgesamt vier oder mehr erforderlich).
Frequenz und An- und Abschaltzeitpunkte können mit hoher Präzision mit einer Zeitauflösung von ca. 10 ns eingestellt werden.
Frequenzdrift
nach oben
Phasen-
voreilung
Phasen-
nacheilung
Frequenzdrift
nach unten
0 500 15001000
1
0
1
0
1
0
1
0
t/T0 (Nummer des Abtastschritts)
-1/∆f
1/∆f
2 x ∆α = ∆φ
101Querschnitt Juli 2004
There is no applied science, if
there is no science to be applied
In anderen Worten: Es kann keine
„angewandte Forschung“ geben
ohne dass eingehende wissen-
schaftliche Studien und Methodiken
zum Einsatz kommen oder zumin-
dest vorausgegangen waren. Zur
Gewährleistung der genannten
vielfältigen Anforderungsmerkmale
sollen daher zwei unterschiedliche
Verfahren untersucht, eventuell
kombiniert und in funktionsfähige
Schaltungen als Prototypen umge-
setzt werden. Als erster Ansatz
werden die in unserer Arbeitsgrup-
pe etablierten und in den vergan-
genen Jahren wesentlich weiter ent-
wickelten Methoden für sinusoidale
Signale hoher Amplitudenauflösung
(numerisch kontrollierte Oszillato-
ren, NCO) [1] mit integrierten
Digital-Analog-Wandlern (DAW)
verfolgt. Für die Phasen- und Amp-
litudenkennung der zu verarbeiten-
den rückgeführten Motorsensorik-
Signale werden entsprechend
inverse Signalverarbeitungsver-
fahren genutzt (Vector Mode). Als
weitere ganz neuartige Alternative
tritt ein wandlerfreies rein binäres
Konzept zur pulsweiten-modulier-
ten Signalsynthese höchster Zeit-
auflösung je nach Realisierung von
3 bis 10 ns hinzu. Eine Zeitspanne
von 3 ns entspricht ungefähr der
Zeit der Lichtausbreitung über die
Entfernung eines Meters oder, in
Bezug auf die relevanten Anre-
gungsfrequenzen, einer Phasen-
genauigkeit von 1/10 Grad. Dieses
zweite Verfahren würde bei gege-
bener Funktionstüchtigkeit wegen
Wegfall des DAW zu einer wesent-
lichen Vereinfachung und damit
Kostenreduzierung führen. Auf
der Grundlage dieses ganz neuen
Verfahrens wurde unter Einbe-
ziehung einer Diplomarbeit und
in Kooperation mit dem Daimler-
Chrysler-Forschungszentrum in
Frankfurt am Main eine erste
Prototypentwicklung durchgeführt.
Diese Arbeiten konnten bereits in
kürzester Zeit seit Projektförder-
beginn vielversprechende Resulta-
te liefern. Durch die hohe Qualität
in Folge der rein digitalen Signal-
generierung können damit erst-
malig lästige Motorgeräusche auf
Grund von unter besonderen
Gegebenheiten sich ausbildenden
Motorresonanzen völlig vermieden
werden. Solche Resonanzen sind
nicht nur subjektiv störend, sondern
können im übrigen auch den Motor
schädigen. Die digitale Schnittstelle
zur Einspeisung der erwünschten
Werte für Frequenz und für die
beiden Phasenanschnittswerte
für jeden Kanal ermöglicht eine
problemlose Einbindung des Signal-
gebers in ein digitales Regelungs-
system für den Motor, z.B. für Dreh-
zahl, Leistung oder Position.[2,3]
Literatur
[1] H. Meuth, I. Janiszewski und B.
Hoppe, Generierung, Messung
und Einsatz hochpräziser
digitaler harmonischer Signale
– ein Promotionsvorhaben der
Mikroelektronik mit multidis-
ziplinärem Hintergrund an der
FHD, Querschnitt Nr. 17, Juni
2003, S. 162.
[2] K. Schade, I. Janiszewski, H.
Meuth, H.-P. Schöner und M.
Schreiner, A versatile multi-
channel microelectronic digital
PWM signal generator for Piezo
motor control, Actuator 2004,
Bremen.
[3] K. Schade, Universell einsetzba-
rer Mehrkanal-PWM-Generator,
Diplomarbeit FHD 2004.
102
Prof. Dr. Hartmut Vinçon
Editions- und Forschungs -
stelle Frank Wedekind
Querschnitt. Beiträge aus
Forschung und Entwicklung
der FHD 2003
Im Frühjahr 2003 erschien, heraus-
gegeben von Hans Jochen Irmer,
Band 8 der Kritischen Studienaus-
gabe, der die dramatischen Werke
Frank Wedekinds umfasst, die
während des Ersten Weltkrieges
entstanden. Bedingt durch die zu
jener Zeit verschärfte Zensur ging
die Zahl der Inszenierungen von
Wedekinds Dramen drastisch
zurück. Die neuen Stücke „Bis-
marck“ und „Herakles“ sowie das
Dramolett „Überfürchtenichts“
kamen zu Lebzeiten des Dichters
nicht mehr zur Aufführung. Obwohl
gesundheitlich durch eine Blind-
darm-Operation angeschlagen,
die Wunde wollte nicht heilen,
befasste sich Wedekind in den
Jahren 1914-1917 intensiv mit zahl-
reichen neuen Dramenplänen.
Vor allem umfangreiche Vorarbei-
ten entstanden zu „Kitsch“ (1916/
17); ein ausführlicher Entwurf „In
Extremis“ (1917) behandelt das
Thema „Selbstmord“. Gabriele
Drechsel und Art Veder vom
Staatstheater Darmstadt stellten
im Literaturhaus am 10. Oktober
Band 8 in einer mit der Stadt Darm-
stadt anlässlich der Buchmesse
vereinbarten Lesung vor.
Abgeschlossen wurde die Arbeit
(Text und Kommentar) an den
Manuskripten Gedichte und Lieder
(1/I u. 1/II), hrsg. v. Dr. Elke Auster-
mühl und Friederike Becker. Anfang
2004 wird für diesen sehr umfang-
reichen, viel Neues enthaltenden
Doppelband (Gesamtseitenzahl:
3350 Druckseiten) bei der Deut-
schen Forschungsgemeinschaft ein
Druckkostenzuschuss beantragt.
Mit der Drucklegung kann voraus-
sichtlich in der zweiten Hälfte des
Jahres 2004 begonnen werden. Das
Manuskript von Band 6 (Dramen
aus der Zeit zwischen 1903–1909)
wird voraussichtlich Ende April
2004 fertig gestellt sein.
Die Arbeit an Band 5/I u. 5/II.
(Texte und Kommentare zu den
Erzählungen) wurde von Prof. Dr.
Jörg Schönert (Universität Ham-
burg) in Zusammenarbeit mit Dr.
Hartmut Vinçon (FH Darmstadt)
fortgesetzt. Martin Hahn bereitet
z.Zt. zusammen mit Dr. Elke Auster-
mühl die für den 7. Band der Aus-
gabe vorgesehenen Dramentexte
für die Textkonstitution vor.
Als Band 3 der Schriftenreihe
„Wedekind-Lektüren“ erschienen,
herausgegeben von Friederike
Becker (Projekt Wedekind), erst-
mals die „Jugenderinnerungen“
von Emilie Wedekind-Kammerer
im Verlag Königshausen & Neu-
mann. Für das Layout verantwort-
lich war Miroslav Brei (Projekt
Wedekind). Emilie Wedekind
(1840-1915), Tochter des Fabri-
kanten und Republikaners Jakob
Friedrich Kammerer lernte nach
einer abenteuerlichen Südamerika-
Reise in San Franzisko 1862 ihren
späteren Mann Friedrich Wilhelm
Wedekind kennen. 1864 wurde ihr
Sohn Frank (Franklin Benjamin)
geboren.
Aufmerksam machen möch-
ten wir auf die Familienbiografie
Anatol Regniers „Du auf deinem
höchsten Dach. Tilly Wedekind
und ihre Töchter“ (Albrecht Knaus.
München 2003). Wedekinds Enkel
las daraus zweimal im Oktober in
Darmstadt (Buchhandlung Schlapp
bzw. Stadtkirche) und besuchte die
Forschungsstelle Wedekind an der
Fachhochschule Darmstadt.
Stefan Riedlinger arbeitet an
einer Dissertation zu Wedekind-
Nietzsche. Die Dissertation von
Bianka-Aimée Gericke-Pischke
über das moderne Mysteri-
um „Franziska“ (Schauspiel in
fünf Akten) steht kurz vor ihrem
Abschluss. Erfolgreich beendet
ist die Doktorarbeit von Elinor
Waldmann über Wedekinds „Bis-
marck“. Miroslav Brei bereitet
eine Bilddatei zur Familie und zum
Werk Frank Wedekinds vor. Felix
Berthold betreut die Homepage
der Editions- und Forschungsstelle.
Anregungen zur inhaltlichen Erwei-
terung unserer Webseiten bitten
wir über die Forschungsstelle an
ihn zu richten.
Immer wieder tauchen überra-
schenderweise Wedekind-Autogra-
phen auf. Besonders zu erwähnen
sind in diesem Jahr zwei Briefe
Wedekinds an Heinrich Mann, die
zu einem jetzt in Prag entdeck-
ten umfangreichen Teilnachlass
Manns gehören. Mit Anatol Regnier
wurde der Plan einer Edition des
Briefwechsels zwischen Tilly und
Frank Wedekind besprochen. Ein
Teil der Briefe Franks an Tilly sind
durch Strich (Briefe, 2 Bde., 1924)
bzw. Hahn (Werk-Auswahl in 3 Bdn.,
1969) ediert, keiner der Gegen-
briefe Tillys.
Im Gespräch mit der Stadt
Darmstadt ist der Plan einer Frank
Wedekind-Ausstellung zum Stad t-
jubiläum im Jahr 2005.
Dr. Sigrid Dreiseitel
Public-Relations-Strategien
deutschsprachiger Autoren der
Jahrhundertwende
Zum Beginn des 20. Jahrhunderts
hatte Deutschland den Übergang
in das moderne Industriezeitalter
vollzogen. Aus dem rückständigen
Agrarland war eine ökonomische
Weltmacht geworden, in deren
103Querschnitt Juli 2004
urbanen Zentren im ersten Jahr-
zehnt des neuen Jahrhunderts drei
Fünftel der Gesamtbevölkerung
lebte und arbeitete. Innenpolitisch
dienten eng gefasste Reformschritte
(wie etwa die Sozialgesetzgebung
Bismarcks oder die Einführung des
Wahlrechts) und repressive Maß-
nahmen (wie beispielsweise die
Sozialistengesetze und die Presse-
zensur) dem Zurückdrängen des
politischen Liberalismus. Spätes-
tens seit der Demissionierung Bis-
marcks 1890 war das Deutsche
Reich Wilhelms II. im Widerspruch
zur ökonomischen Basis der Gesell-
schaft eine äußerlich konstitutionel-
le, im Kern jedoch autokratische
Monarchie.
Diese widersprüchlichen Ent-
wicklungen hatten Einfluss auf die
Autoren der Jahrhundertwende, ihre
Produkte und ihre Vermarktungs-
strategien. Dank der drucktechni-
schen Fortschritte, des Anstiegs der
Nachfrage neuer Leserschichten in
den urbanen Zentren des Kaiser-
reichs stieg die Auflagenhöhe neuer
Bücher sprunghaft an: In den sech-
ziger Jahren des 19. Jahrhunderts
betrug die durchschnittliche Aufla-
genhöhe 800 Exemplare, Heinrich
Manns „Professor Unrat“ erschien
1905 in einer Erstauflage von 10.000
Stück.1 Entsprechend organisierte
sich im Verlagssektor ein industriell
gegliederter Produktionsbereich,
der das Manuskriptangebot der
Autoren nach rein kommerziellen
Überlegungen selektierte. Verkaufs-
zahlen wurden wichtiger als künst-
lerische Qualität; gleichzeitig ver-
schlechterte sich die rechtliche und
finanzielle Situation der Autoren
rapide.
Parallel dazu begann der Auf-
stieg der Massenpresse im Bereich
von Tageszeitungen und Magazi-
nen. Für die in hoher Auflage und
für ein breites Publikum produzie-
renden Verlage der Unterhaltungs-
presse war nicht mehr der autonom
arbeitende Dichter von Interesse,
sondern der für eine antizipierte
Zielgruppe und unter Themenvor-
gabe produzierende Lohnautor.2
So entstand mit einer neuen
Form der Presse ein neuer Berufs-
stand. Schriftsteller traten zuneh-
mend als Zeitschriftenredakteure
auf, zumal die Verlage der aufla-
genstarken Blätter attraktive Hono-
rare offerierten und gleichzeitig
in ihren Themensparten Autoren
die Gelegenheit boten, auch nicht
bestellte, eigene Texte zu veröffent-
lichen – soweit sie sich in den Publi-
kationsrahmen fügten. Tatsächlich
nutzten spätestens ab den sechzi-
ger Jahren des 19. Jahrhunderts
namhafte Autoren diese gut hono-
rierte Bühne mit hoher Publikums-
wirkung; dazu gehörten neben
Theodor Fontane beispielsweise
Paul Heyse, Ludwig Ganghofer,
Wilhelm Raabe, Theodor Storm,
Gottfried Keller und Friedrich
Spielhagen.3
Gleiches galt für den Bereich der
Tagespresse. Hier boten sich den
künstlerisch orientierten Autoren
Arbeitsfelder im Journalismus, vor
allem in den Feuilletons der großen
Tages- und Wochenzeitungen. Die
journalistische Arbeit ergänzte (und
finanzierte) oftmals die literarische
und erhöht zusätzlich den Bekannt-
heitsgrad von Autor und Werk.
Zudem sind die Grenzen zwischen
Literatur und Journalismus flie-
ßend.4 So wurde beispielsweise
nach englischen und französischen
Vorbild in den Feuilletons Fortset-
zungsromane namhafter Autoren
abgedruckt, Themenaufsätze,
Essays und Beilagen, Epigramme
und Aphorismen, Offene Briefe und
natürlich die berühmten „Kritiken“
sind die journalistischen Mittel der
Sparte. Zu denen, die für längere
oder kürzere Zeit im Feuilletonjour-
nalismus tätig waren, zählen große
literarische Namen der Epoche:
Kurt Tucholsky (Redakteur der
„Weltbühne“) und Erich Kästner
(Redakteur „Die Neue Zeitung“)
gehören ebenso dazu wie Hugo
von Hoffmannsthal (Mitarbeiter der
„Blätter für die Neue Kunst“) und
Frank Wedekind, der zentrale Texte
zu seiner Ästhetik zuerst im Feuille-
ton der „Neuen Züricher Zeitung“
veröffentlichte.
Diese neu konstituierten Typen
des Auftrags-, Magazin- und Feuil-
letonjournalisten wurden ergänzt
durch eine weitere Variante der
„Lohnschreiberei“ in den neuen
Reklamebüros von Unternehmen.
Das Ende des 19. Jahrhunderts ist
die Geburtsepoche der modernen
Werbung. Dabei sind die Aktions-
und Auftrittsformen modernen
Kommunikationsmarketings schon
in den achtziger Jahren des 19.
Jahrhunderts in der Kommunikati-
onspolitik der Unternehmen vertre-
ten: vom Produktdesign als Allein-
stellungsmerkmal, dem Werbetext,
der gedruckten Anzeige, dem
Werbeplakat bis hin zum Event
oder der Messebeteiligung.5
Zahlreiche Autoren der Jahr-
hundertwende produzierten in
den „Press- und Reclamebureaus“
Gebrauchsliteratur nach den
Standards industrieller Produktion.
Bekanntestes Beispiel für das Enga-
gement eines Schriftstellers in der
Werbung ist Wedekinds Tätigkeit
als Werbetexter für Julius Maggi
1886/87,6 aber auch weitere Schrift-
steller waren in ähnlicher Weise
mit Auftragsproduktionen beschäf-
tigt: Werbetexter waren zeitweise
zum Beispiel Wilhelm Busch, Kurt
Schwitters und Bertolt Brecht.
Insgesamt ergab sich für die
künstlerisch orientierten Autoren
der Jahrhundertwende eine wider-
104
sprüchliche Situation. Sie waren
einerseits mit einem expandieren-
den Verlags- und Mediensektor
konfrontiert, der über die Veröffent-
lichung von Manuskripten nach
zumeist rein kommerziellen Über-
legungen entschied. Folgerichtig
reüssierten Texte und Autoren,
die dem Geschmack des breiten
Publikums entsprachen, während
sich die Honorarsituation der unab-
hängigen Schriftsteller zunehmend
verschlechterte. Gleichzeitig boten
sich Verdienstmöglichkeiten in
Medien und Unternehmen, die
zwar lukrativ, aber für das Selbst-
bild des Autors als Künstler fatal
waren.
Die Frage danach, wie aus
unverkäuflicher verkäufliche Ware
wird, beantworteten einige Autoren
der Jahrhundertwende nicht nur
mit dem Abschied von der Rolle
als freier Künstler, der autonom
pro duziert. Sie arbeiteten – neben
der Schriftstellerei – in Redaktionen
und Werbeabteilungen, und mach-
ten sich das zunutze, was Unter-
nehmer wie Julius Maggi als
Maßnahmen katalog zum Verkauf
von Produkten einsetzen – sie
betrieben Public Relations.
Die Konstruktion eines spezi-
fischen „Images“ eines Autors
als Markenzeichen, der gezielte
Einsatz des inszenierten Skandals
als Mittel zur Weckung des Kunden-
interesses, die Verarbeitung von
Tabuthemen in der Textproduktion,
um die Aufmerksamkeit der Feuille-
tonredaktionen zu wecken, ver-
meintliche Proteste des Publikums
während einer Bühnenpremiere,
um Pressepräsenz zu erreichen,
die Kooperation zweier bekannter
literarischer „Marken“ zur gegen-
seitigen Verkaufsförderung, lan-
cierte Indiskretionen in den Vor-
läufern der „Yellow Press“ oder
möglicherweise gar eine provo-
zierte Verhaftung wegen Majestäts-
beleidigung - all das gehörte
beispielsweise zum „Marketing-
Repertoire“ von Frank Wedekind,
Karl Kraus und Bertolt Brecht.
Dabei wurden gezielt der
Publikumsgeschmack, die Ausrich-
tung und das Interesse der ver-
schiedenen Medien, die Kommuni-
kationsplattformen des avisierten
Publikums und das Verwertungs-
interesse der Bühnenagenturen
und der Verlage eingesetzt, um
den Absatz der eigenen Produkte
zu unterstützen. Diesen Public-
Re lations-Kampagnen waren jedoch
im Wilhelminismus Grenzen
gesetzt. Die Zensur formulierte
einen Rahmen, der nur einge-
schränkt verletzt werden konnte.
Allerdings war gerade das auch
der Ansatzpunkt einer spezifischen
Vermarktungsstrategie, denn insze-
nierte Skandale und Tabubrüche
finden in einer autoritär organisier-
ten Gesellschaft einen hohen
Grad an öffentlicher Resonanz.
Die Gratwanderung zwischen
Verbot und Erfolg bestimmte
hier die strategischen Entschei-
dungen.
Die Verlage und Bühnenagentu-
ren nutzten gleichzeitig gezielt die
Möglichkeiten, die ihnen die regel-
mäßig in großen Blättern erschei-
nenden Feuilletonseiten boten. Übli-
che Maßnahmen sind das Schalten
von Anzeigen und der Hinweis auf
Veranstaltungen im redaktionellen
Textteil, aber auch beispielsweise
die Kombination aus bezahlter Wer-
beanzeige und unausgesprochen
mitgekauftem Beitrag der Redaktion
in variabler Textlänge. Public-Rela-
tions-Aktionen wie die zuvor bei-
spielsweise als „inszenierter Skan-
dal“ beschriebenen standen dem
Verleger- oder Agenturinteresse
am Übergang vom 19. zum 20. Jahr-
hundert nicht entgegen. Dies galt
vor allem dann, wenn das kreierte
Autorenimage mit dem neuen „Pro-
dukt“ des jeweiligen Autors korres-
pondierte und das Presseecho die
Werbekampagne der Verlage und
Agenturen unterstützte. Beispiele
dafür sind die „Lulu“-Dramen des
vermeintlichen Skandalbohemiens
Frank Wedekind, aber auch die
Kooperationen zwischen Frank
Wedekind und Karl Kraus bei der
Erstaufführung verbotener Bühnen-
stücke.
Das Forschungsvorhaben„Public-
Relations-Strategien deutschspra-
chiger Autoren und Verlage am
Beispiel ausgewählter Feuilletons
der Jahrhundertwende“ untersucht,
was sich an ausge wählten Texten
von Autoren der Jahrhundertwende
und ihrer öffentlichen Präsentation
nicht nur künstlerischem Gestal-
tungswillen, sondern auch den
Überlegungen strategischer Public
Relations verdankt. Ergänzend wird
der Frage nachgegangen, inwie-
weit die Produktions- und Verwer-
tungsbedingungen für Literatur
am Übergang vom 19. zum 20. Jahr-
hundert Einfluss auf Themenwahl
und Dar stellungsform nehmen.
Zum dritten wird die Interdepen-
denz von Öffentlichkeit, Medien-
funktion/Medienwirkung und
Public-Relations-Strategien kom-
munikationstheoretisch und medien-
historisch am Beispiel ausgewählter
Feuilletons beschrieben und analy-
siert werden.
Anmerkungen
1 Vgl.: Berman, Russell A.: Litera-
rische Öffentlichkeit. In: Glaser,
Horst Albert (Hrsg.): Deutsche
Literatur. Eine Sozialgeschichte.
Band 8: Jahrhundertwende: Vom
Naturalismus zum Expressio-
nismus 1880–1918. Reinbek bei
Hamburg 1987, S. 69–85, hier
S. 70.
105Querschnitt Juli 2004
2 Zur Genese der Literaturpro-
duktion als Lohnarbeit vgl.:
Winckler, Lutz: Entstehung
und Funktion des literarischen
Marktes. In: Ders.: Kulturwa-
renproduktion. Aufsätze zur
Literatur- und Sprachsoziologie.
Frankfurt am Main 1973,
S. 12–75.
3 Vgl.: Kuchenbuch, Thomas: Die
Welt um 1900. Technik- und
Unterhaltungskultur. Stuttgart
1992, S. 91.
4 Haacke, Wilmont: Handbuch
des Feuilletons. 3 Bde. Emsdet-
ten (Westf.) 1952. Hier Bd. 2,
Seite 135.
5 Vgl.: Goros, Antonios: Entwick-
lungen von Public Relations
in Deutschland während der
Kaiserzeit und der Weimarer
Republik (1871–1933). Diss.
Münster 1998.
6 Kieser, Rolf: Lob der Erbsensup-
pe. In: Vinçon, Hartmut (Hrsg.):
PHARUS IV. Frank Wedekinds
Maggi-Zeit. Darmstadt 1992,
S. 7–26.
Dipl.-Inform. (FH) Daniel
Eichelsbacher
Fachbereich Informatik
Chameleon – ein Tool zur
Förderung des individuellen
Lernprozesses von Studentenin-
nen und Studenten
1. Einleitung und Funktionen
Chameleon wurde entwickelt, um
Studenten/innen während ihrer
Lernphasen individuell zu unter-
stützen, damit diese bessere
Ergebnisse in Klausuren erreichen.
Es spielt dabei keine Rolle, welches
Wissen sich der Lernende aneig-
nen möchte. Diese Adaption des
Lernstoffes auf die spezifischen
Bedürfnisse eines jeden Lernenden
geschieht unter Berücksichtigung
folgender drei Domains:
Lerntyp
Vorwissen
technisches Equipment
Personen haben unterschiedliche
Fähigkeiten oder Präferenzen
bezüglich der Sinnesmodalität,
über die sie lernen, so dass ver-
schiedene Bedürfnisse beim
Lernen und eine unterschiedliche
Lerneffektivität als Ursache der
Differenzen im Lernerfolg vermutet
werden kann. Solche Persönlich-
keitsmerkmale und individuelle
Präferenzen werden häufig unter
dem Begriff der Lerntypen zusam-
mengefasst. Genau diese Lernty-
pen werden für jeden Lernenden
in der Software Chameleon auf
106
Grundlage des Fragebogens nach
Felder bestimmt.
Von entscheidender Bedeutung,
welches Wissen dem Lernenden
von Chameleon zum Lernen vorge-
schlagen werden muss, ist das Vor-
wissen, welches sich der Lernende
im Vorfeld bereits angeeignet hat.
Die Studenten haben darüber hin-
aus die Möglichkeit gewisse Wis-
sensbausteine (z.B. Textelemente,
Video- und Audiodateien,...) zu
überspringen. Diese User-System-
Interaktion wird bei der Generie-
rung des optimalen Lernweges
für den einzelnen Lerner berück-
sichtigt.
Gerade beim e-Learning ist es
wichtig zu überprüfen, ob der Ler-
nende überhaupt über das techni-
sche Equipment verfügt, um sich
die Wissensbausteine anschauen zu
können. Sollte der Lernende bei-
spielsweise nicht über eine Sound-
karte verfügen, werden ihm auto-
matisch keine Audiodateien als
Wissensbausteine vorgeschlagen.
Chameleon begegnet mit Hilfe
des interaktiven Hilfesystems
folgenden drei Problemen, die
während des Lernens auftauchen
können:
Begriffsproblem
Kontextproblem
Sinnproblem
Stößt der Lernende auf einen
Begriff mit dem er nichts anfangen
kann, sucht Chameleon automatisch
das passende Glossar zu diesem
Wissensbaustein heraus.
Sollte dem Lernenden alle
Begriffe im Wissensbaustein
bekannt sein, er aber anzeigt, dass
er den Lernstoff dennoch nicht
versteht, werden ihm Wissensbau-
steine einer einfachen Schwierig-
keitsstufe präsentiert, die jedoch
zum gleichen Lernziel führen.
Denkbar wäre auch, dass der
Lernende einen Wissensbaustein
vollständig verstanden hat, ihm
aber leider nicht klar ist, warum
er sich genau dieses Wissen
an geeignet hat. Sinnprobleme
löst Chameleon, indem es dem
Lernenden übergeordnete Lern-
ziele aufzeigt.
Um diese Adaption bezüglich
aller eben angesprochenen
Domains zu ermöglich, bedarf es
einer komplexen Wissensstruktur
auf die im Folgenden näher einge-
gangen wird.
2. Struktur des Wissens
Die Anordnung der Wissens-
bausteine realisiert das Bezieh-
ungs modell in Chameleon. Das
Beziehungsmodell ist ein Wissens-
netzwerk, welches Lehreinheiten
didaktisch sinnvoll vernetzt. Im
Beziehungsmodell werden die
Lehreinheiten durch folgende Ver-
bindungen in Beziehung gesetzt:
Equal-Link (ist gleich)
Required-Link (benötigt)
Lead-Link (führt zu)
Complemental-Link (ergänzend)
Die Verbindung Equal bedeutet ein
gleiches Lernziel in den verbunde-
nen Wissensbausteinen. Dieser
Verbindungstyp spielt bei der
Benutzmodellierung eine wichtige
Rolle, wenn der Lernende ein
Kontextproblem mit einem Wis-
sensbaustein hat. Existiert ein in
Bezug auf das Lernziel paralleler
Wissensbaustein kann dieser dem
Lernenden zur Lösung seiner Lern-
probleme oder zur effizienteren
Lernsteigerung präsentiert werden.
Auch die Möglichkeit einen Wis-
sensbaustein zu überspringen,
wird dem Lernenden durch die
Equal Verbindung ermöglicht.
Die Required-Verbindung wird
immer dann verwendet, wenn
eine Lehreinheit das Wissen einer
anderen voraussetzt. Existiert eine
solche Verbindung zwischen zwei
Lerneinheiten kann das Benutzer-
modellierungsmodul dem Lernen-
den empfehlen, sich erst durch die
vorausgesetzte Lehreinheit das
benötigte Wissen anzueignen,
wenn er keine Kenntnis darüber
besitzt.
Die Lead-Verbindung stellt das
exakte Gegenteil der Required-
Verbindung dar. In einem Benutzer-
Abbildung 1: Beziehungsmodell mit Equal-Verbindung
Equal-Verbindung
Required-Verbindung Required-Verbindung
Required-Verbindung Required-Verbindung
WB
WB WB
WB
107Querschnitt Juli 2004
modellierungstool kann es der
Einfachheit halber durchaus Sinn
machen, dem Autor auch die Aus-
wahl dieses Verbindungstyps zur
Verfügung zu stellen. Abbildung 1
soll die didaktische Assoziation
der Lehreinheiten noch einmal
verdeutlichen.
Der linke Wissensbaustein hat
hinsichtlich des rechten das gleiche
Lernziel. In allen anderen Sympto-
men können sich diese beiden
Wissensbausteine jedoch unter-
scheiden. Beim linken Wissens-
baustein kann es sich beispiels-
weise um ein Video oder eine
Zusammenfassung des gelernten
Wissens handeln, beim rechten
um eine Textdatei oder eine Simu-
lation.
Die Software Chameleon fasst
nun alle Wissensbausteine im
Beziehungsmodell zu so genannten
Equal-Components zusammen,
welche mit einer Equal-Verbindung
in Beziehung zueinander stehen.
Erst dadurch entsteht ein globales
Wissensnetzwerk über unter-
schiedliche Wissensdomains.
Denkbar wäre folgendes Szena-
rium: Jedes in der Abbildung 2
sichtbare Equal-Component kann
unendlich viele parallele Wissens-
bausteine enthalten, die mit einer
Equal-Verbindung in Beziehung
miteinander stehen (siehe Zahl in
Klammern). Alle in einem Equal-
Component befindlichen Wissens-
bausteine führen somit zum selben
Lernziel, sind aber völlig unter-
schiedlich didaktisch aufbereitet.
Insgesamt lässt sich nun folgen-
de Verallgemeinerung formulieren:
Das Beziehungsmodell kann durch
seine didaktischen Assoziationen
Kenntnisse über bereits ange-
eignetes Wissen des Lernenden
formalisieren und somit für die
Benutzermodellierung zugänglich
machen.
Die Adaption anhand des Lern-
typs geschieht im Equal-Component
selbst. Denn es wird derjenige
Wissensbaustein im Equal-Compo-
nent dem Lernenden präsentiert,
der aufgrund seines Lerntyp-Sco-
rings am besten für diesen Lerner
geeignet ist.
3. Fazit und Diskussion
Chameleon wird im Sommerse-
mester 2004 an verschiedenen Uni-
versitäten eingesetzt, da das Tool
völlig unabhängig vom eigentlichen
Lernstoff eine Benutzermodellierung
ermöglichen kann. Alle Funktionen
wie die Lernweggenerierung und
das interaktive Hilfesystem sind
sogar für einen in Papierform vorlie-
genden Kurs verwendbar. In abseh-
barer Zeit werden nun weitere Fach-
bereiche gesucht, die durch dieses
Tool ihre Studenten/innen während
des Lernprozesses individuell und
automatisiert unterstützen wollen.
Abbildung 2: Screenshot von Chameleon zur Verdeutlichung der Equal-Components
Beziehungsmodell
visualisiert durch
eine Baumstruktur.
(2) Patientenorientierung
Das Equal-Component „Patientenorientierung“
verfügt über zwei parallele Wissensbausteine.
Diese haben beide das gleiche Lernziel, sind
jedoch unterschiedlich didaktisch aufbereitet.
Dies ermöglicht eine Benutzermodellierung.
108
Prof. Dr. Michael Rebstock,
Diplom-Betriebswirt (FH)
Janina Fengel, Diplom Media
System Designer (FH)
Matthias Petry
Fachbereich Wirtschaft
Forschungsprojekt SemaVar –
Semantic Variety in Electronic
Negotiations – Behandlung
semantischer Vielfalt in elek-
tronischen Verhandlungen
Forschungsprojekt SemaVar
Im Sommer 2003 wurde das For-
schungsprojekt SemaVar begon-
nen. Ziel ist die Analyse und Kon-
zeption von Methoden zur
Behandlung und damit zur Beherr-
schung semantischer Vielfalt in mul-
tiattributiven elektronischen Ver-
handlungen. Diese Vielfalt erwächst
aus der zeitgleichen Nutzung unter-
schiedlicher Dokumentenstandards,
Produkttaxonomien und Geschäfts-
prozessmuster innerhalb elektroni-
scher Kollaborationsverbünde auf
elektronischen Märkten.
Elektronische Verhandlungen
Derzeit bieten elektronische Märkte
überwiegend katalogbasierte
Beschaffung oder einattributive
Verhandlungen wie Auktionen und
Ausschreibungen. Es kann dabei
allein der Preis als einziges Attribut
verhandelt werden. Dies ist aus
Sicht der Unternehmenspraxis oft
unbefriedigend, denn auf diesem
Weg kann nur ein kleinerer Teil des
Gesamtbeschaffungsvolumens
abgedeckt werden. Weitergehende
Verhandlungsfunktionalitäten, die
gleichzeitiges Verhandeln mehrerer
Vertrags- oder Produktattribute
ermöglichen, werden vermisst. Die
im Unternehmensbereich anzutref-
fenden Beschaffungsentscheidun-
gen lassen sich in den meisten
Branchen nur in der geringeren
Zahl der Fälle auf reine Preisent-
scheidungen reduzieren. Dies
bedeutet, dass elektronische
Anwendungen zur Unterstützung
realer Verhandlungen die Aushand-
lung multipler Attribute erlauben
müssen, um in grösserem Umfang
praxistauglich sein zu können. Bei-
spielhafte Einsatzgebiete sind Reali-
sierungen komplexer Verhand-
lungsformen wie konfigurierbare
und semistrukturierte Produkte,
beispielsweise in der IT- (Informati-
onstechnologie-), der Automobil-,
der Chemie- oder der Nahrungs-
und Genussmittelindustrie oder
Rahmenverträge und Dienstleis-
tungsverträge aller Art, sowie Ver-
träge über kombinierte Güter- und
Dienstleistungsbündel, wie etwa in
der IT-Branche (Hardware, Softwa-
re, Services) oder im Maschinen-
und Anlagenbau. Dabei sind im
Unternehmensbereich bilaterale
Verhandlungen der Normalfall, häu-
fig sogar parallele bilaterale Ver-
handlungen gleichen Inhalts mit
mehreren Geschäftspartnern
gleichzeitig.
Entsprechende Anwendungs-
komponenten zur elektronischen
Unterstützung solcher interaktiver
bilateraler multiattributiver Ver-
handlungen in einem interorganisa-
tionalen Kontext wurden bereits im
Vorgängerprojekt MultiNeg erfolg-
reich untersucht und konzipiert.
Details hierzu können im Quer-
schnitt 2003 nachgelesen werden.
Die entwickelte Plattform beruht auf
einer dezentralen, offenen Architek-
tur und bildet ein generisches
Anwendungsmodell elektronischer
Verhandlungen ab, das, im Unter-
schied zu der Großzahl vorliegen-
der Ansätze [etwa Addis, Allen,
Surridge (2000); Collins, Tsvetova-
tyy, Mobasher (1998); Teuteberg,
Kurbel (2002); van Heck, Ribbers
(1998)], nicht auf bestimmte Bran-
chen oder Unternehmenstypen
zugeschnitten ist. Eine der haupt-
sächlichen Herausforderungen, die
sich während der Projektlaufzeit
heraus stellte, ist der Umgang mit
semantischer Vielfalt. Aufgrund
ihres Umfangs und ihrer Komplexi-
tät wird diese Fragestellung in dem
hier vorgestellten eigenständigen
Projekt SemaVar bearbeitet.
Semantische Vielfalt
In der heutigen Welt der offenen
elektronischen Anwendungen und
Standards ist die Frage der Behand-
lung unterschiedlicher Semantiken,
insbesondere unterschiedlicher,
aber zeitgleich genutzter Klassifi-
zierungen, Taxonomien und Daten-
formalisierungen, von entscheiden-
der Bedeutung [OntoWeb (2003)].
Aktuell sind bereits zahlreiche Stan-
dards im Bereich des E-Business im
Einsatz sowie neue in Entwicklung.
Diese E-Business-Standards sind
hierbei als Domain-Ontologien zu
verstehen und können Dokumen-
tenstandards, Produkttaxonomien
oder Geschäftsprozessmuster sein,
die sowohl inhaltliche als auch
methodische Unterschiede aufwei-
sen. Da diese Standards aber
gleichzeitig nebeneinander inner-
halb elektronischer Kollaborations-
verbünde auf elektronischen Märk-
ten genutzt werden, behindert die
sich daraus ergebende semanti-
sche Vielfalt derzeit die Verwirkli-
chung durchgängig elektronischer
Geschäftsabwicklung.
Bekannt ist, dass semantische
Harmonisierung durch technische
Standards oder syntaktische Vorga-
ben allein nicht zu erreichen ist. Ein
allgemeiner syntaktischer Standard
wie XML [W3C (2002)] reicht zur
Lösung des Problems nicht aus.
Konzeptionell wird daher die
Bedeutung der Behandlung unter-
schiedlicher Ontologien im Sinne
semantischer Bezugssysteme für
109Querschnitt Juli 2004
elektronische Kollaborationen
bereits seit einiger Zeit diskutiert
[Gruber (1992); Domingue (1998);
Tennison, Shadbolt (1998)]. Erst
in jüngerer Zeit haben sich eine
Reihe von Initiativen und Konsortien
zusammengefunden, die diese Her-
ausforderung aus teilweise unter-
schiedlichen Richtungen angehen;
so die Projekte UDDI [UDDI (2003)],
ebXML [ebXML Business Process
Team (2003)], Biztalk [Microsoft
(2003)], xCBL [xCBL (2003)],
BMEcat [Schmitz, Kelkar (2001)]
oder e-cl@ss [eCl@ss (2003)].
Sollen die in diesen Projekten
er arbeiteten Ontologien oder
Taxonomien in breitem Umfang
mit- und nebeneinander verwendet
werden, so werden Anwendungs-
realisierungen zur Harmonisierung
dieser Bezugssysteme notwendig.
Die Abbildungen 1 und 2 verdeut-
lichen die Problematik.
Regelmäßig angestrebtes Ziel im
Umgang mit semantischen Bezugs-
systemen ist die Erarbeitung und
Durchsetzung eines universellen
Standards. Dieses Ziel hat sich
jedoch in der Vergangenheit immer
wieder als letztlich nicht realisier-
bar erwiesen, wie beispielsweise
die nach wie vor konkurrierenden
EDI-Standards EDIFACT und ANSI
X.12 oder die oben genannten, kon-
kurrierenden Initiativen großer
Softwareunternehmen.
Forschungskonzept
Im Unterschied zu den oben
erwähnten Initiativen verfolgt das
Forschungsprojekt SemaVar den
Ansatz, Methoden zu konzipieren,
die ein dauerhaftes Nebeneinander
unterschiedlicher Standards erlau-
ben, ohne dass dadurch der elek-
tronische Geschäftsverkehr be-
hindert oder dem individuellen
Benutzer Spezialkenntnisse abver-
langt würden. Diese Zielsetzung
wird wenig verfolgt und verschafft
dem Projekt und seinen Ergebnis-
sen auf längere Dauer nahezu eine
Alleinstellung.
Aufbauend auf den Ergebnissen
des oben beschriebenen For-
schungsprojekts MultiNeg und
anderer Vorläuferprojekte der Pro-
jektpartner wird dies den bisher
fehlenden, anwendungslogisch
aber notwendigen nächster Schritt
auf dem Weg zu einer integrierten
informatorischen Prozesskette des
elektronischen Geschäftsverkehrs
ermöglichen. Dazu werden techno-
logische Grundlagen recherchiert,
die Semantik betrieblicher Transak-
tionen, insbesondere Verhandlun-
gen, konzeptionell durchdrungen
sowie eine empirische Erhebung
und Systematisierung der auf
elektronischen Marktplätzen ein-
gesetzten E-Business-Standards
durchgeführt, wobei sowohl exis-
tente als auch emergente Standards
Berücksichtigung finden.
Projektpartner
Das Projekt wird in Partnerschaft
mit dem Fraunhofer Institut für
Sichere Telekooperation in Darm-
stadt durchgeführt. Darüber hinaus
Abbildung 1: Nachrichten mit gemeinsamen Bezugssystem
Abbildung 2: Nachrichten mit unterschiedlichen Bezugssystemen
Semantik
Syntax
Inhalt
Verhandlungs-
semantik
Verhandlungs-
syntax
Angebot
Partner 1
Angebot
Partner 2
Semantik
Syntax
Inhalt
Verhandlungs-
semantik A
Verhandlungs-
syntax A
Angebot
Partner 1
Verhandlungs-
semantik B
Verhandlungs-
syntax B
Angebot
Partner 2
Bezug
her-
stellen
110
sind die folgenden Industriepartner
beteiligt:
SupplyOn AG (elektronischer
Marktplatzbetreiber)
i-markets GmbH (elektronischer
Marktplatzbetreiber)
EMB AG (Softwarepartner)
Axentiv AG (Beratungspartner)
Krombacher Brauerei (Anwen-
derunternehmen Electronic
Procurement)
Literatur
Addis, Matthew; Allen, P.; Surridge,
M. (2000): Negotiating for Soft-
ware Services. In: Tjoa, A.M. et
al. (Hrsg.): Proceedings of the
11th International Workshop on
Database and Expert Systems
Applications. IEEE Computer
Society, Los Alamitos, CA 2000,
S. 1039–1043.
Collins, John; Tsvetovatyy, Mak-
sim; Mobasher, Bamshad et al.
(1998): MAGNET: A Multi-Agent
Contracting System for Plan
Execution. In: Proceedings of
Workshop on Artificial Intelli-
gence and Manufacturing: State
of the Art and State of Practice,
August 1998, S. 63–68.
Domingue, John (1998): Tadzebao
and Webonto: Discussing,
Browsing, and Editing Onto-
logies on the Web. http:
//kmi.open.ac.uk/people/
domingue/banff98-paper/
domingue.html. 23.05.2001
ebXML Business Process Team
(2003): Business Process Spe-
cification Schema, Version 1.01.
http://www.ebxml.org/specs/
ebBPSS.pdf. 26.10.2003
eCl@ss-Konsortium (2003):
eCl@ss White Paper Version
0.6. http://www.eclass-online.de/
informationen/download/eClass
WhitePaper06.doc. 26.10.2003
Gruber, Thomas R. (1992): Onto-
lingua: A Mechanism to Support
Portable Ontologies, Technical
Report KSL-91–66 (Final revision
June 92), Knowledge Systems
Laboratory, Stanford University.
ftp://ksl.stanford.edu/pub/
KSL_Reports/./KSL-91–66.ps.gz.
23.05.2001
Microsoft Corporation (2003): Biz-
Talk Framework 2.0: Document
and Message Specification.
http://www.microsoft.com/
biztalk/techinfo/BizTalkFrame
work20.doc. 26.10.2003
OntoWeb Network (2003):
Summary of Proposal. http:
//ontoweb.aifb.uni-karlsruhe.de/
About/SummaryOfProposal
26.11.2003
Schmitz, Volker; Kelkar, Oliver;
Pastoors, Thorsten et al. (2001):
Spezifikation BMEcat Version
1.2. http://www.bmecat.org.
26.10.2003
Tennison, Jenifer; Shadbolt, Nigel
R. (1998): APECKS: A Tool to
Support Living Ontologies. http:
//ksi.cpsc.ucalgary.ca/KAW/
KAW98/tennison/. 23.05.2001
Teuteberg, Frank; Kurbel, K. (2002):
Simulation des Agentenverhal-
tens auf einem elektronischen
Marktplatz zur Personalakquisiti-
on. In: Weinhardt, Christof; Holt-
mann, C. (Hrsg.): E-Commerce.
Netze - Märkte - Technologien.
Physica, Heidelberg 2002, S.
253–271.
UDDI (2003): UDDI Executive White
Paper. http://www.uddi.org/
whitepapers.html 26.11.2003
van Heck, Eric; Ribbers, Pieter M.
(1998): Introducing electronic
auction systems in the dutch flo-
wer industry – a comparsion of
two initiatives. In: Wirtschaftsin-
formatik 40 (1998) 3, S. 223–231.
World Wide Web Consortium
(2002): W3C XML Schema. http:
//www.w3.org/XML/Schema.
10.10.2002
xCBL.org (2003): xCBL.org XML
Common Business Library. http:
//www.xcbl.org/. 26.10.2003
Weiterführende Literatur
Rebstock, Michael; Fengel, Janina
(2003): Integrierte elektronische
Verhandlungsprozesse auf
Basis von ebXML und Web
Services. In: HMD Praxis der
Wirtschaftsinformatik, No. 234,
pp. 52–60.
Rebstock, Michael; Lipp, M. (2003):
Implementierung von Kommu-
nikationsdiensten zur Kopplung
einer Verhandlungsanwendung
an elektronische Marktplätze
und ERP-Systeme. In: Uhr;
Esswein; Schoop (eds.): Wirt-
schaftsinformatik 2003. Medien
Märkte Mobilität, Band 1,
Heidelberg, pp. 345–364.
Rebstock, Michael; Thun, P.; Amir-
hamzeh Tafreschi, O. (2003):
Supporting Interactive Multi-
Attribute Electronic Negotiations
with ebXML. In: Group Decision
and Negotiation 12, No. 4, pp.
269–286.
Rebstock, Michael; Lipp, M. (2003):
Webservices zur Integration
interaktiver elektronischer Ver-
handlungen in elektronischen
Marktplätzen. In: Wirtschaftsin-
formatik 45, No. 3, pp. 293–306.
Rebstock, Michael (2003): Automa-
tion Options in Multi-Attribute
Business-to-Business Electronic
Negotiations (Abstract).
In: Euro / Informs Joint Interna-
tional Meeting 2003 CD-ROM
Abstracts, Bogaziçi University
Istanbul, p. 101.
Rebstock, Michael (2003): For-
schungsprojekt MultiNeg
- Anwendungskomponenten für
elektronische Verhandlungen.
In: Querschnitt. Beiträge aus
Forschung und Entwicklung
der Fachhochschule Darmstadt
111Querschnitt Juli 2004
- University of Applied Sciences
17, pp. 18-26.
Rebstock, Michael; Thun, P. (2003):
Interactive Multi-Attribute Elec-
tronic Negotiations in the Sup-
ply Chain: Design Issues and
an Application Prototype. In:
Sprague, R.H. (ed.): Proceedings
of the 36th Annual Hawaii Inter-
national Conference on Systems
Sciences. Los Alamitos, CA 2003.
Thun, Philipp; Rebstock, M. (2003):
Developing a Generic Concept
of an Electronic Negotiation
Process with ebXML, in: Aksit,
M.; Mezini, M.; Unland, R. (eds.):
Objects, Components, Architec-
tures, Services, and Applications
for a Networked World. LNCS
2591. Berlin/ Heidelberg/ New
York etc.: Springer, pp. 199-215.
Thun, Philipp; Rebstock, M. (2002):
Generische Konzeption eines
Verhandlungsprozesses in
ebXML. In: Dittmar, T./ Franc-
zyk, B./ Hofmann, R. et al. (eds.):
Tagungsband Net.ObjectDays
2002. Ilmenau, pp. 205-218.
Rebstock, Michael; Amirhamzeh
Tafreschi, O. (2002): Secure
Interactive Electronic Negoti-
ations in Business-to-Business
Marketplaces. In: Wrycza,
Stanislaw (ed.): Proceedings of
the Xth European Conference on
Information Systems (ECIS2002).
Gdansk, pp. 564-572.
Dipl.-Ing. (FH) Astrid Bischoff,
Prof. Dr.-Ing. Reiner
Wackermann
Fachbereich Bauingenieur-
wesen
Wasserknappheit auf Mittel-
meerinseln – Randbedingungen
und Möglichkeiten der nach-
haltigen Wasserbewirtschaf-
tung in (semi)ariden Regionen
am Beispiel der Kykladeninsel
Mykonos
„Auf einem Planeten dessen
Oberfläche zu mehr als 2/3 aus
Wasser besteht kann die Illusion
des Überflusses den Blick auf die
Realität leicht verschleiern, die
darin besteht, dass brauchbares
erneuerbares Süßwasser eine
zunehmend knappe Ressource
für immer größere Teile der
Bevölkerung wird.“ [1]
Die Übernutzung der Süßwas-
servorräte und deren Verschmut-
zung haben sich in vielen Regionen
weltweit inzwischen zu einem
gravierenden Problem ausgeweitet.
Auch auf den Mittelmeerinseln ist
Wasser zu der kritischsten, die
soziale und wirtschaftliche Ent-
wicklung limitierende, Ressource
geworden. Vielerorts ist die Nach-
frage nach Wasser heute bereits
größer als das Wasserangebot und
wird voraussichtlich noch steigen.
Die Einsicht in die Notwendigkeit
ihrer integrierten, zielgerichteten
und nachhaltigen Bewirtschaftung ist
mittlerweile zum Konsens unter den
politischen Entscheidungs trägern
geworden. Aus verschiedenen
regionalen und internationalen Kon-
gressen und Konferenzen sind eine
Reihe von Leitlinien und Aktions-
programmen sowie neuen Organi-
sationen und Netzwerken zu dieser
Thematik hervorgegangen.
Zur näheren Betrachtung des
Problems wurde die zu den grie-
chischen Kykladen zählende Insel
Mykonos ausgewählt (Abbildung 1).
Die chronologische Entwicklung ihrer
Wasserversorgungssysteme und ihre
wasserwirtschaftlichen Randbedin-
gungen stehen beispielhaft für viele
andere Mittelmeerinseln.
Sie sind gekennzeichnet durch
ein (semi-)arides Klima mit hoher
zeitlicher und räumlicher Variabili-
tät der Niederschläge und starken
saisonalen Wasserbedarfsschwan-
kungen, hervorgerufen durch eine
zeitgleiche Wasserbedarfsspitze der
Tourismusindustrie und der Land-
wirtschaft in den Sommermonaten.
Die daraus resultierenden Versor-
gungsengpässe wurden ausgegli-
chen durch eine Steigerung der
Wasserangebotsmenge, gewonnen
in erster Linie aus Grund- und Ober-
flächenwasserentnahmen. Als diese
Quellen die Grenzen ihrer Belast-
barkeit erreichten, und es durch die
Abbildung 1: Insel Mykonos Siedlung Ano Mera
112
enormen Eingriffe in das natürliche
Wasserkreislaufsystem zu Qualitäts-
verschlechterungen des Wassers
kam, wurde die Strategie der Ange-
botssteigerung durch Fernwasser-
versorgung (Tankschiffe) und den
Einsatz von aufwendigen Meerwas-
serentsalzungsanlagen fortgesetzt.
Die häufig überdimen sionierten
Versorgungsprojekte führten einer-
seits zu einer Verschärfung der
negativen Umwelteinflüsse (z.B.
Energieverbrauch) und ließen
andererseits die Wasserbedürfnis-
se weiter ansteigen.
Zustandsbeschreibung
Die Bevölkerungsdichte auf den
Mittelmeerinseln ist doppelt so
hoch ist wie in den übrigen Mittel-
meerregionen. Hinzu kommt ein
hohes Tourismusaufkommen vor
allem in den Sommermonaten Juli
und August, welches den Trend zu
einer Bevölkerungskonzentration in
den Küstengebieten noch verstärkt.
Jährlich besuchen bis zu 500.000
Feriengäste die Insel Mykonos mit
einer durchschnittlichen Aufent-
haltsdauer von zehn Tagen. Wäh-
rend der Hochsaison kann sich
dadurch die Einwohnerzahl ver-
fünffachen.
Das Mittelmeergebiet liegt in
der Zone der warmgemäßigten
Subtropen. Die mediterrane Region
der Subtropen wird als Mittelmeer-
klima und als Gebiet mit milden
feuchten Wintern und trockenen,
heißen Sommern und kurzen Über-
gangsperioden im Frühjahr und
Herbst ausgewiesen. Die durch-
schnittliche jährliche Nieder-
schlagshöhe auf Mykonos beträgt
466mm. Während der nassen
Jahreszeit von Oktober bis April
fallen in der Regel 90 % der
Niederschläge; fast ausschließlich
als Regen. Zusätzlich zu diesen
erheblichen Schwankungen in
der jährlichen Niederschlagsver-
teilung tritt nach empirischen
Ermittlungen alle zehn Jahre eine
mehrjährige Trockenperiode auf.
In den letzten Jahren erhöhte sich
diese Frequenz [2].
Bei den Mittelmeerinseln handelt
es sich um verletzliche Ökosyste-
me. Jede Insel stellt ein eigenständi-
ges hydrologisches System dar, mit
seinen eigenen Besonderheiten und
spezifischen Problemen, die von
denen auf dem Festland ab weichen:
Großräumiger Wassertransfer
von einem Einzugsgebiet ins
andere ist kaum möglich.
Permanente Wasserläufe sind
sehr selten besonders auf klei-
nen Inseln, meist führen die
Flussbette nur im Winter Wasser.
Meerwasserintrusion. Der
Grundwasserkörper kleiner
Inseln hat oftmals Schnittstel-
len mit dem Meerwasser. Dies
macht ihre Bewirtschaftung
sehr kompliziert. Übersteigt
die Entnahmemenge die der
Grundwasserneubildung, kann
Meerwasser in den Grundwas-
serleiter eindringen.
Wird Süßwasser mit lediglich 2 %
Meerwasser vermischt, so ist es als
Trinkwasser bereits unbrauchbar. Bei
einer Vermischung von Süßwasser
Abbildung 2: Jährliches Wasserdargebot auf Mykonos
Verdunstung:
29 Mio m3
(72,67%)
Versickerung:
1 Mio m3
(2,3%) Entnahme aus Brunnen:
ca. 0,5 Mio m3
Niederschlag:
40 Mio m3
(100%)Oberfl chen-
abfluss:
10 Mio m3
(24,83%)
Entnahme aus
Oberfl chenspeicher:
2 x 0,6 Mio m3
Nutzbare Wassermenge
aus Niederschlag: 1,7 Mio m3
113Querschnitt Juli 2004
mit 5% Meerwasser ist das Wasser
auch zur Bewässerung nicht mehr
verwendbar, ausgenommen für spe-
zielle salzresistente Pflanzen [2]. Die
Auswirkungen auf einen betroffenen
Grundwasserkörper sind, zumindest
auf absehbare Zeit, irreversibel.
Auf Mykonos gibt es keine
Flüsse, die ganzjährig Wasser
führen, aber einige saisonale
Wasserläufe. Falls nicht andere
Maßnahmen ergriffen werden (z.B.
Meerwasserentsalzung) bestimmt
die Niederschlagsmenge und ihre
Speicherungsmöglichkeiten die zur
Verfügung stehende Trinkwasser-
menge. Daher ist die Grundwasser-
anreicherung oder die Vorhaltung
von Regenwasserreservoirs, die
die Niederschläge der Wintermo-
nate auffangen, für die Wasserver-
sorgung von größter Bedeutung.
Der größte Teil des Untergrundes
auf Mykonos besteht aus Granit.
Granit als Festgestein hat im All-
gemeinen einen durchflusswirksa-
men Hohlraumanteil von 0–0,2 %
[3], von wasserwirtschaftlicher
Bedeutung ist nur das Kluftwasser.
Einen zusammenhängenden Grund-
wasserkörper gibt es auf der Insel
nicht. Die oberen Schichten des
Gesteins wurden durch Verwitte-
rung und Erosion abgetragen und
sammeln sich als Lockergestein
in den verschiedenen Wasser-
laufmündungen nahe der Küste.
Dadurch sind kleine Becken mit
porösen Grundwasserleitern ent-
standen. In der südlichen und
südwestlichen Region der Insel
wurden einige Grundwasserkör-
per überbeansprucht, so dass es
durch das Absinken des Süßwas-
serspiegels zu Problemen durch
Meerwasserintrusion gekommen
ist. Auch Brunnen mit größerer Ent-
fernung zum Meer weisen hier zum
Teil hohe Salzgehalte auf [4]. Hier
finden sich auch Bohrbrunnen mit
einer Tiefe von über 100m.
Ein großer Teil der Niederschlä-
ge geht direkt als Oberflächenab-
fluss ans Meer verloren (Abbildung
2), dieser Verlust ist besonders
hoch auf Inseln mit fortgeschrittener
Erosion. Überweidung, Waldbrän-
de, zunehmende Flächenversiege-
lung und nicht angepasste Land-
wirtschaft sind Faktoren, die den
Erosionsprozess begünstigen.
Der Wasserbedarf (Abbildung
3) im Tourismusbereich sowie in
der Landwirtschaft unterliegt star-
ken saisonalen Schwankungen.
Ihren Spitzenbedarf haben beide
während der Sommermonate Juli
und August; dies ist gleichzeitig
der Zeitraum in dem nahezu kein
Niederschlag fällt. Diese zeitweise
hohe Belastung der Ressource kann
zu Nutzungskonflikten führen. Infol-
ge des bereits zurzeit bestehenden
hohen Ausnutzungsgrades vorhan-
dener Wasserressourcen steigt
die Empfindlichkeit der Wasser-
versorgungssicherheit gegenüber
Trockenperioden weiter an.
Erst seit den neunziger Jah-
ren werden Kriterien diskutiert,
an Hand derer eine nachhaltige
Wasserwirtschaftsplanung erar-
beitet werden soll, die zum Ziel
hat, das Gleichgewicht zwischen
Abbildung 3: Jährlicher Wasserverbrauch auf Mykonos (* vorwiegend in den Sommermonaten)
Einwohner und Saisonarbeiter:
0,515 Mio m3
Touristen*:
0,465 Mio m3
Landwirtschaft*:
1,5 Mio m3
Wasserverbrauch:
2,4 Mio m3
114
erneuerbarem Wasserdargebot
und Wasserentnahme herzustellen,
ohne das Ökosystem langfristig
zu schädigen. Daraus lassen sich
Handlungsoptionen im Rahmen
einer integrierten Wasserkreislauf-
bewirtschaftung, unter Einbezie-
hung aller das System betreffender
technischer, sozioökonomischer
und ökologischer Aspekte, ableiten.
Alle Mittelmeerinseln haben die
Ausnutzung ihrer Grundwasser-
ressourcen vollständig und fast alle
Inseln haben auch ihre Oberflä-
chengewässer, durch den Bau von
Staudämmen nahezu vollständig
ausgeschöpft [5].
In den neunziger Jahren kam es
auf Mykonos zu verstärkten
Anstrengungen, in Form von kurz-
fristigem Krisenmanagement, die
Wasserversorgungssituation regio-
nal abzusichern. Großprojekte wie
der Bau von zwei Talsperren mit
einem Speichervolumen von vier
Mio. m3 und die Erweiterung der
Meerwasserentsalzungsanlage ent-
standen in diesem Zeitraum. Infolge
der immer weiter steigenden
Anzahl der Touristen, die eine hohe
saisonale Belastung für die Wasser-
wirtschaft darstellen, kam es in den
letzten Jahrzehnten immer häufiger
zu Versorgungsengpässen. Die
Insel war abhängig von teuren
Wasserferntransporten durch
Tankschiffe, um die sommerlichen
Wasserbedarfsspitzen abzudecken.
Vor allem in den, in unregelmäßi-
gen Abständen wiederkehrenden,
zum Teil mehrjährigen Dürre-
perioden stiegen die Versorgungs-
kosten extrem in die Höhe. Auch
die Grundwasserkörper haben
unter dem steigenden Wasserbe-
darf gelitten (z.B. durch Meer-
wasser intrusion). Das Wasserwirt-
schaftsproblem kann deswegen
noch nicht als gelöst betrachtet
werden.
Betrachtung des Wasserver-
sorgungssystem auf Mykonos
unter dem Aspekt der Nach-
haltigkeit
Mit dem Betrieb einer Meer-
wasserentsalzungsanlage wird
eine gute Anpassung an die Wasser-
bedarfsschwankungen erreicht.
Durch die Nutzung der in unbe-
grenztem Maße zur Verfügung
stehenden Ressource Meerwasser
werden die Süßwasservorräte
der Insel geschont. Die Anlage
produziert unter hohen Betriebs-
kosten (Energiekosten, Kosten
für Filtermembranen) hochquali-
tatives Trinkwasser. Die Nutzung
dieses Wassers zu Zwecken, für
die auch Wasser von niedrigerer
Qualität ausreichend wäre, ent-
spricht nicht dem Gebot des
sparsamen Umgangs mit Wasser
und Energie. Die hohen Produk-
tionskosten werden durch den
jetzigen Wasserpreis nicht ab -
gedeckt.
Mit der Wasserspeicherung
in zwei Stauseen wird Oberflä-
chenwasser für den menschlichen
Gebrauch und als Anreicherung für
den Grundwasserkörper nutzbar
gemacht, das andernfalls durch
Abfluss ins Meer verloren gehen
würde. Da die Wasserläufe auf
Mykonos im Sommer so gut wie
kein Wasser führen, ist der Eingriff
in die Durchgängigkeit des öko-
logischen Abflusssystems nicht so
hoch wie bei Talsperren in anderen
Klimagebieten.
Die Verluste durch Verdunstung
sind sehr hoch. Mehr Wasser als
dem See zur Nutzung entnommen
werden kann, geht durch Verduns-
tung verloren [6]. Eine Sicherheit
gegen vollständiges Trockenfallen
des Sees ist nicht gegeben. Die
Wasserversorgung wird dadurch
verletzlich gegenüber längeren
Trockenperioden.
Brunnen werden von der kom-
munale Wasserversorgung nicht
mehr betrieben. Der Grundwas-
serkörper wird aber noch durch
ungeregelte Entnahmen aus pri-
vaten Brunnen erheblich belastet.
Wasserchemische Untersuchun-
gen an verschiedenen Bohr- und
Schachtbrunnen der Insel ergaben
in sehr vielen Fällen eine Über-
schreitung der, nach der aktuellen
Trinkwasserverordnung gültigen,
zulässigen Grenzwerte. Darüber
hinaus wurden bei Brunnen in der
Nähe von Siedlungsgebieten ohne
geregelte Abwasserentsorgung
mikrobiologische Verunreinigun-
gen des Grundwassers festgestellt.
Einer weiteren Verschlechterung
der Grundwasserqualität durch
Schadstoffeinträge und Überbe-
anspruchung ist in jedem Fall vor-
zubeugen. Dies könnte durch eine
Entnahmebeschränkung und einer
Grundwasserentnahmeabgabe
verwirklicht werden. Vorausset-
zung dafür ist das Vorliegen von
genauen Forschungsergebnissen
über die jeweilige Grundwasser-
neubildung und eine Ausstattung
aller privaten Brunnen mit Wasser-
zählern, um sicherzustellen, dass
nicht mehr Wasser entnommen
wird als es der Grundwasserneu-
bildungsmenge entspricht. Außer-
dem sollten bei Brunnen, die auch
zur Trinkwasserversorgung genutzt
werden, Wasserschutzgebiete
festgelegt werden. Bei der jetzigen
Situation ist für die Einwohner, die
durch Tanklastwagen mit Wasser
aus Brunnen beliefert werden, eine
Gesundheitsgefährdung durch che-
mische und/oder mikrobiologische
Wasserbelastungen nicht auszu-
schließen.
Die gestaffelte Wasserpreis-
politik auf Mykonos (je niedriger
der Verbrauch, desto geringer
der Preis pro m3) schafft Anreize
116
zum sparsamen Umgang mit der
Ressource Wasser, deckt aber bei
weitem nicht die Unkosten, die für
die Ver- und Entsorgung entstehen.
Durch eine Anhebung der Preise
würde die finanzielle Attraktivität
von Investitionen in alternative
Versorgungsmöglichkeiten und
Wassereinspartechnologien stei-
gen.
Die bisherige Herangehens-
weise an Wasserversorgungspro-
blemen hat sich immer an dem
steigenden Verbrauch orientiert,
der Versuch eines Wasserbe-
darfsmanagements ist nur in
Ansätzen vorhanden (gestaffelte
Wasserpreispolitik, einige recht-
liche Vorgaben zur sparsamen
Verwendung von Wasser). Die-
ser prinzipiell andere Ansatz der
Beeinflussung der Nachfrage, statt
einer Beein flussung des Angebots
ist ein konsequenter Ausdruck des
Ressourcenminimierungsprinzips
und sollte in Zukunft auch in ande-
ren Bereichen der Wassermengen-
wirtschaft angewendet werden, um
das Leitbild der Nachhaltigkeit zu
verwirklichen [7].
Empfehlungen zur Reduzierung
des Wasserverbrauchs (Was-
serbedarfsmanagement) und
zur Effektivitätssteigerung der
Wasserwirtschaft
Förderung der Umstellung auf
bzw. Verpflichtung bei Neu-
bauten zum Einbau von wasser-
sparenden Armaturen und
Sanitäreinrichtungen (berüh-
rungslos schaltende Armaturen,
Ein handmischer, Sparspülung
bei Toiletten, Vakuum-, Kom-
posttoiletten).
Differenzierung der Wassernut-
zung nach Qualitätsanforderun-
gen (Meerwasser zur Befüllung
von Swimmingpools, Brauch-
wasser für die Raumreinigung).
Anpassung der landwirtschaft-
lichen Anbauweise und Anbau-
kulturen an die Klimabedin-
gungen (Terrassenwirtschaft,
Kultivierung salzunempfindlicher
Pflanzen).
Modernisierung der Bewäs-
serungssysteme (Tröpfchen-
bewässerung).
Einrichtung von Wasserzählern
an allen Entnahmestellen des
öffentlichen Versorgungsnetzes
sowie der privaten Wasserge-
winnung (private Haushalte,
öffentliche Einrichtungen,
private Brunnen).
Ausnutzung rechtlicher Instru-
mente zur Vermeidung von
Wasserverschwendungen und
-verschmutzungen (Ahndung
bei Fällen rechtswidriger Was-
sernutzung, Verursacherprinzip,
der Verschmutzer zahlt, Verbot
von „absorbierenden“ Klär-
gruben).
Ausweisung von Wasserschutz-
gebieten im Bereich der Stau-
seen (Nutzungseinschränkun-
gen).
Anhebung der Wasserpreise
zur Deckung der tatsächlich
entstehenden Kosten für die
Wasserver- und entsorgung,
einschließlich der Unterhaltungs-
kosten und der langfristigen
Umweltkosten (umfassende
Aufstellung eines Finanzierungs-
planes unter Berücksichtigung
der Sozialverträglichkeit, Bei-
behaltung der Preisstaffelung).
Öffentlichkeitsarbeit zum
Erreichen eines bewussteren
Umgangs mit der wertvollen
und knappen Ressource Wasser
(Wassersparkampagnen – wie
z.B.: „adjust your water beha-
viour to the season“ eine Pla-
katkampagne von MIO-ECSDE
Athen[8]) –, Unterrichtseinheiten
in Schulen zum Thema Wasser).
Reduzierung der Wasserver luste
im Versorgungsnetz (Erneue-
rung alter Leitungen).
Mehrfachnutzung von Wasser
(Wasserkreislaufführung, Wie-
derverwendung von gereinig-
tem Abwasser).
Förderung von Grauwasser-
recyclinganlagen (z.B. Hotels,
die bislang ihr Abwasser in
hauseigenen Kläranlagen –Mehr-
kammergruben – gereinigt
haben, erhalten eine Förderung
zum Bau einer Pflanzenkläran-
lage).
Förderung der Wiederinbe-
triebnahme bzw. Verpflichtung
bei Neubauten zum Einbau von
Regenwassernutzungseinrich-
tungen (traditionelle Dachre-
genwassersammelsysteme mit
moderner Technologie erwei-
tern – Filter, Steuerung –).
Ausbau eines doppelten Lei-
tungssystems (landwirtschaft-
liche Bewässerungsleitungen
weiter ausbauen, bei Neubau-
ten standardmäßig Trink- und
Brauchwasserleitungen trennen).
Maßnahmen zur Verzögerung
des Oberflächenabflusses
(Restaurierung der Terrassen-
wirtschaft und der Trockenfeld-
mauern).
Erweiterung der Datengrund-
lage, die nötig ist um präzise
Aussagen zu den natürlichen
Wasserkreisläufen zu treffen
(Erforschung der hydrogeolo-
gischen, meteorologischen und
ökologischen Zusammenhänge).
Vorschlag eines Pilotprojektes
Die Umsetzung eines Pilotprojektes
ist ein gut geeignetes Mittel, um
die Akzeptanz von neu einzufüh-
renden Technologien zu fördern.
Dabei kann durch alternative Was-
server- und -entsorgungssysteme
erprobt werden, ob sich, die in
117Querschnitt Juli 2004
anderen Gegenden bereits erwie-
sene Durchführbarkeit, auch an die
ökologischen, ökonomischen und
sozialen Bedingungen von Mykonos
anpassen lassen. Dafür wurde ein
Projektgebiet ausgewählt, in dem
sowohl der Tourismussektor als
auch die Landwirtschaft und die
privaten Haushalte als Wassernut-
zer vorhanden sind. Es befinden
sich dort nördlich des Stausees
landwirtschaftliche Flächen, an der
Küste einige Ferienhäuser, pri-
vat vermietete Zimmer und zwei
kleine Hotels sowie einige private
zerstreut liegende Häuser. Der
Norden der Insel ist vom Massen-
tourismus weniger betroffen als die
überlaufene Südküste. Das bietet
die Möglichkeit, Konzepte des öko-
logisch orientierten Tourismus hier
einzuführen.
Das Gebiet ist weder an das
öffentliche Wasserversorgungs-
(leitungs)netz angeschlossen, noch
an das der Wasserentsorgung.
Die Anlieger werden zur Zeit durch
Tanklastwagen mit Wasser belie-
fert, das in hauseigenen Zisternen
gespeichert wird. Als Trinkwasser
wird Wasser aus Plastikflaschen
verwendet. Das Abwasser wird
in den hauseigenen Klärgruben
gesammelt, regelmäßig abge-
pumpt und in die Zentralkläranlage
transportiert.
Der größte Wasserverbrauch
findet in der landwirtschaftlichen
Bewässerung statt (auf ägäischen
Inseln macht das 68 % des Gesamt-
verbrauchs aus, zum Vergleich in
Deutschland 3 % [9]). Hier können
folglich mengenmäßig die größten
Einsparungen erzielt werden. Es
gibt Schätzungen, die aussagen,
dass eine Reduzierung des Was-
serverbrauchs in der Bewässerung
um einige Prozent, den Wasser-
bedarfsanstieg aller übrigen Sek-
toren abdecken könnte [10]. Die
Einsparmaßnahmen sollten auch
hier auf zwei Ebenen ablaufen. Als
oberste Priorität wird eine Senkung
des Wasserbedarfs angestrebt; die
Möglichkeiten, die ohne Ertrags-
einbußen durchführbar sind, sind
hier schon sehr vielseitig. Als
nächstes muss versucht werden die
Effektivität, der noch notwendigen
Be wässerungssysteme zu steigern.
Nach diesen Maßstäben wird
der landwirtschaftliche Sektor des
Projektes betrachtet:
Trockenfeldbau
Diese Art der Anpassung basiert
auf dem Klima (Trockenheit im
Sommer und eine kurze aber
intensive Regenzeit im Win-
ter). Es werden Feldkulturen
bevorzugt, die wenig Wasser
brauchen und eine kurze Wachs-
tumsphase haben (z.B. Weizen
und Gerste). Die Aussaat erfolgt
im Herbstregen und im Früh-
sommer wird geerntet. Außer-
dem stellt die Empfindlichkeit
gegenüber salzhaltigem Wasser
ein Entscheidungskriterium dar.
Gerste ist auf Mykonos eine
Kulturpflanze mit langer Tradi-
tion. Aufgrund ihrer Anspruchs-
losigkeit wird sie schon seit Jahr-
hunderten angebaut [9].
Baum- und Strauchkulturen
Die zweite Anpassungsform
stellen die Baum- und Strauch-
kulturen mit tiefliegenden Wur-
zeln dar. Sie können während
der Dürrezeit die Wasserre-
serven der Regenzeit mit ihren
118
langen Wurzeln noch erreichen.
Beispiele sind die Weinkultu-
ren und Olivenbäume, die sich
außerdem noch durch dicke
Blätter vor der Austrocknung
schützen.
extensive Weidewirtschaft
Die Viehwirtschaft auf Mykonos
besteht hauptsächlich aus exten-
siver Schaf- und Ziegenhaltung,
da diese Tiere relativ anspruchs-
los sind. Diese Anpassung der
Viehwirtschaft ans Klima nennt
man Transhumanz. Im Sommer
weiden die Tiere auf Weiden
in den Bergen und im Winter in
den Ebenen. Schafe und Ziegen
gehören außerdem mit zu den
salzwasserunempfindlichsten
Nutztieren [11]
Diese drei Formen der Anpassung
nennt man extensive Bewirtschaf-
tung. Daneben wird es auch noch
eine intensive Bewirtschaftung
durch künstliche Bewässerung
geben (Zitrusfrüchte, Gemüse
und Sonderkulturen); die hier ver-
wendete Bewässerungsmethode
sollte dem neuesten Stand der
Technik angepasst sein (z.B. Tröpf-
chenbewässerung mit 80–90 %
Wassernutzungseffizienz, statt
40–50 % bei der Oberflächen-
bewässerung).
Bei allen Anbaumethoden sollte
versucht werden alte Kulturtech-
niken wie die Terrassenwirtschaft
zu erhalten und zu restaurieren.
Die Terrassierung der Hänge
erzeugt waagerechte Anbau-
flächen, auf denen der Abfluss
des Niederschlagswassers ver-
zögert wird. So haben die Pflanzen
mehr Zeit das Wasser aufzunehmen
und mehr Regenwasser kann in
den Boden versickern. In der
Ebene wurden die Feldsteine
ebenfalls dazu verwendet Trocken-
mauern um das Feld herum zu
errichten. Auch hier kann das
Niederschlagswasser länger auf
dem Feld zurückgehalten werden,
zusätzlich verringern die Mauern
den Windeinfluss und reduzieren
damit die Evapo(transpi)ration
der Pflanzen und des Bodens. Des
Weiteren soll eine Umstellung auf
ökologische Landwirtschaft erfol-
gen. Dadurch wird der Wasser-
haushalt vor Verunreinigungen
durch chemische Pflanzenschutz-
mittel geschützt.
Im Tourismussektor und den
privaten Haushalten des Pilotpro-
jektes sollte der Ein- bzw. Umbau
von Wassereinspartechnologien
gefördert werden:
Komposttoiletten
Regenwassersammelanlage
doppelte Leitungsführung für
Brauch- und Trinkwasser
Grauwasserrecycling
Bei allen technischen Anlagen
(Waschmaschine, Spülmaschine,
solare Klimaanlage und Wasser-
durchlauferhitzer) wird auf eine
sparsame Wasser- und Energie-
ausnutzung geachtet.
Im Hinblick auf eine Wieder-
verwendung von gereinigtem
Abwasser ist es wichtig, die ver-
schiedenen Komponenten von
ihrem Entstehungsort an getrennt
zu sammeln (was bei Feststoffen
vielerorts schon Standard ist).
Hier ist ein wichtiger Schritt die
Trennung von Schwarz- und
Abbildung 4: Wasserwirtschafliche Konzeption für das Pilotprojekt
!
" !#
$
$%#&
'
119Querschnitt Juli 2004
Grauwasser. Schwarzwasser ist
der Toiletten ablauf. Grauwasser
bezeichnet alles andere häusliche
Abwasser, hauptsächlich Wasch-
wasser. Diese Trennung ermög-
licht neue Lösungen für die Be -
handlung und Wiederverwendung
der einzelnen Komponenten zur
Er reichung einer stoffstrom-
orientierten Kreislaufwirtschaft
(Ab bildung 4).
Das Schwarzwasser soll in den
vorhandenen Klärgruben gesam-
melt und das Grauwasser soll der
neu errichteten Pflanzenkläranlage
zugeführt werden. Langfristiges Ziel
ist eine komplette Umstellung auf
Komposttoiletten im Projektgebiet,
damit würde der Schwarzwasser-
transport zur Zentralkläranlage
ganz wegfallen.
Der Urin und das Spülwasser
(minimaler Verbrauch: 100ml pro
Spülung) können durch sogenann-
te Urinseperationstoiletten extra
in einem Tank (Volumen= 0,5m3/
Person) gesammelt und direkt als
Dünger verwendet werden. Urin
ist in den meisten Fällen steril und
frei von Schwermetallen, durch die
regelmäßige Zugabe von Phos-
phorsäure (jährlich 300ml/Person)
werden eventuell vorhandene Bak-
terien eliminiert. Aufgrund seines
hohen Nitratgehaltes, ist Urin ein
ideales Düngemittel [12].
Grauwasser enthält nur gerin-
ge Konzentrationen an Stickstoff,
Phosphor und pathogenen Keimen,
wodurch die Gefahr von Gesund-
heitsgefährdungen bei unsachge-
mäßem Betrieb der Aufbereitungs-
anlage relativ gering ist. Nach der
Klärung in einer fachgerecht ausge-
legten Pflanzenkläranlage hat der
Ablauf Badewasserqualität. Dieses
Wasser kann zur Bewässerung, zur
Toilettenspülung, zur Raum- und
Wäschereinigung und als Kühlwas-
ser für die Klimaanlagen verwendet
werden. Das geklärte Grauwasser
kann entweder zur Bewässerung im
Sommer direkt verwendet (hier ist
das zeitliche Zusammentreffen des
erhöhten Wasserverbrauchs durch
den Tourismus mit dem gleich-
zeitigen klimabedingten erhöhten
Wasserverbrauch in der Bewässe-
rungslandwirtschaft günstig) oder
in den vorhandenen bisher als reine
Regenwasserspeicher genutzten
Zisternen gespeichert werden.
Zur Zeit hat jedes Gebäude eine
Trinkwasserzisterne, sobald das
Gebiet an das öffentliche Trink-
wasserleitungsnetz angeschlossen
ist, können diese Zisternen zur
Brauchwasserspeicherung genutzt
werden. Jedes Haus wird dann mit
einem Regenwassersammelsystem,
nach dem Muster des traditionellen
kykladischen Typs und moder-
ner Technologie ausgestattet. Die
neuen Trinkwasseranschlüsse müs-
sen nur Küche und Bad mit hoch-
qualitativem Wasser versorgen, für
alle übrigen Zwecke ist die Qualität
des Brauchwassers ausreichend
(mit zusätzlicher Trinkwassernach-
speisung für Trockenperioden).
Mit diesem Projekt sollen neue
Konzepte einer nachhaltigen, inte-
grierten Wasserbewirtschaftung
aufgezeigt und die Landwirte und
Bewohner motiviert werden, ihre
Wasserversorgungs- bzw. Bewäs-
serungssysteme entsprechend
umzugestalten.
Es ist zu erwarten, dass eine
erfolgreiche Bewirtschaftung der
Anlage ökologische, soziale und
ökonomische Vorteile für das
Gebiet mit sich bringt. Das Projekt
sollte beispielhaft für den Ausbau
weiterer semi-dezentraler Wasser-
ver- und entsorgungseinheiten auf
der Insel Mykonos, sowie auf ande-
ren Mittelmeerinseln mit ähnlichen
klimatischen und wirtschaftlichen
Randbedingungen, stehen. Damit
wäre man, durch die erzielte Res-
sourcenschonung und verminderte
Umweltbelastung, dem Ziel einer
nachhaltigen Wasserbewirtschaf-
tung auf Mittelmeerinseln ein ent-
scheidendes Stück näher gekom-
men.
Quellenverzeichnis
1. American Society of Civil Engi-
neers et al., Sustainability crite-
ria for water resource systems;
ASCE; Verginia;1998
2. Custodio,E.,Bruggeman,G.
A.; Groundwater problems
in coastal areas; Studies and
reports in Hydrogeology,
UNESCO; Paris; 1987
3. Lecher, Lühr, Zanke (Hrsg.);
Taschenbuch der Wasserwirt-
schaft; Blackwell Wissenschafts-
Verlag; Berlin; 2001
4. Studie der Präfekturverwaltung
der Kykladen unter Leitung von
I. Nokas 2001-2002
5. GWP-MED (Hrsg.); Framework
for Action, Mediterranean
islands; GWP-MED; Athen;
1999
6. Interview mit Stefanos Molan-
donis, Angestellter bei DEYA
Mykonos
7. Bismuth et al.; Nachhaltige
Wasserwirtschaft in Deutsch-
land; UBA; Berlin; 1999
8. EWRA (Hrsg.); Water Resour-
ce Management in the era of
Transition; Conference procee-
dings; Athen; 2002
9. Kuhn, Moschitz, Schneider;
Aktionshandbuch nachhaltige
Wasserwirtschaft und lokale
Agenda 21; Freiburg; 2001
10. GWP-Med; Water for the 21st
century: Vision to action; Den
Haag; 2000
11. Water for Life Magazin; Vol 31,
S.12; 1995
12. Wolgast; Recycling-Systems;
Stockholm; 1996
120
Member State 1
Authority
Member State 2
Authority
Member State 3
Authority
Martin Führ, Jaqui Dopfer,
Stefani Merenyi
Sonderforschungsgruppe
Institutionenanalyse sofia
Transnational Law Making
in View of the Free-Rider-Pro-
blem – Product Related Envi-
ronmental Policy and Cross
Border Electronic Commerce
Electronic commerce will be gro-
wing considerably within the next
years, even if expectations have
become more cautious1. This will
also lead to larger trade streams
routed directly to private consu-
mers (B2C) by border crossing
distribution channels.
This development creates pro-
blems concerning the objectives
of the European Community´s
environmental policy to protect
and improve the quality of the envi-
ronment, because of the rapidly
growing amount of waste electrical
and electronic equipment (WEEE).
Such waste contains a lot of hazar-
dous components. Within the con-
cept of sustainable development
this calls for significant changes in
current patterns of the design and
production of these products. The
concept of producer responsibility
encourages the sustainable design
and production of electrical and
electronic equipment (EEE) that
takes into account better possibili-
ties of repair, reuse and recycling.
To give the concept of producer
responsibility a maximum effect,
each producer has to be responsib-
le for financing the management of
the waste of his own products even,
concerning the WEEE directive2 of
the EU, if his electrical or electronic
equipment crosses borders.
In view of Environmental Product
Regulation transnational B2C-trans-
actions create interface problems
on different levels of legislation,
standardization, monitoring and
enforcement. Main interfaces in this
context are, first, the legal interfaces
concerning the financial guarantee
and its enforcement and, second-
ly, the practical interfaces like the
necessary monitoring systems
(see figure 1). In coping with these
interface problems new legislative
tools and cooperation mechanisms
are to be developed. Regarding
the trade of electrical and electro-
nic equipment (EEE) one of these
tools is a financial guarantee each
pro ducer3 has to provide when
placing a product on the market in
order to show that the management
of the deriving waste (WEEE) will
be financed by him and free-riding4
of producer is prevented. Art. 8 (4)
WEEE obliges member states to
ensure producers‘ guarantee also
when supplying their EEE across
borders. The guarantee is aiming
at refunding the costs of waste
Figure 1: Interface problems concerning cross border B2C in implementing the WEEE directive ( Interface problems)
Private SystemPrivate System
Private System
EC-Directive: WEEE
Art. 8 (4) + 12 (1.2)
C E N E L E C: Technical Standards
C L E A R I N G H O U S E: Coordination of National Systems/Monitoring
Commission, Art. 11 (2)
Mandate
I M P E L: Coordination of Implementation and Enforcement
producer customer
121Querschnitt Juli 2004
management. Therefore the natio-
nal implementation of this directive
must contain an entitlement against
the producer, also across borders.
To enforce the financial guaran-
tee a monitoring system must be
installed in every Member State,
enabling the evaluation of compli-
ance with the requirements from
Art. 8 (4) WEEE. This needs to
monitor data about the EEE when
put on the market and when given
back as waste. Therefore an une-
quivocal marking of EEE is neces-
sary, containing e.g. information
about the producer and the product
category.
However, the WEEE directive
does not offer any detailed frame-
work on how to establish these
transnational duties. To allow a
harmonized implementation of
future European legislation and an
optimising of cross border product
responsibility new cooperation
forms between the actors and
authorities of different Member
States have to be established and
institutional innovations are neces-
sary. This can be reached only
under the pre-requisites shown in
the illustration (figure 1): In a hori-
zontal view the close and proactive
cooperation of all Member States
respectively of their authorities and
private systems is necessary. This
must start at the latest when imp-
lementing the directive, especially
with respect to future enforcement
tools. Regarding the monitoring
system arrangements concerning
e.g. form of data exchange bet-
ween Member States and the way
of processing data could be neces-
sary. In a vertical view the standar-
dization of the different details is
needed to reduce the horizon-
tal interface problems. Regar-
ding technical issues as e. g. the
un equivocal marking of EEE,
European standards could be pro-
moted by the Commission (Art. 11
(2) WEEE). So long as the needed
mandate is given, this could also
be developed by CENELEC5.
Concerning the implementation
and enforcement of law it could be
supported by IMPEL6. Regarding
the monitoring system that will
need data exchange between
Member States, a central European
clearing house may be helpful to
coordinate the different national
systems.
The transnational law making
of the WEEE directive represents
a break in the operating method
of legal systems known so far. The
first break consists in the fact that
a citizen shall become subject not
only to the legislation of his home
country but also to foreign legis-
lation. A new type of transnational
legal obligation is considered: pro-
ducers shall no longer be subject
to their national legislation only but
shall have to comply also with the
product related environmental rules
in the purchaser‘s country, indepen-
dently of having a business agency
there. The second break appears
when not longer the location of the
addressee (subject of law) decides
on the equivalent legislation but the
object of law. This means, the final
location of the traded EEE, which
is transformed to waste, decides
on the applicability of a certain
foreign regulation on the territory
of the producer´s Member State.
Without leaving his home country,
the producer will have to comply
with WEEE legislations from many
foreign Member States.
Recommendations with Respect
to Legislation on the European
Level
The legislation on the European
level needs more precise defaults if
transnational law making is neces-
sary. This will be contradicting to
a directive‘s nature as set out in
Art. 249 (3) EC, but Member States
can not benefit from a directive‘s
legislative flexibility any more
when this leads to harmonization
efforts which are impossible to be
realised on the Member States‘
level. Especially the need for unita-
ry decisions of all Member States
shows that on these items a Euro-
pean decision is necessary.7 This
could have been provided in a spe-
cific framework under the WEEE
directive or even within a regulati-
on. In any case the specific effects
resulting from the directive need
to be rethought in order to find out
how its harmonized transformation
into national law can be realised by
Member States. Where uncertain-
ties can appear on many different
levels and can lead to a mutual
obstruction in the implementation
process, this danger must already
be identified while the design of
the directive. It must then provide
a defined procedure arranging the
order in which the uncertainties
have to be eliminated. Without that,
every actor involved may wait for
the other to start.
Recommendations with
Respect to National Legislation
Regarding the legislation on the
national level it has become evi-
dent that the transposition of an
EC directive with any reference to
transnational law making can not
succeed by Member States acting
individually. Therefore the need
for early interactions between all
Member States should be consi-
dered already while the design of
that directive by providing defined
procedures in order to organi-
ze these communications. With
respect to cross border enforce-
122
ment of national legislation the need
for coordination on the EC-Level
became evident. Only on this level
the necessary exchange between
authorities of all Member States can
be realised. Moreover the adap-
tation of technical aspects, such as
central translations of national legis-
lation, can be provided only here.
In this context the European Union
Network for the Implementation and
Enforcement of Environmental Law
(IMPEL), already experienced in
this field, should be integrated at an
early stage.
Recommendations concerning
the Role of Producers
Under the WEEE regime, especially
under national legislation deriving
from transposing Art. 8 (4) WEEE,
producers need a good regulatory
understanding in order to find out
which legislation they have to com-
ply with. This requires producers‘
readiness to admit to transnational
legislation in general. Even if some
producers may do so, it can not
be expected that they will become
legal experts. This is why it will
be likely that most producers will
need assistance in finding out which
legislation they have to comply
with. Industry associations should
prepare in order to provide this
assistance.
Recommendations concerning
the Role of Consumers
With regard to consumers recital
No. 15 and Art. 10 (2) WEEE pro-
vides for appropriate measures
which shall be adopted by the
Member States so that consu-
mers participate in the collection
of WEEE and to encourage them
to facilitate the process of reuse,
treatment and recovery. Against
this background the national legis-
lation should secure that consumers
will have access to all data which
is needed to evaluate if an Art. 8
(4)-producer complies with the
basic demands from the WEEE
directive (especially the registration
of producers and the guarantee
verification). So consumers and
consumer organisations can be
enabled to control the functionality
of the guarantee system, e. g. with
help of testing purchases in order
to find out if the declared informa-
tion can be confirmed. Moreover
the transparency resulting from
this data access should also avoid
the trade of appliances without any
given guarantee (free riders), as
well informed consumers can cons-
ciously decide which producer they
want to trade with.
Closing Remarks
The WEEE directive represents a
change in transnational law making
and aims to secure EU wide pro-
duct responsibility. This can not be
achieved effectively by Member
States acting individually. The
transposition of Art. 8 (4) WEEE
needs a well adjusted and EU-wide
coordination national legislation
accompanied by a standardised
data exchange between the nati-
onal guarantee-mechanisms and
the waste management systems.
Transnational law making under
the regime of the WEEE directive
can be successful only with help
of every actor involved and by the
awareness of joint responsibilities
of the various European institutions
and the Member States.
Bibliography
European Commission (2001),
The Impact of the E-economy
on European Enterprises:
Economic Analysis and Policy
Implications. Brussels: COM
(2001) 711 final.
NFO Infratest (Hrsg.) (2002), Moni-
toring Informationswirtschaft. 5.
Faktenbericht 2002. München.
Footers
1 European Commission 2001:
25, NFO Infratest 2002: 343 ff.
2 Directive 2002/96/EC of the
European Parliament and of the
Council of 27th January 2003 on
waste electrical and electronic
equipment.
3 Concerning the WEEE Directive
„´producer´ means any person
who, irrespective of the selling
technique used, including by
means of distance communi-
cation [...] (i) manufactures and
sells electrical and electronic
equipment under his own brand,
(ii) resells under his own brand
equipment produced by other
suppliers, a reseller not being
regarded as the ´producer´ if the
brand of the producer appears
on the equipment [..], or (iii)
imports or exports electrical
and electronic equipment on a
professional basis into a Member
State.“
4 So called free riding would hap-
pen, if the producer of the EEE
(which turned to WEEE) would
not exist any more or would
try to prevent to be pursued.
5 Comité Européen de Normalisa-
tion Electrotechnique; European
Committee for Electrotechnical
Standardization.
6 European Union Network for the
Implementation and Enforcement
of Environmental Law.
7 Examples are how the monito-
ring system should be designed,
where distance sellers have to
provide their financial guarantee
and into which national register
they have to enrol.
123Querschnitt Juli 2004
Prof. Dr. Ralph Stengler,
Dipl.-Ing. Mark R. Hartwich
Fachbereich Kunststofftechnik
Automatisierte Qualitäts-
sicherungskette bei der Com-
poundierung von technischen
Kunststoffen
Farbe erfüllt Funktionen
Der Mensch nimmt Farben meist
als dekoratives oder Signalelement
wahr. Ein leuchtendes Grün weist
ihm den Fluchtweg, ein intensives
Rot warnt ihn vor Gefahr, die Pro-
dukte seiner täglichen Umgebung
wählt er in den ihm speziell ange-
nehmen und für ihn als schön emp-
fundenen Farben.
Farbmessung ist notwendig
Besonders zwei Aspekte machen
eine genaue und reproduzierbare
Farbmessung erforderlich:
1. Wiedererkennungsfunktion:
Fluchtwegweiser haben ein
immer gleiches Grün, dies hilft
der schnellen Orientierung im
Notfall. Konsumartikelhersteller
setzen auf den Wiedererken-
nungswert „Ihrer“ Farbe, die
dem Verbraucher ihres Mar-
kenartikels gewohnte Qualität
und Zuverlässigkeit suggeriert.
Banken, Tankstellen, Werkzeug-
hersteller nutzen „Ihre“ Farben
zur Wiedererkennung, selbst
Lebensmitteln (Käse, Spinat etc.)
wird zu immergleicher Farbe
verholfen um gleich bleibende
Qualität „sichtbar“ zu machen.
2. Austausch- und Kombinier-
barkeit: Bei der Badezimmer-
einrichtung muss das WC zur
Duschtasse und zum Wasch-
becken passen, ein Büromöbel-
system muss auch nach Jahren
noch in gleicher Farbe ergänz-
bar sein, das Auto sollte nach
einem kleinen Missgeschick
ohne allzu große Farbtonunter-
schiede reparabel sein. Nur so
lässt sich die Kundenzufrieden-
heit bei dessen Ästhetikempfin-
den herstellen.
Moderne Qualitätssicherung
Die heutigen Qualitätsmanagement-
systeme zielen insbesondere dar-
auf ab, Mängel und Fehlerquellen
so früh als möglich im Produktions-
prozess zu erkennen und zu besei-
tigen. Je früher man eine mögliche
Qualitätsabweichung erkennt,
desto kostengünstiger ist deren
Beseitigung.
Im Falle der Herstellung von
Kunststoffartikeln definierter Farbe
lässt sich bereits bei der Granu-
lierung und Compoundierung
des Grundmaterials sowie der
Wareneingangskontrolle der Roh-
materialien die Farbe kontrollieren
und so die spätere Produktqualität
sicherstellen.
Eingesetztes Farbmess-
verfahren
Bislang war ein frühzeitiges Ein-
greifen in den Produktionsprozess
mit der herkömmlichen photospek-
trometrischen Farbmessmethode
nicht möglich. Die unterschiedli-
chen geometrischen Gestalten der
Granulatkörner und Effekte wie
Weißbruch etc. ließen am Granulat
selbst keine exakte Farbmessung
zu, so dass stets ein Umweg über
die Herstellung von Prüfplättchen
gegangen werden musste, um
zuverlässige Farbwerte zu ermit-
teln; dieser Umweg kostet Zeit und
somit auch viel Geld.
In einem neuentwickelten Ver-
fahren wird am Fachbereich Kunst-
stofftechnik der FH Darmstadt das
Color-Control-System (Abbildung
1) der Firma ROC zur Farbmes-
sung direkt am Granulat eingesetzt.
Auf eine Platte automatisch aufge-
streutes Material fährt, diffus ausge-
Abbildung 1: Color Control System
124
leuchtet, an einer hochauflösenden
Farbkamera vorbei.
Eine intelligente Bildverarbei-
tung sorgt dafür, dass Granulat-
körner nicht nur vom Hintergrund
unterschieden, sondern auch Fehl-
stellen, Weißbruchkanten, Streu-
effekte der Geometrie etc. erkannt
und nicht zur eigentlichen Farb-
messung herangezogen werden.
Im folgenden (Abbildung 2) sind
die zur Messung herangezogenen
Pixel farblich gekennzeichnet.
Die Messwerte können direkt
zur Regelung des Compoundier-
prozesses verwendet werden und
ersparen damit den teuren und
zeitintensiven Umweg über spritz-
gegossene Probeplatten. Mit dem
automatischen Probenzuführungs-
system kann eine Messrate von
mehreren Messungen pro Minute
erreicht werden. Ebenso ist eine
gleichzeitige Überwachung meh-
rerer Produktionslinien möglich.
Mit diesem System gelang erstmals
eine schnelle Prozesskontrolle
schon beim Compoundieren.
Stand der Untersuchungen
An der FH Darmstadt wurden für
die Erprobung und Weiterentwick-
lung des Color-Control-Systems
bislang Reproduzierbarkeitstests,
Korrespondenzmessungen zu
herkömmlichen Messsystemen
0,5
0,4
0,3
0,2
0,1
0
-0,1
-0,2
-0,3
-0,4
-0,5
0 5 10 15 20 25 30
Versuchstage
Granulat Rot
dl da db
40
30
20
10
0
-10
-20
-30
0 0,5 1 1,5 2 2,5 3
Konzentration [%] L a b
Abbildung 2: digitalisiertes Farbbild der
Granulate
Abbildung 3: Reproduzierbarkeit von Farbmessungen an rotem Granulat
Abbildung 4: CIE-Lab Farbraum
Abbildung 5
Helligkeit
Chroma
Sättigung
L*
a*b*
125Querschnitt Juli 2004
durchgeführt und der Einfluß von
Farbdosierungen, sowie Verarbei-
tungsparametern erforscht.
Die folgende Auswertung
(Abbildung 3) zeigt z. B. die Wie-
derholgenauigkeit der im CIE-Lab-
System (Abbildung 4) gemessenen
Farbwerte von rotem Granulat.
Das System ermöglicht die
Kontrolle der Dosiermenge von
Farbstoffkonzentraten im Herstell-
prozess. Abbildung 5 zeigt die
Messergebnisse der Farbmessung
in Abhängigkeit von der zugegebe-
nen Menge an blauem Farbkonzen-
trat. Während die Rot-Grün-Anteile
und die Gesamthelligkeit nahezu
konstant bleiben, strebt der Blau-
Gelb-Wert mit zunehmender Kon-
zentration zum „satteren“ Blau.
In der weiteren Entwicklung
müssen nun die automatisierte
Probennahme, sowie die Rück-
kopplung der Messergebnisse auf
die Dosierung der Farbkonzentrate
entwickelt werden.
Prof. Dr.-Ing. Mathias Döring
Fachbereich Bauingenieur-
wesen
Römische Infrastruktur am
Golf von Neapel – Eine technik-
geschichtliche Dokumentation
Situation
Die Besonderheit der „Phlegraei-
schen Felder“ (griech.: „brennende
Erde“) westlich von Neapel sind
neben ihrem aktiven Vulkanismus
mehrere bedeutende antike Städte.
Von Cumae, der ersten griechi-
schen Siedlung Italiens, ging vor
500 v. Chr. die Gründung Neapels
(Nea polis = Neustadt) aus. Pozzuoli
war um die Zeitenwende der wich-
tigste Hafen Italiens, über den der
gesamte Orienthandel Roms abge-
wickelt wurde. Baiae galt als der
mondänste Badeort des Landes und
in Misenum lag eine der beiden
römischen Mittelmeerflotten. Eine
solche Region mit den Bedürfnis-
sen einer Großstadt war ohne eine
leistungsfähige Infrastruktur nicht
lebensfähig.
So finden sich hier ein über-
regionales Wasserversorgungs-
system mit Reservoirs aller Grö-
ßen, Handels- und Marinehäfen
sowie ein dichtes Straßennetz mit
bemerkenswerten Tunnelbauten.
Der leicht zu bearbeitende und
trotzdem standfeste Tuff erlaubte
es, viele der Bauwerke unter die
Erde zu verlegen, was ihren guten
Erhaltungszustand erklärt. Der
Anstieg des Meeresspiegels seit
der Antike um 2 m sowie die auf
den Vulkanismus zurückzuführende
langsame Hebung und Senkung
des Landes um bis zu 12 m (Bra-
disismus) ließ zahlreiche Baudenk-
mäler unter die Meeresoberfläche
absinken.
Die meisten dieser Bauten sind
daher nur schwer zugänglich.
Während gut erreichbare Orte am
Golf von Neapel wie Pompeji oder
Herkulaneum seit 200 Jahren Ziel
von Bildungsreisenden und Archäo-
logen sind, blieben die versteckten
Wasser- und Verkehrsbauten der
Phlegraeischen Felder weitgehend
unbeachtet. Als einziger hat Paoli in
einer Publikation von 1768 die Zis-
ternen und Tunnel zwar relativ voll-
ständig wieder gegeben, sich aber
auf die reine Beschreibung in Wort
und Bild beschränkt. Danach gab es
keine Untersuchung der infrastruk-
turellen Zusammenhänge mehr.
Projekt
In bisher acht Arbeitskampagnen
wurde der größte Teil der Bauten
unter Leitung des Verfassers mit
Studenten der FHD vermessen und
ausführlich dokumentiert. Schwer-
punkt der Untersuchung waren die
sieben größten Zisternen, sieben
Straßentunnel sowie sechs Häfen
mit ihren funktionalen und wirt-
schaftlichen Zusammenhängen.
Dazu gehörten Archivstudien in
Neapel, Rom und Caserta. Die
Arbeit erfolgte in enger Zusam-
menarbeit mit der Soprintendenza
Archeologica Napoli (die auch Per-
sonal zur Verfügung stellte) sowie
der Arbeitsgruppe Archeolocico
Flegreo (für die Unterwasserar-
beiten). Der Verfasser wurde im
Jahr 2002 für seine Arbeiten mit
dem Theodor-Mommsen-Preis der
Universität Federico II. in Neapel
ausgezeichnet. Das Projekt ist noch
nicht abgeschlossen.
Ergebnisse
Wasserversorgung: Grundvor-
aussetzung war eine zuverlässige
Wasserversorgung mit großen
Zisternen, um niederschlagsarme
Sommer überbrücken zu können
und für die Marine schnell große
Wasservorräte verfügbar zu haben.
Das war im trockenen Klima Süd-
italiens auf der wasserlosen phle-
graeischen Halbinsel nur mit einer
Fernwasserleitung, der 96 km lan-
gen Aqua Augusta möglich. Dieser
im 1. Jhd. v. Chr. erbaute Freispie-
gelkanal von 2 m Höhe und 60–
150 cm Breite verläuft bis auf einige
kurze Abschnitte unterirdisch und
ist teilweise begehbar. Schwierig-
keiten bereitet die Rekonstruktion
des Gefälles und damit der Abfluss-
leistung, da sich die Höhenlage der
Leitung infolge des Bradisismus
seit der Antike erheblich verändert
hat. Eine Abschätzung ergab, dass
550 l/s (50.000 m3 pro Tag) realis-
tisch sind. Das entspricht einem
Pro-Kopf-Verbrauch von 250 l/Tag,
ein für römische Verhältnisse eher
geringer Wert.
Die Aqua Augusta endet in der
„Piscina Mirabilis“ bei Misenum,
126
mit 11.000 m3 Fassungsvermögen
einer der größten Zisternen des
römischen Imperiums. Mit welcher
Präzision das 70 x 25 m große
Bauwerk errichtet wurde, zeigte
die Überprüfung der Hauptab-
messungen, deren Differenz weni-
ger als 2 cm beträgt (Abbildung 1).
Die Marinebasis wurde außerdem
aus der „Grotta Dragonara“ ver-
sorgt, einem 70 x 70 m großen
Tunnelsystem (Abbildung 2).
Eine ebenso große zweistöckige
Zisterne im nahen Baiae lieferte
Wasser an mehrere Thermen,
Villen und Fischzuchten. Drei
weitere Großzisternen für Trink-
und Brauchwasser finden sich
in Pozzuoli und zwei unter der Stadt
Cumae.
Tunnelbauten: Mit der Bedeutung
der Region wuchsen auch die
Anforderungen an die Verkehrs-
verbindungen, die im 1. Jhd. v. Chr.
neu konzipiert wurden und bis ins
19. Jahrhundert das Rückgrat des
Straßennetzes blieben. Bemerkens-
wert sind vor allem die Tunnel.
Hier sind die 700 m lange Crypta
Neapolitana und ein weiterer,
ebenso langer Tunnel zwischen
Neapel und Pozzuoli zu nennen.
Schnelle Truppenbewegungen
ermöglichte der Straßenzug von
Misenum nach Cumae, der durch
drei weitere gut erhaltene Tunnel
(270, 900 und 300 m lang) führt.
Deren Querschnitte sind z.T. so
großzügig bemessen, dass auch
komplette Schiffe von den Werften
am Averner See zum Hafen von
Cumae transportiert werden
konnten (Abbildung 3).
Abbildung 1: Die „Piscina Mirabilis“ in Misenum, mit 11.000 m3 Fassungsvermögen
einer größten Zisternen des römischen Imperiums.
Abbildung 2: Die „Grotta Dragonara“, ein Tunnelsystem für die Speicherung von rd. 10.000 m3 Wasser.
127Querschnitt Juli 2004
Häfen: Im inneren der beiden kreis-
runden Hafenbecken von Misenum
be fanden sich Werften und Arse-
nale, im äußeren lagen die mehr
als 80 Militärschiffe mit 6000 Mann
Besatzung. Letzterer wurde durch
zwei lange Molen aus unter Wasser
erhärtendem römischem Beton
(„Opus Caementicium“) (100 und
180 m) geschützt. Die daran ange-
brachten Ringe zum Befestigen der
Schiffe befinden sich heute in etwa
4 bis 5 m Wassertiefe. Der Nach teil
der Molen war, dass auch die Strö-
mungen unterbunden wurden, die
bis dahin die Versandung verhin-
dert hatten. So durchstieß man die
beiden den Hafen umschließenden
Halbinseln mit je zwei Tunneln, die
bis heute erfolgreich für den nöti-
gen Wasseraustausch sorgen.
Eine ähnliche, fast 400 m lange
und 15 m breite Mole aus Beton
schützte den Hafen von Pozzuoli.
Der Hafen von Cumae ist zwar voll-
ständig verlandet, konnte aber noch
rekonstruiert werden. Am nahe
gelegenen Averner See unterhielt
die römische Marine im 1. Jhd. v.
Chr. den „Portus Julius“, der aller-
dings wegen seiner geringen Fahr-
wassertiefe nach wenigen Jahren
aufgegeben wurde.
Literatur (Auszug)
Paoli, P.A.: Avanzi delle antichità
esistenti a Pozzuoli, Cuma e Baja:
Antiquitatum Puteolis, Cumis,
Bais existentium reliquiae seg.,
atlante con 69 contesti. Firenze
1768.
Maiuri, A.: I Campi Flegrèi. Dal
Sepolcro di Virgilio all‘antro
di Cuma. Itinerari dei musei e
monumenti d‘Italia. Roma 1949.
D‘Arms, J.: Romans on the Bay of
Naples. Cambridge Massachus-
etts 1970.
Scherillo, A.: Vulcanismo e Bradi-
sismo nei Campi Flegrei. In: I
Campi Flegrei nell‘archeologica
e nella storia, S. 81–116. Roma
1977.
Döring, M.: Die römische Wasser-
versorgung von Pozzuoli, Baia
und Misenum. 11th International
Conference on Water in Antiqui-
ty, Jerusalem 2001. Schriften der
Dt. Wasserhistorischen Gesell-
schaft Bd. 1/2002, S. 253–265.
Döring, M.: Wasser für den „Sinus
Baianus“. Antike Welt, H. 3/2002,
S. 305–319.
Döring, M.: Römische Hafen- und
Tunnelbauten der Phlegraei-
schen Felder. Schriften der Dt.
Wasserhistorischen Gesellschaft,
Bd. 2/2003, S. 35–53.
Abbildung 3: Römischer Tunnel in Cumae, Teil eines meist unterirdischen
Straßenzuges von 2 km Länge.
Kein Fehler im System
128 Stand 20.6.2000
AAdolph, H.-B., Deutsch, H.,
Ehrhardt, U., Rumpenhorst, S.:
Arbeitswelten Büro plus (Prof.
Lengfeld)
Bäumle, C., Binder, M.,
Fink, A., Maibach, J.,
Maier, J., Mayer, S.,
Weigel, D., Zala, I.:
Weltkloster (Prof. Lamott)
Bilderbeck, N., Eisentraut, S.,
Flury, T., Hille, A. K., Müller, S.,
Oberle, I., Pfeifhofer, B.,
Uitz, C., Weistroffer, K.:
NAXOShalle Museum der
Industrie- und Technikgeschichte /
Firmenmuseum (Prof. Maisch)
Dörr, C., Göbel, J., Gräff, A.,
Matthäi, K., Sobe, M.-L.,
Talledo, L., Zänger, M.:
Sagehotel (Prof. Drewes)
Englert, S., Nau, M., Peter, M.,
Pump, C., Sikorsky, D.,
Sulzmann, M.-S., Thoma, A.,
Wagner, A. J., Würtz, M.:
Erlebnisgastronomie
(Prof. Schmidt)
Feick, S., Frodl, H., Iradjpanah, O.,
Raatz, S., Straub, C.:
Haus der Kirche (Prof. Glucker)
Rausch, C.:
Transrapid Bahnhof, Flughafen
Hahn (Prof. Freischlad)
BBertocci, T.:
Planung einer innerörtlichen
Erschließungsmaßnahme unter
Berücksichtigung des naturähnlichen
Ausbaus eines Vorfluters (Dipl.-Ing.
Schunk)
Benz, C.:
Systematische Baustellendokumen-
tation in Form eines elektronischen
Bautagebuches mit integriertem Tages-
arbeitsplan (Prof. Dr. Lang)
Bischoff, A.:
Möglichkeiten nachhaltiger
Wasserwirtschaft auf Mittelmeer-
inseln am Beispiel der griechischen
Kykladeninsel Tinos (Prof. Dr.
Wackermann)
Breßler, D.:
Kolonnenparken für Lkw auf
Rast anlagen (Prof. Dr. Follmann)
Briesnitz, A.:
Wirklichkeitsnahe Ermittlung der
Steifigkeit von Boden-Platten am Beispiel
eines Bürogebäudes (Prof. Dr. Giegold)
Brühl, F.:
Qualitätssichernde boden -
mech anische Untersuchungen zum
Rück haltedamm an der Gersprenz
bei Groß-Bieberau (Prof. Dr.
Krajewski)
Buchner, D.:
Entwicklung und Programmierung
eines Konzeptes für eine Rationelle
Diplomarbeiten
Konstruktion von Filigran-Platten in
CAD (Prof. Dr. Baumgart)
Capri, B.:
Integriertes Kanalsanierungs-
programm (Prof. Dr. Knauf)
Cule, K.:
Statische Berechnung und Kon-
struktion eines Wohn/Geschäftshauses
(Prof. Dr. Baumgart)
De Rugeriis, R.:
Ansätze zur rheologischen Be-
schreibung selbstverdichtender
Stahlfaser betone (Prof. Dr. Stratmann-
Albert)
Fischer, M., Schmitt, A.:
Gewässerentwicklung Rensch
(Prof. Dr. Döring)
Groß, S.:
Tragwerksentwurf, Berechnung
und Konstruktion einer Geh- und Rad-
wegebrücke über die Chemnitz in
Holzbauweise (Prof. Dr. Spittank)
Großmann, J.:
Optimierung der Elektroinstallatio-
nen bei der Bauweise mit KS-QuadroE
(Prof. Dr. Spittank)
Gumbel, M.:
Sanierung der Bachverrohrung
Brunnfloßgraben in Würzburg
(Prof. Dr. Knauf)
Happel, J.:
Planung von Verbesserungs-
maßnahmen an der Vulkaneisenbahn
(Prof. Dr. Habermehl)
Hayn, L.:
Ablauf einer Tiefbaumaßnahme
im Rohrleitungsbau mit Verfahrens-
vergleich (Prof. Dr. Knauf)
Heiß, A.:
Berechnung und Konstruktion eines
mehrgeschossigen Bürogebäudes mit
Tiefgarage (Prof. Dr. Kind)
Held, M.:
Untersuchungen der Behandlung
eines Schluffes mit Kalk,vornehmlich
hinsichtlich der vermuteten Homo-
genisierungswirkung bei unterschied-
lichen Bodeneigenschaften (Prof. Dr.
Listner)
Hoffmann, J.:
Entwurf, Berechnung und Bemes-
sung von Holzbauwerken – Beitrag
zur Anwendung der neuen DIN 1052
(Prof. Dr. Spittank)
Knecht, S.:
Ausbau- und Renaturierungs-
planung für den Erlenbach in Schöneck
(Prof. Dr. Döring)
Koob, K.:
Statisch konstruktive Bearbeitung
eines Werkpavillons und Wirtschaftlich-
keitsuntersuchung gem. DIN 1045-88/
DIN 1045-1 (Prof. Dr. Pauli)
Kress, A.:
Zweiachsig gespannte Platten
unter Einzelkraftbelastung (Prof. Dr.
Spittank)
Lenhardt, A.:
Berechnung und Konstruktion
eines Bürogebäudes (Prof. Holz-
apfel)
Lette, T.:
Indikatoren zur Beurteilung
des makroökonomischen Umfeldes
beim Rating von Baufirmen (Prof. Dr.
Poweleit)
Loch, M.:
Statisch-konstruktive Bearbei-
tung eines Wohn- und Verwaltungs-
gebäudes mit angegliederter
Lagerhallle in Fertigteilbauweise
(Prof. Dr. Giegold)
Lotz, M.:
Entwicklung eines Wohnungsbau-
projektes in Kerpen, Stadtteil Horrem
(Prof. Dr. Sohni)
Millich, S.:
Ausführungsentwurf einer
Lager- und Ausstellungshalle mit
anschließendem Bürogebäude mit
Tiefgarage (Prof. Dr. Giegold)
Montimurro, M.:
Beteiligung der Öffentlichkeit im
Planungsprozess durch Einsatz neuer
Technologien (Prof. Dr. Follmann)
Oberle, J.:
Wirtschaftlichkeitsbetrachtung
der Löschwasserversorgung im
Nordbereich des Flughafens Frankfurt
am Main (Prof. Dr. Lang)
Pomak, E.:
Der GMP-Bauvertrag (Prof. Dr.
Lang)
Rehberg, M.:
Standsicherheit von Baumaschinen
(Prof. Dr. Poweleit)
Ruhl, A.:
VOB/A-konforme Ausschreibung,
Angebotslegung und Vergabe für Natur-
systemarbeiten/ Steinmetzarbeiten
(Prof. Dr. Lang)
Schallmayer, M.:
Kritische Betrachtung der empiri-
schen Ansätze zur Hydraulik bei der
Brunnenberechnung (Prof. Dr. Wacker-
mann)
Schmidt, N.:
Auswirkung internationaler Bilanzie-
rungsregelung auf die deutsche Immo-
bilienbewertung (Prof. Dr. Sohni)
Schmitz, I.:
Entwässerungsplanung für das
neue Gewerbe-/Mischgebiet in
129Querschnitt Juli 2004
CuBHeusenstamm – Variantenuntersuchung
(Prof. Dr. Wackermann)
Schneider, M.:
Berechnung und Konstruktion eines
Baumarktes (Prof. Holzapfel)
Schuster, R.:
Aufbau eines Umweltmanage-
mentsystems nach DIN EN ISO 14001
(Prof. Dr. Lang)
Seitz, B.:
Vorplanung einer innerörtlichen
Umgehungsstraße in Liepaja/Lettland
(Prof. Dr. Habermehl)
Sigel, T.:
Technisch und wirtschaftlich
optimierter Entwurf einer Tunnel-
baugrube im Grundwasser (Prof. Dr.
Krajewski)
Staubach, M.:
Planung einer innerörtlichen
Erschließungsmaßnahme unter
Berücksichtigung des naturähnlichen
Ausbaus eines Vorfluters (Dipl.-Ing.
Schunk)
Stoll, H.:
Diskretsierung des Untergrundes
bei bodenmechanischen Standsicher-
heitsnachweisen für Deichbauwerke
(Prof. Dr. Krajewski)
Vogel, M.:
Brandschutztechnische Anforderun-
gen gemäß der neuen Hessischen Bau-
ordnung HBO 2002 (Prof. Dr. Sohni)
Walter, M.:
Berechnung und Konstruktion eines
Funktionsgebäudes für die Feuerwehr
(Prof. Holzapfel)
Wennhak, F.:
Projektentwicklung von Hotelimmo-
bilienobjekten – Chancen und Konzepte
für die Bauwirtschaft (Prof. Dr. Ruf)
Bormet, S.:
Synthese von dotiertem und
undotiertem LiMnNiCo-Oxid-Kathoden-
material für Lithium-Ionen-Batterien
(Prof. Dr. Dorbath)
Csanits, M.:
Untersuchungen zur Habitussynthe-
se von Silberpartikeln (Prof. Dr. Dor-
bath)
Denhof, J.:
Strangguss großformatiger
Zero durteile (Prof. Dr. Dorbath)
Görgen, T.:
Abdichtung von Membran-Elektro-
deneinheiten für PEM-Brennstoffzellen
durch Einsatz von flüssigen Kleb- und
Dichtstoffsystemen (Prof. Dr. Dorbath)
Schwinn, J.:
Untersuchung von Steuerungspara-
metern bei der Silberpulverherstellung
(Prof. Dr. Dorbath)
Stanescu, M.-O.:
Isolierung und Charakterisierung
von internen Lipiden sowie Melanin-
pigmenten des Haares (Prof. Dr.
Wiskamp)
Süss, K.:
Untersuchung und Optimierung von
Adsorptionsreaktionen zur quantitativen
Bewertung von Partikeloberflächen mit
Hilfe der statistischen Versuchsplanung
und die Valdierung dieser Techniken
zur produktbezogenen Qualitätskon-
trolle (Prof. Dr. Dorbath)
Tshimanga, K.:
Rheologische Charakterisierung
eines Haarpflegesystems (Prof. Dr. Dor-
bath)
EuIAhmad, A.:
Erstellung eines Beispielprojektes
aus der Energieverteilung unter Einhal-
tung aktuell gültiger DIN-Normen mit
der CAE-Branchenlösung „Ruplan-EVU-
Modul“ (Prof. Dr. Krause)
Allogo-Eyimi, H.:
Aufbau eines Prüfstandes für elek-
trisch angetriebene Zweiräder (Prof. Dr.
Bauer)
Berg, H.:
Entwicklung eines potentialge-
trennten bidirektionalen DC/DC-
Wandlers mit fester Arbeitsfrequenz
(Prof. Dr. Michel)
Belzer, N.:
Regelung des Stoffauftrages aus
einem Vorlagebehälter mit einem
Prozessleitsystem (Prof. Dr. Reiner)
Berg, S.:
Untersuchung und Dimensionierung
der Schutztechnik anhand des Industrie-
netzes im Industriepark Kalle-Albert in
Wiesbaden (Prof. Dr. Frontzek)
Bockshammer, M.:
Automatische Steuerung eines
Brennstoffzellen-Versuchsstandes
(Prof. Dr. Schmidt-Walter)
Boudhaim, T.:
Aufbau und Programmierung eines
Profibus-DP-Systems (Prof. Dr. Reiner)
Brust, S.:
Planung und Inbetriebnahme einer
Kühlgeräteentsorgungsanlage (Prof. Dr.
Reiner)
Eberle, R.:
Dimensionierung von Nieder-
spannungsschutzeinrichtungen für
elektrische Anlagen in einer
chemischen Produktion (Prof. Dr.
Frontzek)
Engel, S.:
Simulation eines Photovoltaik-
gespeisten Zentralwechselrichters
130
und Auslegung eines Sinusfilters
(Prof. Dr. Wagner)
Erb, T.:
Mechanisches Funktions-
muster für hybride Schnellschalter
in der Energieverteilung (Prof. Dr.
Frontzek)
Freise, B. A.:
Entwurf und Entwicklung des
Wärmeleistungsadaptionsmoduls
für die bedarfsgeführte Vorlauftempe -
ra turadaption in Mehrfamilienhäusern
(Prof. Dr. Schaefer)
Gebhart, C.:
Aufbau und Untersuchung eines
Messdatenerfassungs- und Auswer-
tungssystems für Kraftwerksdaten
(Prof. Dr. Reiner)
Göbel, A.:
Energieeinsparpotentiale im Bereich
Karosserie-Rohbau unter Berücksichti-
gung von technischen und wirtschaft-
lichen Aspekten (Prof. Dr. Metz)
Habig, J.:
Halbautomatische Prüfeinrichtung
für eine universelle Steuer- und Regel-
ektronik im Kraftfahrzeugbereich (Prof.
Dr. Reiner)
Hamm, T.:
Entwicklung einer Hardware-
Abstraktion mit Generierung einer
Konfigurationsdatenbank für ver-
schiedene Mikrocontroller-Familien
(Prof. Dr. Wiese)
Heilmann, J.-H.:
Programmierung eines Mess-und
Abgleichplatzes für Wegmessketten
(Prof. Dr. Wiese)
Hopf, M.:
Aufbau und Inbetriebnahme einer
Roboterarbeitszelle für Kleinteilmontage
(Prof. Dr. Weber)
Hum, V.:
Linux Server Projekt (Prof. Dr.
Schaefer)
Idrissi Aatouf, M.:
Entwicklung von Algorithmen zur
Umfeldbeschreibung des Kraftfahrzeugs
(Prof. Dr. Wiese)
Illig, M.:
Erweiterung der Domänenum-
gebung und Zugangsmechanismen von
entfernten Arbeitsplätzen im Umfeld
eines Firmennetzwerkes (Prof. Dr.
Groth)
Jeck, A.:
Entwicklung eines Powermanage-
ments für Versuchsträger zum Nachweis
prototypischer Funktionen der KFZ-
Radar-Umsichts-Zensierung (Prof. Dr.
Wiese)
Kamdem Kamhoua, G. A.:
Erstellung von Matlab/Simulink-
Modellen zur Simulation des Starter-
vorganges von Starter (Prof. Dr. Reiner)
Karagiannis, C.:
Vakuumüberwachung der SHIP-
TRAP-Experimentieranlage (Prof. Dr.
Reiner)
Kebede, A.:
Mobile Datenerfassung auf einem
Elektrofahrzeug (Prof. Dr. Bauer)
Klein, M.:
Technische und wirtschaftliche
Optimierung eines Mittelspannungs-
trennschalters (Prof. Dr. Frontzek)
Knaier, T.:
Charakterisierung und Weiter-
entwicklung eines spektroskopischen
Kohlendioxid-Sensors (Prof. Dr. Gräßer)
Koffler, A.:
Entwicklung einer Interbus-S
Lesestelle (Prof. Dr. Reiner)
Kohlrieser, R.:
Entwicklung einer High-Speed ASIC
Testplatine (Prof. Dr. Meuth,
Kress, E.:
Objekterkennung mittels eines
SRR-Sensors (Prof. Dr. Wiese)
Küsslich, O.:
Performance-Test der Sinus Firewall
(Prof. Dr. Groth)
Langner, F.:
Entwicklung und Programmierung
eines Diagnosesystems zur Analyse
von Netzwerkmanagementfehlern
(Prof. Dr. Gräßer)
Lepper, M.:
Elektrooptische Charakterisierung
großflächiger organischer Leucht -
dioden (Prof. Dr. Schmidt-Walter)
Lipecky, T.:
Untersuchung der Möglichkeit
des Anschlusses von 70 Windkraft-
anlagen an ein 34,5 kV/154kV-Netz
(Prof. Dr. Frontzek)
Maslouh, K., Raiss, J.:
Entwicklung einer Lernumgebung
für Java (Prof. Dr. Gräßer)
Meyer, J.:
Laborversuche zur Steuerung
von SCARA-Robotern (Adept) mit
Vision-System zur Erkennung und
Lokalisierung von Werkstücken
(Prof. Dr. Schneider)
Miesel, B.:
Wirtschaftlichkeitsvergleich
von Netzplanungsvarianten
(Prof. Dr. Metz)
Murat, A.:
Netzwerk Lösungsanalyse und
Wirtschaftlichkeitsbetrachtung
(Prof. Dr. Groß)
131Querschnitt Juli 2004
132
basierten Industriesteuerung (Prof.
Dr. Münter)
E/TBauer, T.:
Untersuchung und Implementierung
von Verfahren zum optimierten Rendern
eines graphischen Zeigers (Prof. Dr. Loch)
Deshmukh, A.R.:
Development of programme modu-
les for the decoding of the ITU-T G.992.1
Initialisation sequence for the Confor-
mance Testing and Fault Diagnosis in
the case of U-R2-ADSL-Modems using
Matlab (Prof. Dr. Schultheiß)
Douo, G., Kouete, O.:
ADSL Line Tester (Prof. Dr.
Schultheiß)
Göbel, T.:
Polatization Effects in Optical
Recirculation Loop Transmission
Systems (Prof. Dr. Loch)
Göckel, B.:
Entwicklung eines Kommunikations-
moduls für die multimediale, netzbasie-
rende Lehr- und Lernumgebung ELAT
(Prof. Dr. Pistor)
Kartaltzis, C.:
Anbindung eines Mannheimer
Stadtteils an das Powerline-Kommuni-
kationsnetz (Prof. Dr. Röder)
Kaya, Ö.:
Entwicklung eines Messverfahrens
für das Farbmanagement von Video-
systemen (Prof. Dr. Loch)
Khurram, Q.:
Direct Digital Synthesizer with
Modulation for UMTS Applications
(Prof. Dr. Röder)
Kropff, M.:
Konzeption und Implementierung
einer adaptiven Funktionseinheit zur
Semiller, K.:
Wettbewerbsvergleich von
Funktionsblöcken (Prof. Dr. Wagner)
Simon, C.:
Implementation eines Testsystems
zur Verifikation von sicherheitsrelevan-
ten Überwachungsmechanismen in
der Software von Servoverstärkern
(Prof. Dr. Bauer)
Sippel, S.:
Projektierung, Optimierung und
Erweiterung einer Biogasanlage am
Beispiel der Biogasanlage Almenhof
(Prof. Dr. Metz)
Tsoutsouris, E.:
AVR - Datenverarbeitungssystem
für „nhelix“ (Prof. Dr. Wieland)
Weinheimer, L.:
Semiaktive Fahrwerksregelung
am Beispiel eines Zweirades (Prof. Dr.
Gräßer)
Wernz, J.:
Simulative Echtzeit-Testumgebung
für Applikationen der Kfz-Radar-
Umfeldsensorik (Prof. Dr. Wiese)
Werth, C.:
Temperaturregelung und Über-
wachung von Temperaturöfen per Soft-
SPS sowie Chargenprotokollierung
(Prof. Dr. Reiner)
Weygoldt, H.:
Reprogramming of a Siemens
SPS to control a veneer flexer
(Prof. Dr. Reiner)
Wojciech, S.:
Entwicklung eines Algorithmus
für einen Nahbereichsradar Sensor
(Prof. Dr. Wiese)
Zahn, M.:
Entwurf einer Prüfordnung zum
Funktionstest einer Mikrocontroller
Olyviardy, D.:
Konzeption und Implementierung
einer plattformunabhängigen Ansteue-
rung von CAD Schnittstellen Prozesso-
ren am Beispiel von Unigraphics NX
von EDS (Prof. Dr. Gräßer)
Orians, A.:
Entwicklung einer Softwareplattform
mit Laufzeitüberwachung durch Nut-
zung eines Echtzeit-Betriebssystems
(Prof. Dr. Wycisk)
Pehrs, R.:
Elektrische Ausrüstung eines
Brennstoffzellenversuchsstandes
(Prof. Dr. Schmidt-Walter)
Rückert, H.:
Charakterisierung der Wechsel-
strom-Impedanz einer PEM-Brennstoff-
zelle im Frequenzbereich von 100 Hz
bis 100 kHz als Funktion des Betriebs-
zustandes (Prof. Dr. Michel)
Sauerwein, F.:
Installation des Betriebssystems
Linux als Anleitung für Studenten
zum Selbststudium (Prof. Dr. Wycisk)
Sattig, M.:
Achspositionierung als Software-
lösung in einer Simatic S7 Steuerung
(Prof. Dr. Reiner)
Schäfer, S.:
Dielektrische und thermische
Optimierung von neuartigen Schaltan-
lagenkomponenten (Prof. Dr. Wieland)
Schmidt, D.:
Messtechnische Ausrüstung
eines Brennstoffzellenversuchsstands
(Prof. Dr. Schmidt-Walter)
Schupp, D.:
Entwicklung und Aufbau eines
ATA-Flash Kartenmoduls für den MAS
Micro-II Recorder der Firma Swift
GmbH (Prof. Dr. Schaefer)
133Querschnitt Juli 2004
Schubert, E., Simonsen, E.:
Konzept, CI und Entwicklung einer
Produktreihe zum Thema Entscheidun-
gen (Prof. von Kornatzki)
Schramm, S.:
Fruchtbarer Fehler (Prof. von
Kornatzki)
Stephan, M.:
Gesundheit – Lebensqualität –
Sterbequalität (Prof. Theinert)
Trippel, C.:
Die Zahl 7 – Facetten einer Zahl aus
Vergangenheit / Gegenwart / Zukunft
(Prof. von Kornatzki)
Uhrig, A.:
Bewegungen und Tendenzen in der
Wissensgesellschaft – im Hinblick auf
die Entwicklung der digitalen Fotografie
(Prof. Melzer)
von Traitteur, E.:
Elektrische Komponenten für die
Küche (Prof. Poessnecker)
Wesp, F.:
E-Percussion (Prof. Philipps)
Wipfler, M.:
Stress – Krankheit oder Mode? (Prof.
von Kornatzki)
IGlück, M.:
Möglichkeiten der Mehrschirm-
darstellung bei Präsentationen (Prof.
Dr. Erbs)
Kunkel, T.:
Das XML-Mapping-Problem (Prof.
Dr. Erbs)
Scheidt, N.:
Einsatz von elektrischen Unter-
schriften in zukunftweisenden
Geschäftsprozessen des deutschen
Finanzsektors (Prof. Dr. Lenz)
Hahn, T.:
Wie wirklich ist die Wirklichkeit?
Eine interaktive DVD zur Wirklichkeits-
theorie des Konstruktivismus (Prof.
Pfestorf)
Herkert, N.:
Recycling: Die Verwertung des
„Wertlosen“ (Prof. von Kornatzki)
Junk, T.:
Bewegung (Prof. Melzer)
Läufer, V.:
Relativ – Konzept für eine
Aus stellung über die Subjektivität der
Wahrnehmung (Prof. Hoffmann)
Petersen, C.:
Dynamische Entspannung (Prof.
Melzer)
Piroth, V., Schumacher, M.:
Auszeiten – Ausstellungs -
konzept für den öffentlichen Raum
(Prof. Pfestorf)
Reichelt, S.:
heimat-o-mat.de – eine inter-
aktive Anwendung zum Thema
Heimat (Prof. Wirth)
Richter, R.:
Interface-Licht: Die Lichtharfe
(Prof. Philipps)
Schmidt, S.:
Ansichtssache – Aktion/Ausstellung
im öffentlichen Raum (Prof. von
Kornatzki)
Schüßler,A.:
Fotokamera im öffentlichen Raum –
Digitale Postkarte (Prof. Philipps)
Schnurbus, K.:
Die andere Sicht – Start einer
illustrativ-literarischen Heftreihe
(Prof. Schneider)
Kommunikation zwischen SmartCard
und mobiler Signaturplattform (Prof.
Dr. Röder)
Legenbauer, M.:
Konzeptentwicklung eines Analyse-
systems für KFZ-Bordnetze (Prof. Dr.
Röder)
Mitschke, M.:
Analyse der Methoden zum Schutz
von Programmcode (Prof. Dr. Pistor)
Mughal, A.M.:
Network Security for Remote Access
(NAS to Tacas + Authentication via
LDAP) (Prof. Dr. Röder)
Vimtakhul, A.:
Impact of Clipping on a Multicarrier
Signals and Countermeasures (Prof. Dr.
Röder)
Weil, W.:
Qualitätssicherung von satellitenge-
stützten Übertragungssystemen (Prof.
Dr. Loch)
Wenzel, F.:
Entwicklung internetbasierter
Telematikdienste für einen Fahrer-
arbeitsplatz (Prof. Dr. Schultheiß)
GBartels, S., Drescher, J.:
Deutschland – eine Initiative für
eigenes Denken (Prof. Wirth)
Erdwiens, A.:
Segelyacht / Fahrtenkatamaran
(Prof. Philipps)
Görlich, M., Lazos, C:
Have fun today (Applause) (Prof.
Hoffmann)
Grabovac, A., Taghizadeh Gandji, S.:
Präsentationskonzept einer Moden-
schau am Beispield des belgischen
Modedesigns (Prof. Pfestorf)
134
Springer, A.:
Evaluierung und Implementierung
von verteilten Berechnungsmethoden
zur Kollisionserkennung von Bauteilen
in Virtual Reality Anwendungen (Prof.
Dr. Schneider)
Wangari Weigand, M.:
Natural Computing Applied
to Business Forecasting“ (Prof. Dr.
Kreling)
IuWBeverungen, T.:
Rich Media-Content Providing
und Video-Streaming – Technik
und Anwendungsgebiete (Prof. Dr.
Schöhl)
Blessing, K.:
Barrierefreiheit von Websites der
öffentlichen Hand (Prof. Dr. Thull)
Böhning, T.:
Wertschöpfungs- und Prozess-
modelle für die Vermarktung von
digitalen Mediengütern (Prof. Dr. Joers)
Herrmann, C.:
Competitive Intelligence (Prof. Dr.
Joers)
Kirschenlohr, S., Kyrian, M.:
Analyse der Anforderungen an
Informations- und Wissensmanagement
und prototypische Einführung eines
Portals bei einem F & E-Dienstleister
(Prof. Dr. Lang)
Leipold, C.:
Aufbau eines vernetzten Daten-
banksystems zur Verwaltung,
Re präsentation und zum Austausch
von Publikationsreferenzen im bio-
medizinischen Bereich (Prof. Dr. Lang)
Mettenheimer, S.:
Effektive Benutzerführung in
Knowledge-Management-Systemen
(Prof. Dr. Müller)
Müller, J.:
Ontologie-basiertes Portal für
die Fachhochschule Darmstadt –
Konzeption und Prototypentwicklung
(Prof. Dr. Knorz)
Pintschka, A.:
Bestandsaufnahme der organisa-
torischen und personell-kommunikati-
ven Probleme des Aufbaus, der Imple-
mentierung und Durchführung des
betrieblichen Wissensmanagement
(Prof. Dr. Joers)
Staudt, K.:
Konzepte zur Erreichung von
Barrierefreiheit für Internetauftritte
und -angebote im Finanzdienstleistungs-
sektor (Prof. Dr. Müller)
Steininger, M.:
Ein gewichtungsbasiertes Daten-
bankmodul zum Zusammenfassen
teil redundanter Datensätze (Prof. Dr.
Lang)
KKrauß, I.:
Optimierung der RTM-Technik bzgl.
Integralbauweise in Kombination mit
Hochleistungsfasern (Prof. Dr. Krausse)
Niclas, M.:
Bewertung und Optimierung des
Mischprozesses mit statistischen Mitteln
(Prof. Dr. Gesenhues)
Rathgeb, M.:
Beeinflussung der Bauteileeigen-
schaften bei der Wasserinjektionstech-
nik durch Prozessführung und Werk-
stoffeigenschaften (Prof. Dr. Schröder)
MNBerger, N.:
Statistische Versuchsplanung mit
SAS (Prof. Dr. Overbeck-Larisch)
Burtescu, E.:
Erstellung von geometrischen
Demonstrationen zu Bézier-Kurven und
Bézier-Splines (Prof. Dr. Bierbaum)
Christ, T. :
Entwicklung und Validierung eines
Softwaremoduls zur Torsionsbestim-
mung des menschlichen Auges
(Prof. Dr. Netzsch)
Daniel, O.:
Zur numerischen Berechnung der
elektrischen Stromdichte in zweidimen-
sionalen Leitern (Pof. Dr. Groß)
Emig, A. :
Entwicklung eines Messplatzes zur
Auflösungsmessung an Solbarblind Bild-
verstärkern im tief ultravioletten Spek-
tralbereich (Prof. Dr. Heckenkamp)
Fricke, C.:
Simulation anisotroper nichtlinearer
Magnete (Pof. Dr. Groß)
Fuhrmann, U.:
Differenzenmethoden in der
Strömungsmechanik (Pof. Dr. Groß)
Gaiser, M.:
Cashflow-Mapping bei Finanzwaps
(Pof. Dr. Pfeifer)
Hein, L.:
Untersuchung des Tagesgangs der
Feuchte der oberen Troposphäre
anhand von Satellitenbeobachtungen
(Meteosat-7) (Pof. Dr. Groß)
Hildenbrand, C.:
Approximation von Punktmengen
mit rationalen Bezierflächen (Pof. Dr.
Rohlfing)
Juric, N.:
Mathematische Hintergründe von
Finanzinnovationen (Pof. Dr. Baumgarten)
König, V. :
Automatisierte Segmentierung von
Objekten für ein industrielles Bildverar-
135Querschnitt Juli 2004
beitungssystem mittels Farbinformation
(Prof. Dr. Sandau)
Kudling, R.:
Die Darstellung dreidimensionaler
Funktionen mittels Direct3D (Pof. Dr.
Bierbaum)
Kunzer, S. :
Aufbau und Test eines SPIDER-
Messgerätes zur Charakterisierung
kurzer Laserpulse (Prof. Dr. Heddrich)
Lebhardt, A.:
Die Bestimmung der numerischen
Lösung der instationären Wärmelei-
tungsgleichung unter Berücksichtigung
von Wärmequellen (Pof. Dr. Groß)
Losch, M.:
Anwendung der Fourier-Trans-
formation in der Signalanalyse
(Pof. Dr. Fürst)
Muth, M. :
Digitalisierung analoger Nieder-
schlagsregistrierungen des Deutschen
Wetterdienstes (Prof. Dr. Sandau)
Plaumann, R.:
Über die Speziesabhängigkeit der
kurzreichweitigen Korrelationen in DNA-
Sequenzen (Pof. Dr. Helm)
Postert, T. :
Entwicklung eines BV-Systems zur
Messung der Dejnstage an einem LCD-
Nutzen (Prof. Dr. Scharfenberg)
Reiter-Waßmann, M. :
Universeller Prüfplatz zur Vermes-
sung von Musterteilen mittels Bildverar-
beitung (Prof. Dr. Netzsch)
Range, M.:
Globale Strategien zur Optimierung
von LS-Problemen (Pof. Dr. Rohlfing)
Ritzka, M.:
Ermittlung von Kennzahlen für Ver-
fügbarkeit und Zuverlässigkeit
technischer Systeme (Pof. Dr. Baum-
garten)
Roth, N.:
Vibrationssimulation von Test-
leiterplatten mit der FE-Methode
(Pof. Dr. Groß)
Schröder, D.:
Stock Price Jump Simulation and its
Estimation based on Historical Stock
Price Data (Pof. Dr. Aulenbacher)
Strohmer, S.:
Simulationsrechnungen zur
Elektronenoptik des ANKA-Speicher-
rings (Pof. Dr. Groß
Widmer, M.:
Analyse verschiedener Cash-
Flow-Mapping-Methoden (Pof. Dr.
Pfeifer)
Zielbauer, M.:
Bézier- und B-Spline-Kurven (Pof.
Dr. Groß)
Zimmer, I. :
Optimale Einpassung einer gege-
benen Kaufläche in den Gegenkiefer
mit dem dentalen CAD/CAM System
Cerec3D (Prof. Dr. Netzsch)
SChlebik, N.:
Die Bedeutung der PISA-Studie für
die Schulsozialarbeit (Prof. Dr. Schreck-
ling)
Erzfeld, N.:
Gewalt in der Grundschule –
Präventionsstrategien und Konzepte
pädagogischer Interventionen (Herr
Gorges, MA)
Farrenkopf, H.:
Die Bedeutung frühkindlicher
Bindungen für ein aggressives Verhalten
im Jugendalter (Prof. Dr. Hofmann)
Fischer, P.:
Menschen, die nicht sprechen
wollen (Prof. Dr. Gerspach)
Gomell, B.:
Ist die Vorklasse noch zeitgemäß?
Eine vergleichende Studie zu Ent-
wicklung, Chancen und Risiken kom-
pensatorischer Bildungsprozesse
(Prof. Dr. Nölke)
Henn, S.:
Machtmissbrauch in der Psychiatrie
– unter Berücksichtigung des sozialpäd-
agogischen Arbeitsfeldes (Prof. Dr. Hof-
mann)
Hombach, K.:
Biographische Bedingungen schuli-
schen Scheiterns von Jugendlichen
und Möglichkeiten der beruflichen
Integration – Eine qualitative Studie
auf der Basis narrativer Interviews
(Prof. Dr.Nölke )
Hornberger, F.:
Familiale Verlaufskurvenprozesse
und biographische Entwicklungen von
Heimjugendlichen (Prof. Dr. Nölke )
Hüfner, M.:
Die PISA-Studien und ihre Bedeu-
tung für die Schule und Jugendhilfe
(Prof. Dr. Schreckling)
Karnovsky, E. S.:
Kernaufgaben und Paradoxien
der Professionalisierung von Schul-
sozialarbeit (Prof. Dr. Nölke)
Koada, D.:
Pädagogische Aspekte der
Gestaltung von Außenanlagen für
Kindergärten – mit der Planung eines
Entwurfes (Herr Gorges, MA)
Niemtschak, S.:
Behinderte Menschen im Zirkus
(Prof. Dr. Eckert )
136
Pereza, M.:
Sozialpädagogische Identitätsarbeit
über ästhetische Ausdrucksprozesse
am Beispiel Film/Video (Prof. Dr. Nie-
derreiter )
Riedling, S.:
Der Konstruktivismus und seine
Bedeutung für den lösungsorientierten
Ansatz in der Sozialen Arbeit (Prof. Raab)
Ries, M.:
Zur Morphologie des Verhältnisses
von Rockmusik und Gewalt – Indikation,
Gefährdungspotentiale und Präventions-
strategien (Prof. Dr. Röll)
Schwinger, M.:
Medieneinsatz als Instrument päda-
gogischer Arbeit mit Straßenkindern in
Brasilien (Prof. Dr. Röll)
Weihen, M.:
Kritische Betrachtung des Phäno-
mens ADS (Prof. Dr. Gerspach)
Wolf, K.:
Rekonstruktionen der biographi-
schen Bedeutung von Wohnungslosig-
keit bei Frauen (Prof. Dr. Nölke)
WAbt, R.:
Wirtschaftlichkeits- und Flexibilitäts-
erhöhung durch KANBAN am Beispiel
der Kohlebürstenherstellung der
Deutschen Carbone AG (Dr. Lenk)
Ahlheim, S.:
Entwicklung eines Software-
Konzepts zur Optimierung des
Customer Relationship Managements
im Communication Center Merck
KgaA (Herr Hesse)
Arend, S.:
Bestandsmanagement mit Hilfe
von Kennzahlen in SAP bei der
Alfred Kärcher GmbH & Co KG
(Prof. Dr. Rebstock)
Baumann, S.:
Der Einsatz von Kulturen auf den
Einsatz der Marketinginstrumente
persönlicher Verkauf und Werbung –
dargestellt an ausgewählten Ländern
(Prof. Dr. Röhrig)
Bäumen, M.:
Einführung einer digitalen
Personalakte bei der Takata-Petri AG
(Prof. Dr. Hildebrand)
Bauschmann, O.:
Dialogkommunikation mit
kritischen Stakeholdern in der Planung
(Prof. Dr. Schellhase)
Bernardi, S.:
Zeitgemäßes Pharmamarketing
durch Integration aller Kommunikations-
kanäle – dargestellt am Beispiel eines
führenden deutschen Pharmaunter-
nehmens (Prof. Dr. Röhrig)
Binder, I.:
Probleme und Konsequenzen der
Umstellung der Konzernrechnungs legung
v. HGB auf IAS/IFRS dargestellt am Beispiel
von Kreditinstituten (Prof. Dr. Bossert)
Bornwasser S.:
Performance contracting im
öffent lichen Sektor, Evaluierung am
Beispiel der JVA Darmstadt (Prof. Dr.
Meyer-Renschhausen)
Coors, C.:
Humanvermögensrechnung in
der betrieblichen Rechnungslegung
im Strukturwandel zu informations-
orientierten Unternehmen (Prof. Dr.
Beiersdorf)
Eisel, M.:
Möglichkeiten und Grenzen des
Beziehungsmarketings (Prof. Dr. Neu)
Elger, H.:
Konzeption und Entwurf einer
betrieblichen Anwendungssoftware
zur statistischen Auswertung daten-
bankbasierter Mitgliedsdaten (Herr
Hesse)
Elsen, F.:
Konzeption und Realisierung einer
Website für Wirtschaftsdatenbanken
(Herr Hesse)
Fencakova, K.:
Analyse der Möglichkeiten einer
Auslagerung von Fertigungsteilen
der Liebherr Verkehrstechnik GmbH
in die EU-Beitrittskandidaten Slowakei/
Tschechische Republik (Herr Hesse)
Filoro, M.:
Markteintrittsstrategie im
Marketingmix eines B2B-Portals –
Am Beispiel von Wella in den USA
(Prof. Dr. Neu)
Frankovic, M.:
Einsatzmöglichkeiten des Balanced
Scorecard Konzeptes in der Wohnungs-
wirtschaft unter Berücksichtigung von
SAP R/3 (Prof. Dr. Hildebrand)
Fröhlich, J.:
Kosteneffekte des neuen Fallpau-
schalengesetzes – Darstellung am Bei-
spiel des Kreiskrankenhauses Erbach
(Prof. Dr. Bossert)
Gärtner, L.:
Sportsponsoring – Analyse der
Sponsoringaktivitäten der Eintracht
Frankfurt Fußball AG zur Optimierung
des Einsatzes der Kommunikations-
instrumente (Prof. Niegel)
Gaulrapp, S., Schidlo, S.:
Der Einsatz und die Bedeutung
von Couponing für den Einzelhandel
am Beispiel eines Bekleidungsfach-
geschäftes (Prof. Niegel)
Grocholl, C.:
Erstellung eines kommunikations-
politischen Konzeptes zur Erreichung
137Querschnitt Juli 2004
einer ausgewählten Zielgruppe im
Friseurgeschäft (Prof. Niegel)
Häusler, C.:
Fundraising von Nonprofit-
Organisationen am Beispiel der
Johanniter-Unfall-Hilfe e. V. (Kreis-
verband Frankfurt/Main-Taunus) –
eine Analyse der Fördermitglieder
und Handlungsempfehlungen zur
Steigerung des philanthropischen
Engagements (Prof. Niegel)
Heinke, B.:
System Landscape Optimization:
Kontenplanumstellung (IAS) und
Optimierung der Prozesse der
externen Berichterstattung in SAP R/3
(Prof. Dr. Hildebrand)
Hollricher, A.:
Basel II als e-CRM-Unterstützungs-
werkzeug (Prof. Dr. Manz)
Horch, C.:
Zielgerichtetes Sponsoring der
Merck Unternehmenskommuni kation
am Standort Darmstadt (Prof. Dr. Rudl)
Hulm, V.:
Marktanalyse „The Americas“ –
Eine Untersuchung für die Lufthansa
Cargo AG im Bereich Wertfracht
(Prof. Dr. Röhrig)
Hünecke, K.:
Die Nutzung von Biomasse im
zukünftigen Wärmemarkt in Deutsch-
land bis 2020 (Prof. Dr. Meyer-Rensch-
hausen)
Janjanin, M.:
Kalkulationsgrundlagen zur
Bewertung von Unternehmens websites
(Prof. Dr. Bossert)
Käding, U.:
Risikomanagement von Projekten
im Anlagencontracting (Prof. Dr. Meyer-
Renschhausen)
Kemper, S.:
Systementwicklung unter Berück-
sichtigung betriebswirtschaftlicher
Aspekte, insbesondere derer des
Projektmanagements, am Beispiel der
Wella AG, Darmstadt (Herr Hesse)
Koch, I.:
Methoden zur Stromverbrauchs-
analyse von Bürogebäuden (Prof. Dr.
Meyer-Renschhausen)
Kohl, S.:
VC-Finanzierung – Komponenten
des strategischen Portfoliomanagements
– Eine praktische und theoretische
Bestansaufnahme (Prof. Dr. Bossert)
Körner, N.:
Produkt- und Marktbezogenes
Kosten- und Erfolgscontrolling bei
Vertriebsorientierten Unternehmen
(Prof. Dr. Bossert)
Kraus, C.:
Gestaltung von e-Learning-
Systemen – Ergebnisse einer Eigen-
studie in der Automobilindustrie
(Prof. Dr. Ohl)
Krauß, D.:
Die Jahresabschlussprüfung von
börsennotierten Kapitalgesellschaften
im Spannungsfeld von Prüfungseffizienz,
Prüfungsqualität und Corporate Gover-
nance (Prof. Dr. Bossert)
Kuhn, T.:
Wirtschaftlichkeitsbetrachtung
von Inselsystemen zur Stromerzeu-
gung in Entwicklungs- und Schwellen-
ländern (Prof. Dr. Meyer-Rensch-
hausen)
Lange, D. A.:
Risikokommunikation im Tabak-
markt – Kommunikationsverhalten und
Kommunikationsmuster von Tabak-
industrie und Stakeholdern (Prof. Dr.
Schellhase)
Langer, D. P.:
Instrumente und Konzeption einer
Business Portal Management Lösung am
Beispiel einer Luftverkehrsgesellschaft
(Prof. Dr. Jörs)
Lehmann, K.:
Glaubwürdigkeit und Verantwor-
tung – Stakeholder-Kommunikation
in der Alkohol- und Tabakindustrie
(Prof. Dr. Schellhase)
Lopez, J.:
Systeme betrieblicher Altersver-
sorgung und Rechnungslegung für
Betriebsverpflichtungen nach deutscher
Rechnungslegung, United States Gene-
rally Ac Principles und International
Financial Reporting Standards (Prof.
Dr. Bossert)
Metzger, F.:
Probleme und Optimierung der
Wiedereingliederung von Auslands-
entsendeten in der Automobil-Zuliefer-
industrie unter besonderer Berück-
sichtigung von Takata-Petri (Prof. Dr.
Meyer)
Möldner, K.:
Möglichkeiten zur Reduzierung der
Fehlzeiten am Beispiel der Bus- und
Straßenbahnfahrer der HEAG Verkehrs
GmbH (Prof. Dr. Meyer)
Müller, J.:
Konsumenten- und Stakeholder-
kommunikation in der Ernährungs-
industrie – Kommunikation mit kritischen
Anspruchsgruppen (Prof. Dr. Schell-
hase)
Müller, S.:
Integration der Balanced Scorecard
in das Planungs- und Kontrollsystem
einer Unternehmung (Prof. Dr. Manz)
Münch, M.:
Sponsoring als Kommunikations-
instrument (Prof. Dr. Veit)
138
Nadrowitz, M.:
Die Bedeutung von Sekundär-
dienstleistungen im Business-to-
Business-Marketing – eine empirische
Studie am Beispiel des Produktes
TMT15 der Degussa AG (Prof. Dr.
Schellhase)
Nichelmann, S.:
Neustrukturierung von Sozial-
leistungen am Beispiel der Landis
und Staefa Produktion GmbH (Prof.
Dr. Beiersdorf)
Nowak, K.:
Analyse von Finanzierungsmodellen
für Windenergieanlagen aus Anleger-
sicht (Prof. Dr. Meyer-Renschhausen)
Oliveira de Sousa, J.:
Prozessdarstellung und Prozess-
optimierung innerbetrieblicher Abläufe
dargestellt am Beispiel der Vileda
Professional GmbH (Prof. Dr. Manz)
Otte, M.:
Ausschöpfung von Beschäftigungs-
potentialen durch Dienstleistungs-
agenturen für niedrigqualifizierte
Erwerbs lose (Prof. Bauer)
Peters, M.:
Marketingtrainings im Rahmen
einer internationalen Markteinführung
am Beispiel von BMW Motorrad,
einem Geschäftsbereich der BMW AG
(Prof. Niegel)
Pothe, S.:
Analyse des Business-Potentials von
Consumer Relationship Management
und Permission Marketing-Ansätze zur
Optimierung von Kundenbeziehungen
– das Beispiel Sparte Consumer der
Wella AG (Prof. Dr. Schellhase)
Pradel, M.:
Couponing und Kundenkarten –
Chancen und Risiken für die Zeitungen
in Deutschland (Prof. Dr. Röhrig)
Putz, T.:
Konzeption eines Vertriebssystems
für die Inthermo AG (Prof. Dr. Schellhase)
Ratter, M.:
Möglichkeiten und Grenzen des
elektronischen Beschaffungsmanage-
ments auf internationaler Ebene, unter
besonderer Berücksichtigung des
eProcurement-Tools „IntraShopMerck“
(Prof. Dr. Veit)
Reble, T.:
Konzeption und Aufbau einer modu-
laren e-Learning Applikation (CBT) im
Trainingsbereich Six Sigma (Herr Hesse)
Rodriguez, I.:
Aktuelle Organisationsformen
des Personalmanagements (Prof. Dr.
Beiersdorf)
Röhler, S.:
Konzeption zum Aufbau eines Web-
shops für die Firma Schunk GmbH &
Co. KG Spann- und Greiftechnik in
Lauffen am Neckar (Prof. Dr. Ohl)
Roth, M.:
Analyse des Fremd- und Selbstbil-
des der Fraport AG zur Optimierung des
Hochschulmarketings (Prof. Dr. Meyer)
Runge, S.:
Die Anwendung des Discounted
Cash Flow Verfahrens als Wertermitt-
lungsverfahren bei Cash Flow orientier-
ten Projektfinanzierungen für Immobili-
en aus Bankensicht (Prof. Dr. Hofmann)
Rusam, S.:
Problematik und Entwicklung der
Abschluss-Prüfung im Lichte des
Deutschen und EU-Rechts (Prof. Dr.
Bossert)
Salus, N.:
Konzeption zur Produkteinführung
im Business Travel Management –
dargestellt am Beispiel eines Software-
moduls des Online Management Infor-
mation System der Lufthansa AirPlus
Servicekarten GmbH (Prof. Dr. Röhrig)
Schönberger, L.:
Betriebswirtschaftliche Nutzpotenti-
ale des elektronischen Rechtsverkehrs
in Deutschland (Prof. Dr. Hildebrand)
Schroll, S.:
Direct-to-Consumer – Möglichkei-
ten und Grenzen patientenorientierter
Kommunikation im Pharmamarketing
(Prof. Dr. Schellhase)
Schupp, E.:
Einfluss von ausgewählten gesund-
heitspolitischen, arzneimittelbezogenen
Gesetzesvorgaben auf Prozessabläufe
und finanzielle Rahmenbedingungen
von Merck Deutschland Pharma (Prof.
Dr. Zubrod)
Schwedes, P.:
Entwicklung eines Kommunikations-
programms für die Produkteinführung
der 4-in1 AIO-Geräte, dargestellt am
Beispiel der Lexmark Deutschland
GmbH (Prof. Dr. Neu)
Seifermann, Y.:
Internationaler Vergleich von
Anti-Raucher-Kampagnen (Prof. Dr.
Schellhase)
Seilheimer, A.:
Die Humanvermögensrechnung –
geeignete Verfahren zu Bewertung von
Humanressourcen im öffentlichen
Dienst? (Prof. Dr. Beiersdorf)
Sieg, R.:
Mehrdimensionale Analyse des
öffentlichen Verwaltungshandelns (Prof.
Dr. Manz)
Staudt, J.:
Unternehmenskauf – Möglichkeiten
der Gründungs- und Erwerbfinanzie-
rung (Prof. Dr. Bossert)
139Querschnitt Juli 2004
Stepanek, N.:
Konzeption und Realisierung des
Internetauftrittes der Region Zentral-
Europa (Prof. Dr. Neu)
Stockum, R.:
Erfolgsbedingungen bei Unter-
nehmensgründungen – empirische
Untersuchung anhand ausgewählter
Firmen im Kammerbezirk Starkenburg
(Prof. Dr. Meyer-Renschhausen)
Strauß, A.:
Business Development als industri-
elle Dienstleistung der Heidelberger
Druckmaschinen AG für die Print-
medien-Industrie (Prof. Dr. Schellhase)
Stumpf-Trautmann, K.:
Entwicklung eines Vertriebskon-
zeptes für die Cooperativa Multiaktiva
Neuland, Paraguay, unter Berücksichti-
gung des Vertriebsweges „Internet“
(Prof. Dr. Rebstock)
Suchanek, S.:
Fair Value – Auswirkungen auf die
Bilanzierung bei Versicherungsunter-
nehmen (Prof. Dr. Veit)
Swiderski, S.:
Ermittlung und Bilanzierung positi-
ver und negativer Firmenwerte im
Rahmen eines Unternehmenserwerbs –
Eine vergleichende Betrachtung nach
HGB und IAS/IFRS (Prof. Dr. Bossert)
Tauchert, S.:
Gestaltung eines flexiblen Entgelt-
systems anhand eines Beispielunterneh-
mens der Automobilzulieferindustrie
(Prof. Niegel)
Thielmann, C.:
Kritische Analyse traditioneller
und moderner Kennzahlen zur Unter-
nehmensführung (Prof. Dr. Manz)
Thierolf, C.:
Finanzierungsleasing beweglicher
Investitionsgüter – Finanzierungsrisiken
und Bonitätsprüfung im Licht von Basel II
(Prof. Dr. Bossert)
Tinz, H.:
Entwicklung und Implementierung
eines Konzeptes zur Steigerung der Kun-
denzufriedenheit und der Kundenbin-
dung im Geschäftsgebiet Formmassen
der Röhm GmbH & Co. KG (Prof. Niegel)
Trenner, C.:
Working Capital Optimierung (Prof.
Dr. Manz)
Wack, J.:
Analyse von Produktklassifikationen
und Darstellung von Anwendungs-
zusammenhängen (Prof. Dr. Manz)
Wahl, C.:
Stakeholder- und Risikokommunika-
tion in kritischen Geschäftsfeldern am
Beispiel von Nahrungsmittelergän-
zungsprodukten (Prof. Dr. Schellhase)
Walter, U.:
Krisenmanagement Finanz- und
leistungswirtschaftliche Sanierungs-
maßnahmen im Stadium einer Liquidi-
tätskrise – unter besonderer Berück-
sichtigung mittelständiger Unternehmen
(Prof. Dr. Bossert)
Wamser, M.:
Entwicklung eines prozessorientier-
ten Ansatzes zur Analyse von Promoti-
ons – am Beispiel der Gilette Gruppe
Deutschland (Prof. Dr. Manz)
Wandinger, R.:
Balanced Scorecard im Einkauf
(Prof. Dr. Bossert)
Weisheit, A.:
Analyse und Bewertung von direk-
tem und indirektem Vertrieb für das
Geschäftsfeld Cosmetics der Merck
KGaA im deutschen Markt (Prof. Dr.
Manz)
Wolf, H.:
Analyse und Konzeption einer
datenfunkgesteuerten Kommissionier-
abwicklung (Paperless Order Picking
by Voice) bei der Merck KGaA
(Prof. Dr. Hildebrand)
von Grabczewski N.:
Stromkennzeichnung in Österreich
(Prof. Dr. Meyer-Renschhausen)
Zirm, S.:
Analyse der Erwartungen an eine
Kundenzeitschrift im B2B-Bereich – aus
Sicht von Anbietern und Kunden (Prof.
Dr. Schellhase)
140
Im Ausland angefertigte
Diplomarbeiten:
Fett, T.:
Photochemisches Verhalten von
neuartigen Ruthenium- und Osmium-
komplexen (Dublin City University,
Irland; Prof. Han Vos, Prof. Dr. Fichtner)
Hebestreit, L.:
Storing XML in a relational Database
in a web environment (ESAIP Angers,
Frankreich; Prof. Dr. Schaal, Prof. Dr.
Harriehausen-Mühlbauer)
Lindner, J.:
e-lecture (University of Wisconsin,
Platteville, USA; Prof. Hasker,
Prof. Dr. Harriehausen-Mühlbauer)
Bachelor:
Bräutigam, S.:
Phonetic supported e-Learning at
the example of business-German
(Oulu Polytechnic, Finnland; Pekka Silva,
Prof. Dr. Harriehausen-Mühlbauer)
An der FH angefertigte Diplom-
arbeiten ausländischer Studierender:
Casas Villaverde, I.:
Testing of current transformators
and overcurrent protections for electric
power networks (Universidade de Vigo;
Prof. Lorenzo, Prof. Dr. Frontzek)
Frechin, J.-R.:
Programmierung einer Schwing-
erreger-Einrichtung (EIGSI La Rochelle;
Prof. Dr. Michel)
Habrych, M.:
Investigation of electromagnetic
fields under high voltage lines
(Wroclawe University of Technology;
Prof. Dr. Wroblewski, Prof. Dr. Frontzek)
Lichocki, J.:
Investigation of the powersystem
stability with help of the „PowerWorld“-
Programm (Warzsaw University of Tech-
nology; Dr. Ziemianek, Prof. Dr. Frontzek)
Ors Roig, J.:
Einbezug der Händlersituation in
das Netztraining (Universidad de Vigo;
Prof. Dr. Metz)
Wrotek, M.:
Investigation of the powersystem
stability with help of the „PowerWorld“-
Programm (Warzsaw University of
Technology; Dr. Ziemianek, Prof. Dr.
Frontzek)
Kein Fehler im System
142
von drei Doktorarbeiten. Seit 2002 Geschäfts-
führender Direktor des „Instituts für Ange-
wandte Informatik Darmstadt“ (www.aida.fh-
darmstadt.de). Hier werden Industrie- und
Forschungsprojekte u.a. auf dem Gebiet der
Verteilungstechnologien, der Security, der
mobilen Agenten, der Webtechnologien
(Web Services, Information Brokerage...) und
des e-Learning durchgeführt und Postgradu-
ierte Studierende in Zusammenarbeit mit
internationalen Partnerhochschulen weiter-
qualifiziert. 2001 bis 2003 Projektleitung des
vom Land Hessen geförderten F&E-Projektes
„Virtuelle Uni versität – Mobile Agenten und
Sicherheit“.
Prof. Dr. rer.nat. Robert Fleischmann
Jahrgang 1945. Chemiestudium 1964
bis 1968, Promotion 1971 am Physikalisch-
Chemischen Institut der Universität Würz-
burg. Industrietätigkeit 1972 bis 1990 mit
Projektleitung Brennstoffzellen und Leitung
Industrieinstitut Anorganische Chemie
bzw. Physikalisch-Chemische Verfahren.
Dekan des Fachbereiches Chemische
Technologie der FHD von 1996 bis 2000.
Über die Autoren
Nadine Balzter
Jahrgang 1975. Dipl. Sozialpädagogin,
ist Bildungsreferentin für junge Erwachsene.
Sie war wissenschaftliche Mitarbeiterin
der Fachhochschule Darmstadt im Projekt
„KJP Evaluation Politische Jugendbildung“.
Prof. Dr. Udo Bleimann
Ausbildung als Mathematiker und
Betriebswirt. Seit 1985 Professur für Betriebs-
informatik und Telekommunikation am Fach-
bereich Informatik der Fachhochschule
Darmstadt. Organisation und Leitung vieler
Fachtagungen und Workshops u.a. zu Büro-
kommunikation, Workflow, Software Ergono-
mie, Telekommunikation, Integriertes Netz-
und Systemmanagement (z.B. International
Network Conference 1998, 2000 und 2002
in Plymouth, Software Ergonomie '99 in
Walldorf, Mensch&Computer 2001 in Bonn
und M&C2002 in Hamburg). Mitglied in
der internationalen Jury „Frauen Software
Award“ (KTW). Betreuung von ca. 350
Diplom- und Masterarbeiten, davon ca.
300 Industrie projekte im Bereich Telekommu-
nikation und Betriebsínformatik. Betreuung
Mitglied des Dechema-Ausschusses
„Chemische Sensoren“. Über 50 Veröffentli-
chungen, Patente und Patentanmeldungen.
Dipl.-Inform. Ulrich Gojny
Jahrgang 1938. 1960 Abschluss der
Fachschule für Optik und Fototechnik als Film-
techniker. Sechsjährige Tätigkeit als Kamera-
mann bei verschiedenen Filmpro duktionen
und Fernsehanstalten. Anschließend Physik-
laborant an der Ingenieurschule Darmstadt
und berufsbegleitendes Studium der Elektro-
technik/Nachrichtentechnik am Fernlehr-
institut „Studiengemeinschaft Darmstadt“,
1970 Staatliche Ingenieurprüfung, danach
Laboringenieur im Telekommunika tionslabor
der Fachhochschule Darmstadt. Ab 1989
Laborleiter im Institut für graphische Daten-
verarbeitung der Fachhochschule Darmstadt.
1993 Abschluss des berufs begleitenden
Universitätsstudiums an der Fernuniversität
Hagen als Diplom-Informa tiker. Seit 1988
in verschiedenen Forschungs- und Ent-
wicklungsprojekten im Bereich e-Learning
tätig.
Priv.-Doz. Dr. habil. Angelika Karger
Jahrgang 1952. Vertretungsprofessorin
für Philosophie an der FHD (Fachbereich
Sozial- und Kulturwissenschaften) von
2002–2004, sowie Lehrbeauftragte im
Fachbereich Informations- und Wissens-
management und im Fach bereich Sozial-
und Kulturwissenschaften. Lehrt zurzeit
wieder als Privat- Dozentin für Wissenschafts-
theorie am Institut für Technikphilosophie
und Wissenschafts theorie an der Universität
Stuttgart. Habilitierte 1986 zu wissenschafts-
theoretischen Fragen der Morphogenese
und Genetik (Zeichen evolution).Diverse
Vertretungsprofessuren und Lehraufträge.
Stets die inter- und transdisziplinären Zusam-
menhänge zwischen Wissenschaft, Technik,
Kunst und Kultur und Natur transparant
darstellend, widmet Karger sich heute inter-
disziplinären Fragen der Innovations- und
Kreativitätsforschung, z.B. Verbindung von
Nanotechniken, Genetik und Informatik.
Prof. Dr. Gerhard Knorz
Jahrgang 1951. Studium der Informatik
und Promotion (1978) an der TU Darmstadt,
Verschiedene Projekte zur Entwicklung
und Praxiseinführung von Verfahren zur
automatischen Inhaltserschließung. Seit
1986 Professor für Informationsmethodik
am Fachbereich Informations- und Wissens-
management mit den Schwerpunkten Wis-
sensrepräsentation und Information Retrieval.
Gastprofessuren für Datenbanksysteme
und Information Retrieval in Darmstadt und
Konstanz. Seit 2002 Vizepräsident der Fach-
hochschule Darmstadt und zuständig für
den Bereich des Informations- und Wissens-
managements.
Dipl.-Medienpraktikerin Angela
Leichtweiß
Sozialpädagogikstudium an der Fachhoch-
schule Darmstadt, Aufbaustudium „Medien-
wissenschaft-Medienpraxis“ an der Universität
Tübingen. Seit 2002 Mitarbeiterin im Institut
für graphische Datenverarbeitung (IgDV) der
FH Darmstadt. Arbeitsschwerpunkte: Evalua-
tion und didaktische Beratung im e-Learning
Projekt „2MN“, Informations design.
Prof. Dr. Horst F. Röder
Von 1970 bis 1975 Studium der Nachrich-
tentechnik an der Technischen Hochschule in
Darmstadt. Diplom-Vorprüfung und Diplom-
Hauptprüfung (Dipl.-Ing.) mit „Auszeich-
nung“. Von 1976 bis 1980 wissenschaftlicher
Mitarbeiter am Institut für Übertragungstech-
nik und Elektroakustik. 1980 Promotion zum
Dr.-Ing. mit „Auszeichnung“.Von 1980 bis
1985 Wissenschaftler im Forschungsinstitut
der Deutschen Bundespost beim Fernmelde-
technischen Zentralamt in Darmstadt. Projekt-
leiter für „Digitale Ton- und Bildübertragung“
in der Expert subgroup R5 der Union der
Europäischen Rundfunkorganisationen (UER).
Seit 1985 Professor für Telekommunikations-
systeme an der Fachhochschule Darmstadt
im Fachbereich Elektrotechnik Telekommuni-
kation. Von 1987 bis 1994 stellvertretender
Leiter des Instituts für Graphische Datenver-
arbeitung und seit 1994 Leiter des Instituts.
Seit 2000 Mitglied im Hessischen Telemedia
143Querschnitt Juli 2004
144
Thomas Schroedter
Jahrgang 1955, Dipl. Pädagoge, ist Lehr-
beauftragter am Fachbereich Sozial päda-
gogik der Fachhochschule Darmstadt und
Journalist. Er war wissenschaftlicher Mitarbei-
ter der FHD im Projekt „KJP Evalua tion Politi-
sche Jugendbildung“.
Prof. Dr.-Ing. Jürgen Spittank
Jahrgang 1957. Studium des Bauingeni-
eurwesens an der Ruhr-Universität-Bochum
mit anschließender Promotion am Lehrstuhl
für Baukonstruktionen, konstruktiver Bau-
physik und Ingenieurholzbau. Danach Ange-
stellter bzw. später stellvertretender Leiter
der Abteilung Tragwerksplanung bei der
Lahmeyer Ingenieurgesellschaft, consulting
engineers, Frankfurt /Main, betraut mit sta-
tisch-konstruktiver Bearbeitung, Bauleitung
und Bauüberwachung sowie Projektsteue-
rung diverser nationaler u. internationaler
Großprojekte aus dem Industrie- und Hoch-
bau. Seit 1992 Lehrbeauftragter und ab 1993
Professor an der FHD mit folgenden Arbeits-
gebieten: Ingenieurholzbau/Massivbau so-
wie historische/neuzeitliche und/oder alter-
native Bauweisen und Baukonstruktionen
als auch vorbeugender und baulicher Brand-
schutz.
M.Sc. (CIT) Ingo Stengel
Jahrgang 1968. 1996 Abschluss als Dipl.
Inform. (FH) an der FH Darmstadt mit den
Schwerpunkten Telekommunikation und
Graphische Datenverarbeitung. Anschlie-
ßend postgraduiertes Studium am Cork
Institute of Technology (CIT) mit dem
Abschluss M.Sc. by Research and Thesis.
Seit 2001 Doktorand am CIT.
Über sechs Jahre wissenschaftlicher
Mitarbeiter am FB Informatik an der FH-
Darmstadt. Zur Zeit Laborleiter am Institut
für graphische Datenverarbeitung. Seit 1997
in verschiedenen Forschungsprojekten aus
den Bereichen Telekommunikation, Sicher-
heit und e-Learning tätig.
Technologie-Kompetenz-Center httc an der
Technischen Universität in Darmstadt. Bisher
mehr als 40 wissenschaftliche Veröffentli-
chungen und 9 Patente aus dem Bereich der
Digitalen Übertragungstechnik. Seit 1992
Leitung von internationalen Forschungs-
und Entwicklungsprojekten aus dem Bereich
e-Learning.
Dipl.-Ing. (FH) Alexander Russ
Jahrgang 1957. Von 1974 bis 1977 Fein-
mechanikerlehre an der THD, danach von
1979 bis 1983 Studium Feinwerktechnik an
der FH Frankfurt am Main.
Berufspraxis: 1983 Stenzel CNC-Technik
Wiesbaden, 1984–1989 Feinwerktechniker
am Institut für Kernphysik der THD, 1989–
1991 Dentalentwicklung CEREC Siemens,
Bensheim, 1991–1992 Russ Industriemess-
technik GmbH. Seit 1993 Laboringenieur
an der FHD im Fachbereich Maschinenbau.
Betreut die Labore Mess- und Regelungs-
technik, Umwelttechnik sowie Teile des
Labors für Mechatronische Systeme.
Prof. Dr. phil. Achim Schröder
Jahrgang 1951. Lehrt seit 1994 Kultur-
pädagogik und Jugendarbeit am Fachbe-
reich Sozialpädagogik der Fachhoch schule
Darmstadt. Arbeitsschwerpunkte sind: Ado-
leszenz und Gesellschaft, Konfliktbewältigung
durch Szenisches Spiel, professionelle Bezie-
hungen, Persönlichkeitsentwicklung und poli-
tisches Lernen. Achtzehnjährige praktische
Erfahrungen in verschiedenen Feldern der
Jugendarbeit und Jugendsozialarbeit. Vor-
standsmitglied bei basa e.V., einem Träger
der Jugendhilfe sowie einer angegliederten
Stiftung zur Förderung von Jugendarbeits-
forschung. Buch-Publikationen: Projekte und
Aktionen in der Jugendarbeit (zus. mit Diet-
helm Damm 1987), Jugendgruppe und Kul-
turwandel (1991), Jugendkulturen und Ado-
leszenz (zus. mit Ulrike Leonhardt, 1998),
Beziehungen in der Jugendarbeit (zus. mit
Bärbel Bimschas, 2003), Politische Jugend-
bildung auf dem Prüfstand (zus. mit Nadine
Balzter, Tommy Schroedter 2004).
145Querschnitt Juli 2004
Prof. Dr.-Ing. habil. Jochem Unger
Jahrgang 1944. Von 1960 bis 1963 Lehr-
ausbildung zum Technischen Zeichner.
Von 1963 bis 1966 Studium des Maschinen-
baus an der Ing.-Schule Darmstadt und
von 1967 bis 1971 Studium des Maschinen-
baus (Flugzeugbau) an der Technischen
Hochschule Darmstadt. Von 1972 bis 1976
wissenschaft licher Mitarbeiter am Institut
für Mechanik der TUD (Arbeitsgruppe von
Prof. Becker) und anschließend bis 1985
Fachreferent bei der Kraftwerk Union AG.
1975 Promotion, 1983 Habilitation für das
Fach Mechanik an der TUD. Seit 1985 Pro-
fessor für Wärme-, Regelungs- und Umwelt-
technik an der FHD und seit 1991 Honorar-
professor an der TUD.
Prof. Dr. rer. nat. Volker Wiskamp
Jahrgang 1957. Chemiestudium an der
Universität Bochum, Promotion 1981 (MPI in
Mülheim-Ruhr), Postdoc 1882 (UC Berkeley,
USA), Wissenschaftlicher Assistent am MPI in
Mülheim-Ruhr 1983–84, Wissenschaftlicher
Angestellter der Bayer AG 1985–88; Beru-
fung an die Fachhochschule Darmstadt 1989;
1. Preis beim Wettbewerb „Abfallfreier
Chemieunterricht„ 1992; 1993 halbjährige
Gastdozentur an der Universität Tsukuba,
Japan; 1996 und 2001 Forschungssemester
an der Lichtenbergschule in Darmstadt;
Interessengebiete: Didaktik der Chemie und
Bildungspartnerschaften Schule/Hochschule/
Industrie.
146
ABB, Hanau
ACE GmbH
Adam Opel AG, Rüsselsheim
Adelmann AG, Karlstadt
ADP-Engineering, Dietzenbach
Alfred Kärcher GmbH&Co.KG
Alstom Power GmbH, Mannheim
AMTech GmbH, Weinheim
AT&T Labs – Optical Systems Research, USA
Aucotec AG, Eschborn
BMW Group, Dingolfing
Boehringer, Ingelheim
Brüel & Kjaer Vibro GmbH, Darmstadt
Change Management Consulting
China Airlines
Ciba Spezialitätenchemie
Continental Teves AG &Co oHG, Frankfurt/M.
Control Techniques
Cooperativa Multiaktiva Neuland, Paraquay
CSK Software AG, Frankfurt/M.
DaimlerChrysler AG, Sindelfingen
Degussa, Hanau-Wolfgang
Deutsche Bank
Deutsche Carbone AG
Deutsches Krebsforschungszentrum,
Heidelberg
Dublin City University, Irland
EIGSI La Rochelle, Frankreich
Eintracht Frankfurt Fußball AG,
Farnkfurt/M.
EMA, Istanbul, Türkei
ESAIP Angers, Frankreich
ESC-Electronic System Concepts GmbH
Fa. Engel, Schwertberg/ Österreich
Fa. Schunk
Ferro GmbH, Hanau-Wolfgang, Frankfurt/M.
Fraport AG, Frankfurt/M.
Frauenhofer-Institut SIT, Darmstadt
Freudenberg GmbH
Fuitsu Siemens Computers
GE Fanuc
Goldwell GmbH, Darmstadt
Grace Davison GmbH, Worms
GSI, Darmstadt
HEAG AG
HEAG NaturPur
Heidelberger Druckmaschinen AG,
Heidelberg
Infineon Technologies, München
InfraServ GmbH, Wiesbaden
INRO GmbH, Stockstadt
Inthermo AG
Wir danken den folgenden Unternehmen und Institutionen
für ihre freundliche Bereitschaft, an Examens projekten unserer Studentinnen
und Studenten in den vergangenen beiden Semestern mitzuwirken:
Danksagung
147Querschnitt Juli 2004
Johanniter-Unfall-Hilfe, Kreisverband
Frankfurt/Main-Taunus
JVA, Darmstadt
Kao Professional Salon Service
Kreiskrankenhaus Erbach
Landis u.Staefa
Lexmark
Liebherr AG
Lufthansa AirPlus
Lufthansa Cargo AG
MAnet GmbH, Mannheim
Merck KGaA, Darmstadt
MeteoSolutions GmbH, Darmstadt
NP4 Ges. für Netzwerksysteme, Stockstadt
Optrex Europe GmbH, Babenhausen
Oulu Polytechnic, Finnland
Prostep AG, Darmstadt
Proxitronic Funk GmbH & Co. KG, Bensheim
Reis GmbH, Obernburg
Repas AEG, Dreieich
Robert Bosch GmbH, Frankfurt/M.,
Reutlingen, Bühlertal
Röhm GmbH&Co.KG, Darmstadt
SCA
Scanware
Schott GmbH, Mainz
SESA Software und Systeme AG,
Eschborn
Siemens AG, Frankfurt
Siemens VDO, Babenhausen
Sirona Dental Systems GmbH, Bensheim
SMA Regelsysteme, Niestetal
Sony Ericsson Mobile Communication AB,
München
Steuerungsbau W. Stephan GmbH,
Seligenstadt
Swift GmbH, Reinheim
Syscon, Schifferstadt
Takata Petri AG
Techem, Eschborn
T-Systems
T-Systems International GmbH,
Media&Broadcast, Usingen
Umicore, Hanau-Wolfgang
UMS Training
Universidade de Vigo, Spanien
University of Wisconsin, Platteville, USA
Veneer Technologies Inc.,
North Carolina, USA
Vileda Professional
vrcom Gesellschaft für immersive
Visualisierungslösungen mbH, Darmstadt
Warzsaw University of Technology, Polen
Wella AG, Darmstadt
WOCO Industrietechnik, Bad Soden
Wroclawe University of Technology, Polen
Yukatel GmbH, Offenbach
Zeitungs Marketing Gesellschaft
Zweites Deutsches Fernsehen (ZDF), Mainz
Kein Fehler im System
148
Impressum
Herausgeber:
Fachhochschule Darmstadt -
University of Applied Sciences
Haardtring 100
64295 Darmstadt
Referat Wissenstransfer und
Weiterbildung
der Fachhochschule Darmstadt
Dipl.-Ing., Dipl.-Wirtsch.-Ing.
Manfred Bernhardt
Haardtring 100
64295 Darmstadt
Telefon (06151)16-80 21
Telefax (06151)16-80 35
Referat Forschung und Entwicklung
der Fachhochschule Darmstadt
Dipl.-Geogr. Jürgen Linneweber
Haardtring 100
64295 Darmstadt
Telefon (06151)16-80 15
Telefax (06151)16-89 88
Verlag:
Verlag für Marketing und
Kommunikation GmbH & Co. KG
Faberstraße 17
67590 Monsheim
Telefon (0 62 34) 9 09-0
Telefax (0 62 34) 9 09-400
www.vmk-verlag.de
Referat Öffentlichkeitsarbeit
der Fachhochschule Darmstadt
Dr. phil. Sigrid Dreiseitel
Haardtring 100
64295 Darmstadt
Telefon (06151)16-8012
Telefax (06151)16-89 00
Druck:
VMK Druckerei GmbH
Faberstraße 17
67590 Monsheim
Telefon (0 62 34) 9 09-110
Telefax (0 62 34) 9 09-100
Gestaltung:
Dipl.-Des. Andreas Bonin
Mittlerer Hasenpfad 38
60598 Frankfurt
Telefon (069) 96 20 67 96
Für die sachliche Richtig-
keit der Beiträge dieses
Magazins sind die Autoren
verantwortlich.
ISSN 0933-5439