Upload
digger257
View
225
Download
0
Embed Size (px)
Citation preview
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 1/59
MaxPlanckForschungMaxPlanckForschungDas Wissenschaftsmagazin der Max-Planck-Gesellschaft
B20396F4/2001
PSYCHOLINGUISTIK
Wenn der Computer
aufs Wort gehorcht
PSYCHOLINGUISTIK
Wenn der Computer
aufs Wort gehorcht
ESSAY
Terrorismus und
Geldwäsche
ESSAY
Terrorismus und
GeldwäscheMETEOROLOGIE
Sonne, Mensch
und Klima
METEOROLOGIE
Sonne, Mensch
und Klima
SCHWERPUNKT
Unsichtbares Universum
SCHWERPUNKT
Unsichtbares Universum
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 2/59
4848
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 32 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
INHALT
FORSCHUNG aktuell
Reaktionsfronten auf atomarer Skala 4
Molekularer Nahkampf . . . . . . . . . . . . 5 Auf dem „Östrogen-Pfad”gegen Alzheimer . . . . . . . . . . . . . . . . . 7
Aminosäure-Schalter für die Angst . . . 8Flackerndes Licht
vom Schwarzen Loch . . . . . . . . . . . . 10 Wie der Zufall mit Proteinen spielt . . 11Röntgenblick auf die Venus . . . . . . . 12Gleich zu gleich bewegt sich’s leicht 14
ESSAY
❿ Eine Zauberformel,die den Terrorismus bannt? . . . . . 16
SCHWER punkt
Unsichtbares UNIVERSUM
❿ Botschaften vom Randdes Universums . . . . . . . . . . . . . . 22
❿ Schwarze Löcher
als galaktische Gasheizung . . . . . . 28❿ Ein Hauch von Wärme
verrät das Unsichtbare . . . . . . . . . 34❿Kollisionen, die im Raum
Wellen schlagen . . . . . . . . . . . . . . 42❿ Radioaugen mustern
Magnetfelder im Weltall . . . . . . . . 48❿Kosmologie und ihre Quintessenz 52
FASZINATION Forschung
❿ Biologische Kybernetik:
In die Röhre geguckt . . . . . . . . . . 56❿ Bose-Einstein-Kondensation:
Gleichtakt im ultrakaltenQuanten-Orchester . . . . . . . . . . . . 62„The young Kid of the Block“ . . . . 69
❿Atmosphären-Chemie:
Atemtest am Regenwald . . . . . . . . 70
WISSEN aus erster Hand
❿Meteorologie:
Sonne, Mensch und Klima . . . . . . 78
KONGRESSbericht
❿ Psycholinguistik: Wenn derComputer aufs Wort gehorcht . . . 84
Wortsucheim Millisekundentakt . . . . . . . . . . 90
FORSCHUNG & Gesellschaft
❿ Islamisches Strafrecht:
Die Vielfalt der Rechtsmeinungengilt dem Islam als Gnade . . . . . . . 92
zur PERSON
❿ Richard Wielebinski . . . . . . . . . . . 98
NEU erschienen
Das Zahngold der Etrusker . . . . . . . 104Die Nägel des Kopernikus . . . . . . . .104Der Brief des Edwin Hubble . . . . . .105
INSTITUTE aktuell
Vier Jahrzehnte
Energieforschung für die Zukunft . . 106 Attraktion im Reich der Mitte . . . . .107Peter Gruss nächster Präsidentder Max-Planck-Gesellschaft . . . . . .108Neues Teilinstitutin Hannover gegründet . . . . . . . . . . 109Engagements in Lateinamerikaund Russland . . . . . . . . . . . . . . . . . 11075 Jahre in der TraditionErnst Rabels . . . . . . . . . . . . . . . . . . .112iOnGen AG hat Krebs im Visier . . . 113100 Jahre Werner Heisenberg . . . . . 114MPF jetzt als PDF-Version . . . . . . . 114
STANDorte
Forschungseinrichtungender Max-Planck-Gesellschaft . . . . . 115Impressum . . . . . . . . . . . . . . . . . . . 115
Im FOKUS
❿ „Hightech“-Ring für Weißstörche 116
DAS WELTALL hat die Menschen zu allen Zeiten in seinen Bann geschlagen.
Doch erst in den vergangenen Jahrzehnten haben Wissenschaftler viele kosmische
Rätsel aufgedeckt. Der Artikel auf SEITE 22 führt zu den Ursprüngen von Raum und Zeit
zurück, als sich die ersten Sternsysteme formten. Licht in diese Epoche der Galaxien-
geburt bringt der europäische Röntgensatellit XMM-Newton (SEITE 28). Aber ist das,
was wir beobachten, auch wirklich „alles“? Vermutlich sind mehr als 90 Prozent der Masse
des Universums unsichtbar. Max-Planck-Forscher spüren mit einem Thermometer dieser
Dunklen Materie nach (SEITE 34). Zu den faszinierenden Phänomenen im All gehören
auch die Schwarzen Löcher, deren Kollisionen den Raum erzittern lassen (SEITE 42), und
Magnetfelder, die Radioastronomen mit ihren Antennen ins Visier nehmen (SEITE 48).
Trotz wichtiger Ergebnisse bleiben entscheidende Fragen offen und knirscht es noch
erheblich im Weltgebäude der Kosmologen (SEITE 52).
ZUM TITELBILD:Gravitationswellen rasenin dieser Computersimulationnach dem Zusammenprallzweier Schwarzer Löcherauf die Erde zu.
FOTO: MPI FÜR GRAVITATIONSPHYSIK- BENGER
Schwerpunkt Unsichtbares Uni versum
LESERAKTION:Wie gefällt IhnenMAXPLANCKFORSCHUNG undMAXPLANCKINTERN? Fragebogendazu finden Sie in diesem Heft.
EXPEDITION: Forscher des MPIfür Chemie haben in Brasilienanalysiert, welche Prozesse
im tropischen Regenwald ablaufen und wiedie „grüne Lunge“ das Klima beeinflusst.
70RÖHRE: Mit der funktio-nellen Magnet-Resonanz-Tomographie schaut Nikos
K. Logothetis vom MPI für biologischeKybernetik dem Gehirn beim Denken zu.
56 DREIECKSVERHÄLTNIS:Wie Sonne, Mensch und Klimazusammenwirken, beschreibt
Ulrich Cubasch vom MPI für Meteorologieunter der Rubrik „Wissen aus erster Hand“.
78 KORAN: Mit den unterschied-lichen Rechtsordnungen isla-mischer Staaten beschäftigt
sich Silvia Tellenbach vom MPI für auslän-disches und internationales Strafrecht.
92 „ALL“-TAG: Richard Wiele-binski, Direktor am MPIfür Radioastronomie, gehört
zu den weltweit führenden Experten aufdem Gebiet kosmischer Magnetfelder.
98GRENZGEBIET: Am MPI fürQuantenoptik untersuchen For-scher Bose-Einstein-Kondensate,
also ultrakalte Gaswolken, deren Atomeden gleichen Quantenzustand besetzen.
62
Liebe Leserin, lieber Leser,
viermal jährlich berichten wirf ürSie überdiewissenschaftlicheArbeitan den Instituten derMax-Planck-Gesellschaft. Jetztwollen wireinmalselberForschung betreiben – wirforschen nach IhrerMeinung!Wiegef älltIhnen M AXPLANCK FORSCHUNG? Wassollen wir ändern? Helfen Sieunsundschicken Siediesen Fragebogen mitIhren Antworten perPostoderFaxan unszur ück. IhreAngaben bleiben selbstverständlich anonym.DieErgebnissederLeserbefragung werden in einerdernächsten Ausgaben
von M AXPLANCK FORSCHUNG ver öffentlicht.
Vielen Dankf ürIhreHilfe!
Mitfreundlichen Gr üßen
HelmutHornung(Redaktion M AXPLANCK FORSCHUNG)
IHRE MEINUNG IST GEFRAGT!
MaxPlanckForschung
Ihren ausgef üllten Fragebogen
schicken Siebittean:MAX-PLANCK-GESELLSCHAFT
REDAKTION MAXPLANCKFORSCHUNG
STICHWORT: LESERBEFRAGUNG
HOFGARTENSTRASSE 8
80539MÜNCHEN
ODER PER FAX:
089/ 2108-1405ODER -1207
FallsSieMitarbeiterderMax-Planck-Gesellschaftsind, nehmen Siebitteauch an derLeserbefragung von M AXPLANCK INTERN teil. Vielen Dank!
22
4242
52521. W ie habe n S ie vo nM A X P LA NC K F OR S CH UN G e rf ahr en?
F r eund e/ B e k annt e A r be its ko l le g en I nt e rnet S onsti g e s _ __ _ _ _ __ __ __ __ __ __ _ _ _ _ _ __
2. D i e G e s taltung d e s H e f te si s t …( M e hr fac hnennung en mö g li c h) ans p re chend
üb er s ic htl ich mo de rn
altmo d is ch lang we ili g
ve rw irr e nd 3 . D er U mf ang d es H eft es ist … zu g r o ß
aus re ichend z u k le in
4 . M AX P L AN C K F OR SC H UN G ers cheint … z uof t
o ft g e nug zu s e lte n
5 . D i e A rti ke l im H ef ts ind übe rw ieg end…
g ut ve r st ä nd li c h ve rst ä ndli ch s chw e r v er st ä nd lic h
6 . W el che S chul no t e w ürd e nSi e M AX P L AN CK F OR SC H U N G ins ge samt ge be n?
s ehrg ut g ut
be fri ed i ge nd aus re i chend
mang e lhaft ung e nüge nd
7. W e lc he r F achbe re i ch inte r es sie rt S ie b e so nd er s ?
( M e hr fac hnennung en mö g lic h) Bi olo gi e/M e d iz in C he mie/ Ph ys ik/ Te c hnik G ei s te sw iss enschaf ten
8. We lc he Rubr i ke n i nM A X P LA NC K F O RS CH U N G
i nt e re ssi ere n Sie b e so nd er s?(M e hr f ac hnennung en mö g l ic h)
F o r sc hung ak tuell E ss a y S c hw e r punk t
Faszi natio nF or sc hung W i s se n aus e r st e r H and K ongr e ss be r ic ht Fo rs c hung & G es e ll s chaf t
W i sse ns chaft sg e sc hi c ht e Z ur Pe rs o n
N eu er s chie ne n Ins tit ut e aktuel l I m Fo kus 9 . W ür de nS ie d as H e f t auc h be s te lle n,
w enn e s nic ht ko ste nl o s w ä re ? j a
ne i n
Z um S c hl us s noc h e in p aar F r ag en zu Ihre r P er s on: 10. W ie alt si nd Si e? _ __ __ __ _ _11. I hr Ge sc hle cht ?
mä nnl ic h w ei b li c h12 . Ü b er we lchen B ild ungs ab s chlus s v e r f üge n S ie ?
H au p t sc hule M it t el -/R eal-/ F ac hs chul e
A b it ur / Ho chsc hul re i fe natur wi sse ns chaft lic he s S tud ium g ei s te sw iss ens chaf tli c he sS tudi um13 .W e lchen B er uf üb e n Si e aus ?
_ _ __ __ __ __ __ __ _ _ _ _ _ __ __ __ __ __ __ _ _ _14. Si nd Si eM it ar b ei ter /in d er M ax -P lanck -G es e ll s chaf t ?
j a ne in
15. Habe n S ie A nre gung en o d e r K rit i k z uM A X P LA NC K F O RS CH U NG ? __ __ __ __ __ _ _ _ _ _ __ __ __ __ __ __ _ _ _ __ __ __ __ __ _
__ __ _ _ _ _ _ __ __ __ __ __ __ _ _ _ _ _ __ __ __ __ __ __ _ _ _
_ _ _ __ __ __ __ __ __ _ _ _ _ _ __ __ __ __ __ __ _ _ _ _ _ __ __
_ __ __ __ __ __ _ _ _ __ __ __ __ __ __ _ _ _ _ _ __ __ __ __ __
F R AG E B O G E N Z U M W I S S E N S C H AF T S M AG AZ I N
M AX P LAN C K F O R S C H U N G ( F ü rex ter ne Le se r u nd M it ar b ei ter d er M a x - Pl an ck -G es ell s ch af t!)
2828
34
22GEOMAX:Die aktuelle Ausgabeberichtet über die vonden Vereinten Nationenausgezeichnete Arbeitder AG Feuerökologie.
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 3/59
Wissenschaftler des BerlinerFritz-Haber-Instituts derMax-Planck-Gesellschafthaben erstmals die atomaren Vorgänge sichtbar gemacht,die auf der Oberflächeeines Katalysators so ge-nannte chemische Reaktions-fronten entstehen lassen(SCIENCE, 31. August 2001).Dieser Erfolg gelang demForscherteam um ChristianSachs und Joost Wintterlinaus der von Prof. GerhardErtl geleiteten Abteilung„Physikalische Chemie“.
Gewöhnlich laufen chemischeProzesse gleichmäßig ab, dasheißt: In dem gesamten Raum,
in dem sie stattfinden, ist dieStoffumwandlung etwa im sel-ben Moment beendet. MancheReaktionen nehmen jedocheinen anderen Verlauf: Sie„zünden“ an einer Stelle undbreiten sich dann frontartigaus. Solche Phänomene sindzwar schon länger aus der Che-mie bekannt und lassen sichauch recht gut mit theoreti-schen Modellen erklären. Bisherwussten die Forscher allerdings
nicht, ob die einfachen Vor-stellungen, so genannte Reak-tions-Diffusions-Modelle, die Vorgänge auch auf atomarerEbene korrekt beschreiben.Mithilfe eines Rastertunnelmik-roskops haben Wissenschaftlerdes Fritz-Haber-Instituts diemolekularen Prozesse in einerReaktionsfront jetzt erstmalsdirekt sichtbar gemacht. Dabeistellte sich heraus, dass mandie Konzepte einfacher Reakti-ons-Diffusions-Modelle nichtauf den kleinen Maßstab vonAtomen und Molekülen über-tragen kann. Vor allem müssenkünftig die Wechselwirkungenzwischen den reagierendenPartnern berücksichtigt wer-
den, damit man die Eigen-schaften der Fronten – zumBeispiel ihre Geschwindigkeit –genau berechnen kann.Frontartige Ausbreitungen sindnicht nur aus der Chemie, son-dern auch aus anderen Berei-chen der Natur und sogar beisozialen Vorgängen bekannt:Waldbrände etwa zeigen einähnliches Verhalten. WeitereBeispiele sind die Pestepide-mien im Mittelalter oder die
Einführung des Ackerbaus inEuropa in der Jungsteinzeit. Siebeginnen in einem lokal be-grenzten Gebiet und breitensich frontartig aus. Mathema-tisch lassen sich all diese Vor-gänge ähnlich beschreiben.Bei chemischen Reaktionen, andenen meistens nur relativ ein-fach gebaute, einheitliche Mo-leküle beteiligt sind, scheinendie zugrunde liegenden Prozes-se besonders leicht verständlichzu sein. Die Reaktion beginntirgendwo und bildet lokal einekleine Menge an Produkt.Bei bestimmten chemischenProzessen nimmt jedoch dasentstehende Produkt selbstwieder an der Stoffumsetzung
teil und beschleunigt sie da-durch. Einmal gestartet, wirdder Ablauf daher immerschneller und die Menge dererzeugten Substanz nimmt indiesem Bereich stark zu.Gleichzeitig beginnt daszunächst räumlich konzentrier-te Produkt durch Diffusionauseinander zu laufen und sichin seiner Umgebung auszubrei-ten. Hier startet es erneut dieReaktion, die sich weiter fort-
4 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
FORSCHUNGBestimmte Antibiotika hemmen denAufbau von Proteinen in den Ribosomen– den „Eiweißfabriken“ – von Bakterien.Wissenschaftlern der Arbeitsgruppe fürRibosomenstruktur der Max-Planck-Gesellschaft am DESY in Hamburg (Lei-tung: Ada Yonath) und der Ribosomen-Arbeitsgruppe am Max-Planck-Institutfür molekulare Genetik in Berlin (Lei-tung: François Franceschi) ist es jetzt ge-lungen, die Wirkungsweise dieser Anti-biotika bis in ihre atomaren Details auf-zuklären (NATURE, 25. Oktober 2001):Sie konnten die Wechselwirkung zwi-schen einer Untereinheit der Ribosomen
des Bakteriums Deinococcus radioduransmit jeweils fünf verschiedenen, klinischbedeutsamen Antibiotika bestimmen.Damit ergeben sich neue Ansatzpunkte,die Ausprägung von Resistenzen gegenAntibiotika zu erschweren sowie die bis-her sehr langwierige und teure Entwick-lung neuer Antibiotika zu vereinfachen.
Ribosomen sind komplexe Makromoleküle,die aus etwa 60 verschiedenen Proteinenund drei bis vier Nukleinsäureketten (ribo-somale RNA) aufgebaut sind. Sie zeichnenin jeder Zelle für die Herstellung der lebens-wichtigen Proteine verantwortlich, indemsie den genetischen Code, also die Bauanlei-tung für die Proteine, übersetzen. Riboso-men bestehen aus zwei unabhängigen, un-terschiedlich großen Untereinheiten, dieverschiedene Funktionen bei der Protein-
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 5
FORSCHUNG aktu
aktuell aktuell
STRUKTURBIOLOGIE
MolekularerNahkampf
Erythromycin(rot) blockiert
den Tunnel der50S-Unterein-heit des Ribo-
soms. Die beidenRNA-Stränge der
50S-Unterein-heit sind blau
dargestellt, dieribosomalen Pro-
teine goldgelb.
PHYSIKALISCHE CHEMIE
Reaktionsfronten auf atomarer Skala
setzt. Diese Vorgänge wieder-holen sich ständig – das ent-spricht der Ausbreitung einerFront.Die Geschwindigkeit, mit dersich die Front bewegt, kann da-bei viel größer sein als die Dif-fusionsgeschwindigkeit. Miteinfachen theoretischen Mo-dellen, die nur die Reaktionund die Diffusion berücksichti-gen (daher der Name Reakti-ons-Diffusions-Modell) lässt
sich dieses Verhalten im Prinziperfassen. Dennoch gibt es Hin-weise, dass diese Beschreibungzu einfach ist.Wissenschaftler des Fritz-Haber-Instituts um ChristianSachs und Joost Wintterlin ausder Abteilung von Gerhard Ertlhaben herausgefunden, dassbei der katalytischen Oxidationvon Wasserstoff bei tiefenTemperaturen Fronten entste-hen können. Die Reaktion zwi-schen Wasserstoff und Sauer-stoff findet dabei auf der alsKatalysator wirkenden Platin-oberfläche statt; als Produktentsteht Wasser. Die Messun-gen fanden im Ultrahoch-vakuum unter einem Raster-tunnelmikroskop statt – ein Verfahren, das Abbildungenvon Atomen und Molekülenauf Oberflächen liefert. Mitdieser Technik ist es jetzt ge-lungen, solche chemischenReaktionsfronten sichtbar zu
machen: Bei diesen Reaktionenzeigen sie typische Breitenvon 10 bis 100 Nanometern(= Millionstel Millimeter).Die Berliner Forscher habenaußerdem beobachtet, dassals Zwischenprodukt OH-Mo-leküle auf der Platinoberflächeentstehen, die sich dann mitWasserstoffatomen zu Wasser(H2O) vereinen. Dieses Wasserreagiert aber weiter und setztmit noch vorhandenen Sauer-
Rastertunnel-mikroskopischeAufnahmen ei-ner Reaktions-front bei derWasserstoff-oxidation auf einer Platin-oberfläche. DieFront erscheintals heller Ring,der sich miteiner Geschwin-digkeit von 15Nanometern(= MillionstelMillimeter) proMinute ausbrei-tet.Die hellen Punk-te in der Frontsind Inseln, die
jeweils auswenigen OH-Molekülen be-stehen.
A U F N A H M E N : F R I T Z - H A B E R - I N S T I T U T
stoffatomen wieder OH frei.Dadurch wächst lokal die Men-ge an OH, sodass OH und in derFolge H2O immer schneller er-zeugt werden. Wasser kann auf der Platinoberfläche diffundie-ren und diesen Prozess somitauch in der Umgebung auslö-sen. Als Ergebnis breitet sicheine Reaktionsfront aus, wobeidas Zwischenprodukt OH sichin der Front anreichert.Nachdem es nun gelungen ist,
auf atomarer Skala die in denFronten reagierenden Atomeund Moleküle sichtbar zumachen, zeigen sich viel kom-pliziertere Prozesse als inReaktions-Diffusions-Modellenbeschrieben. Zwar reagierenund diffundieren die chemi-schen Partner tatsächlich –aber nicht unabhängig vonein-ander. Die OH- und H2O-Mo-leküle zeigen starke Wechsel-wirkungen, zum Beispiel bildensich durch anziehende Kräftezwischen den Teilchen kleineInseln aus. Damit lässt sicherklären, warum die experi-mentell gemessenen Geschwin-digkeiten und Profile der Fron-ten nicht mit den theoretischvorhergesagten Werten über-einstimmen. Die Wissenschaft-ler hoffen nun, dass sich mitdiesen Befunden bessere theo-retische Modelle entwickelnlassen, die sich dann auch auf andere Beispiele dieses weit
verbreiteten Phänomens über-tragen lassen.
Weitere Informationenerhalten Sie von:
JOOST WINTTERLIN
Fritz-Haber-Institut, BerlinTel.: 030/8413-5127Fax: 030/8413-5106E-Mail: [email protected]
@
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 4/59
FORSCHUNG aktue
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 7
Steckt in Östrogenen, inweiblichen Sexualhormonen,eine chemische Struktur, dieals „Leitstruktur“ für einen
Wirkstoff gegen die Alzhei-mer-Krankheit dienen kann?Können Östrogene selbstden Krankheitsprozess hinterdieser Demenz beeinflussen?Neue experimentelle Befundeeiner Arbeitsgruppe amMünchener Max-Planck-In-stitut für Psychiatrie sprechenklar für diesen schon längervermuteten Sachverhalt.
Die als Östrogene bezeichne-ten weiblichen SexualhormoneÖstradiol, Östron und Östriolstehen nicht nur im Dienst derFortpflanzung. Vielmehr übensie allerlei vorteilhafte „Neben-wirkungen“ aus, so etwa auf das Herz-Kreislauf-System, auf den Stoffwechsel der Knochenund nicht zuletzt auch auf dasGehirn: Dort tragen Östrogeneals Neurohormone und Schutz-faktoren auf vielfältige Weisezur Struktur, Funktion und Er-haltung von Nervenzellen bei.
Mit der neuroprotektiven Akti-vität der Östrogene, also mitihrem schützenden Einfluss auf Nervenzellen, beschäftigt sicheine Selbständige Nachwuchs-gruppe am Münchner Max-Planck-Institut für Psychiatrieunter Leitung von PrivatdozentChristian Behl.Diese Arbeitsgruppe konnteschon vor einigen Jahren miteinem überraschenden Befundzum Östrogen aufwarten.
Es gelang erstmals der bioche-mische Nachweis, dass Östro-gene aufgrund ihrer chemi-schen Struktur als neuroprotek-tive Antioxidantien wirken:Sie fangen chemisch aggressiveMoleküle – „freie Radikale“ –ab und verhindern damit derenzerstörerischen oxidierendenEinfluss auf molekulare Werk-zeuge oder Strukturelementeder Nervenzellen, so genanntenoxidativen Stress. In dieserFunktion, man spricht auch vonRadikalfängern, ähneln Östro-gene dem Vitamin E und bildeneine Art molekularen Schutz-
schild für die Nervenzellen.Über diese rein strukturellechemische Wirkung hinausgreifen Östrogene aber auch di-rekt in zahlreiche biochemischeAbläufe innerhalb der Nerven-zellen ein. Auf eine dieser Akti-vitäten richtet sich inzwischendas besondere Interesse Behlsund seiner Mitarbeiter: Es gehtdabei um ein Eiweiß, Amyloid- Vorläufer-Protein oder kurzAPP genannt, und um dessenProzessierung, also um seine„biochemische Weiterverarbei-tung“ in Nervenzellen.Im Zuge dieser APP-Prozessie-rung kann es zu einem Fehlerkommen, der fatale Folgen hat.Dann entsteht aus dem APPein toxisches Eiweiß, das Beta-Amyloid, das sich in filzigenAggregaten, in so genanntenamyloiden Plaques, im Gehirnvon Alzheimer-Kranken abla-gert. Die Bildung dieser Beta-Amyloid-Aggregate gilt deshalb
als Kernprozess und Auslöserder Alzheimer-Demenz.Frühere Studien hatten bereitsangezeigt, dass Östrogene of-fenbar die Prozessierung desAPP beeinflussen und die Bil-dung des toxischen Beta-Amy-loids unterdrücken. Der genauemolekulare Mechanismus die-ser Östrogen-Aktivität war bis-her unbekannt und auf diesenSachverhalt konzentrierte sichChristian Behl mit seinen Mit-
arbeitern. Nun konnten un-längst zwei wesentliche Befun-de vorgelegt werden. So zeigtesich zum einen, dass der Ein-fluss der Östrogene auf dieAPP-Prozessierung nicht überÖstrogenrezeptoren vermitteltwird, also nicht über den „klas-sischen“, hormonellen Mecha-nismus der Östrogen-Wirkung.Zum anderen stellt sich heraus,dass der Effekt der Östrogeneauf die Prozessierung des APPin Nervenzellen jeweils sehrrasch erfolgt und über be-stimmte intrazelluläre Signal-faktoren, so genannte Kinasen,
vermittelt wird (Manthey et al.,EUROPEAN JOURNAL OF BIOCHEMISTRY,267: 5687-5692, 2001). Einewesentliche Erkenntnis darausist, dass Östrogene die APP-Prozessierung offenbar auchin solchen Nervenzellen imGehirn beeinflussen, die über-haupt keine aktiven Östrogen-rezeptoren besitzen.Aus diesen neuen Befundenzur Östrogenwirkung im Gehirnergeben sich verschiedene For-schungsansätze, die von Chris-tian Behl und seinen Kollegenbereits intensiv bearbeitet wer-den: Mit Blick auf die Wirkungals schützendes Antioxidansmuss man diejenigen Struktur-elemente der Östrogenmoleküleidentifizieren, die für diesenicht-hormonellen schützenden„Nebenwirkungen“ verantwort-lich zeichnen. Dann kann mandiese chemischen Bauteile alspharmazeutische „Leitstruktu-ren“ nutzen, um neue antioxi-
dative neuroprotektive Medika-mente zu entwickeln. Diesewären dann aufgrund der nichtvorhandenen feminisierendenWirkungen bei Frauen wie beiMännern einsetzbar.Den Weg zu diesem Ziel um-reißt Behl so: „Wir können ei-nerseits die chemische Strukturdes Östrogens dahingehendverbessern, dass die strukturelleantioxidative Aktivität verstärktwird und neuroprotektive
von Nahrungsmitteln. Als un-mittelbare Folge sind viele(bakterielle) Erreger in zuneh-mendem Maße multi-resistentgegen eine große Zahl ver-schiedener Antibiotika. Schonin den fünfziger Jahren begün-stigte diese Resistenz den Aus-bruch der bakteriellen Ruhr inJapan, ausgelöst durch multi-resistente Stämme von Shigelladysenteriae, einer Infektion,die noch immer jährlich etwa600.000 Tote weltweit fordert.Das Problem der Antibiotika-Resistenz ist inzwischen sodrängend, dass die Weltge-sundheitsorganisation (WHO)von einer weltweiten Gesund-heitskrise spricht.Üblicherweise vergehen nicht
mehr als ein bis zwei Jahrenach der Einführung einesneuen Antibiotikums, bis dieersten resistenten Erreger auf-treten. Die Entwicklung neuerAntibiotika kann daher mitder zunehmenden Verbreitungresistenter Bakterienstämmekaum Schritt halten: In denvergangenen 30 Jahren ist nureine neue Wirkstoffklasse auf den Markt gekommen. DieAufklärung der Struktur dergroßen ribosomalen Unterein-heit in Verbindung mit ver-schiedenen Antibiotika, unddamit die Kenntnis der Wech-selwirkung zwischen Antibio-tika und Ribosomen, erlaubenes nunmehr, die langwierigeund kostenintensive Entwick-lung neuer Medikamente deut-lich zu beschleunigen oder zuvereinfachen.
können. Darüber hinaus wer-den die so genannten Makro-lide-Antibiotika zur Bekämp-fung einer Vielzahl bakteriellerInfektionen verwendet, vonAkne bis Syphilis.Aufgrund biochemischerDaten war bereits bekannt,dass Erythromycin die Peptidyl-transferase-Reaktion erst nachder Bildung einer kurzen Ami-nosäurekette unterbindet. DieStruktur der 50S-Untereinheitim Komplex mit Erythromycinsowie mit den zwei anderenMakroliden (Roxithromycinund Clarithromycin) zeigt, dassdiese Klasse der Antibiotikaden Tunnel der 50S-Unterein-heit blockiert, durch den alleProteine hindurch gefädelt
werden. Dies führt zu einemvorzeitigen Abbruch der Pro-tein-Synthese.Chloramphenicol ist sehr wir-kungsvoll in der Behandlungeines breiten Spektrums bakte-rieller Infektionen, einschließ-lich schwerer anaerober Infek-tionen. Clindamycin wird unteranderem zur Bekämpfung an-aerober Infektionen und Cocci-Bakterien sowie zur Behand-lung von Pneumocystis-indu-zierter Lungenentzündung vonAIDS-Patienten verwendet.Beide Antibiotika binden direktim Peptidyltransferase-Zent-rum des Ribosoms. Die Struk-turen der ribosomalen Unter-einheit mit Clindamycin undChloramphenicol bestätigendie Vermutung, dass dieseAntibiotika die Protein-Bio-synthese durch „molekulareMimikry“ unterbrechen: Siebesetzen nämlich Bereiche,die denen von zelleigenen
Aminosäuren ähnlich sind undwerden deshalb durch das Ri-bosom gebunden. Da sie abernaturgemäß keine Peptidbin-dung eingehen können, brin-gen sie die Peptidyltransferase-Reaktion zum Stillstand – unddas Bakterium wird somit ge-tötet. Der größte Teil der Anti-biotika wird heute nicht zurBehandlung bakterieller Infek-tionen eingesetzt, sondern zurProduktion und Konservierung
RSCHUNG aktuell
6 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
Biosynthese erfüllen. Die klei-ne Untereinheit (30S im Fallebakterieller Ribosomen) ist we-sentlich für die Dekodierung
des genetischen Codes zustän-dig, während die große Unter-einheit (50S) in der so genann-ten Peptidyltransferase-Reak-tion die einzelnen Aminosäu-ren zu einer langen Amino-säurenkette zusammenfügt,die schließlich zu einem Pro-teinmolekül verknäult wird.Während ihrer Produktion be-findet sich die Aminosäuren-kette teilweise innerhalb der50S-Untereinheit, in einemetwa 100 Angström langen und15 Angström breiten Tunnel,der sie vor enzymatischen An-griffen schützt (ein Angströmentspricht einem Zehnmilli-onstel Millimeter). Erst 1999gelang es – nach mehr als 20Jahren intensiver Forschung –,die komplizierte Struktur desRibosoms mit atomarer Auf-lösung aufzuklären.Die zentrale Rolle des Ribo-soms bei der Protein-Biosyn-these macht es zugleich zu
einem bevorzugten Angriffs-punkt vieler Antibiotika (bakte-rienhemmende oder –tötendeWirkstoffe) und Cytostatika(tumorhemmende Wirkstoffe).Die Details des Wirkmechanis-mus waren jedoch bisher unbe-kannt. Chloramphenicol, Clin-damycin und Erythromycin sindeinige der Antibiotika, die ge-gen das zu trauriger Popula-rität gelangte Bacillus anthra-cis (Anthrax) eingesetzt werden
ntibiotika sindebenso kleinewirkungsvolleMoleküle. Diebbildung zeigt
die dreidimen-onale Struktur
(links) sowiedie chemische
Struktur fürErythromycin,
b) Clindamycinund c) Chlor-
amphenicol.
G R A F I K : A R B E I T S G R U P P E R I B O S O M E N S T R U K T U R D E R M A X - P L A N C K - G E S E L L S C H A F T A M
D E S Y
ZELLBIOLOGIE
Auf dem „Östrogen-Pfad“ gegen Alzheimer
Weitere Informationenerhalten Sie von:
DR. FRANK SCHLÜNZEN
Arbeitsgruppe Ribosomenstruktur,Max-Planck-Gesellschaft am DESY Tel.: 040/8998-2809Fax: 040/8998-6810E-Mail: [email protected]
DR. FRANCOIS FRANCESCHI
Max-Planck-Institut für molekulareGenetik, BerlinTel.: 030/8413-1691Fax: 030/8413-1690E-Mail: [email protected]
@
F O T O : W O L F G A N G F I L S E R
Die schützendeWirkung von
Östrogenen auf Nervenzellen des
Gehirns erfor-schen ChristianBehl und seineMitarbeiter am
Max-Planck-Institut fürPsychiatrie.
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 5/59
Designer-Antioxidanzien ent-stehen. Bei der Entwicklungsolcher östrogenverwandterantioxidativer Strukturen sindwir bereits entscheidendeSchritte weitergekommen undhaben erste hoch aktive Mo-lekülstrukturen i dentifiziert, diebereits in Tiermodellen getestetwerden. Da jedoch Rezeptorenfür Östrogene in verschiedenenGehirnregionen vorhandensind, werden in einem zusätzli-chen Forschungsansatz auchGene identifiziert, die in Ner-venzellen durch Östrogene an-oder abgeschaltet werden und
WeitereInformationenerhalten Sie von:PD DR. CHRISTIAN BEHL
Max-Planck-Institutfür Psychiatrie,MünchenTel.: 089/30622-246Fax: 089/30622-642E-Mail: [email protected]
RSCHUNG aktuell
8 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
FORSCHUNG aktue
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 9
BUCH ZUM THEMAmehr über die bislang bekannten neuroprotek-Aktivitäten erfahren will, die Östrogene im Hirnlten, der sollte sich das Buch „Estrogen – Mysteryfor the Brain?“ vornehmen, das vor kurzem er-nen ist: Christian Behl gibt darin einen Überblickaktuellen Stand des Wissens zu diesem Thema,war sowohl der Grundlagenforschung als auchlinischen Erfahrungen.uch, erschienen 2001 im Springer Verlag,/New York, ist in Englisch verfasst und zunächstpezialisten, darüber hinaus aber auch für vieleessierte und vorgebildete Leser – etwa MedizinerMedizinjournalisten – wertvoll und aufschlussreich.
das Überleben der Nervenzellebeeinflussen. Unter Einsatz sogenannter DNA-Chips könnengenetische Programme aufge-deckt werden, die Nervenzellenbei Frauen wie bei Männernresistent gegen neurodegene-rative Prozesse machen. Auf der Grundlage dieser Datenließen sich dann Medikamenteentwickeln, die diese Schutz-programme gezielt anschalten– und Östrogene wären dann, jedenfalls als Ganzes, nichtmehr notwendig, um neuro-
protektive Wirkungen zu er-zeugen.“ Vorerst freilich werden dieMünchner Forscher nochreichlich Östrogene benötigen,um die von diesen Hormonenangezeigte Spur zu verfolgen,die am Ende vielleicht zu einemMedikament gegen die Alz-heimer-Krankheit und andereneurodegenerative Erkran-kungen wie etwa den Schlag-anfall führt.
@
In der Zeitschrift PROCEEDINGSOF THE NATIONAL
ACADEMY OF SCIENCES (25. September 2001, Vol. 98) berichten Wissenschaftler aus derAbteilung von Joachim Spiess vom Max-Planck-Institut für experimentelle Medizinin Göttingen über die Entdeckung einesAminosäure-Schalters im Stresshormon CRF:Mit dem Austausch einer einzigen Amino-säure ist es ihnen gelungen, die Bindungs-eigenschaften des Moleküls gezielt zu ver-ändern. Auf der Grundlage dieser Beobach-tung sollte es zukünftig möglich sein,selektive CRF-artige Peptide (kurze Protein-abschnitte), die in spezifischer Weise anre-gen oder hemmen, zu entwickeln und damitdie Erforschung der CRF-Wirkungen ent-scheidend voranzutreiben.
Stress ist eine Erfahrung, die jeder kennt. Esgibt vielerlei Stress oder auch Angst auslösendeReize. Doch so unterschiedlich die von außenkommenden stressvollen Reize auch sein mö-gen – die chemischen Reaktionen, die sie inunserem Körper auslösen, folgen zunächst ein-mal einem grundlegenden Muster: In Beant-wortung eines stressvollen Reizes setzen Men-schen wie auch andere Säugetiere ein chemi-sches Signalmolekül im Gehirn frei: das aus41 Aminosäurebausteinen bestehende Corti-cotropin-Freisetzungshormon (corticotropinreleasing factor CRF). Über die Nervenfaserngelangt es zunächst zu einem venösen Ge-fäßknäuel oberhalb der Hirnanhangdrüse unddann mit dem Blutstrom dieses Gefäßknäuelsin den vorderen Teil der Hirnanhangdrüse(Hypophyse). Hier wird nun das Hormon Corti-cotropin ausgeschüttet, das die Freisetzung sogenannter Glucocorticoide in der Nebennie-renrinde bewirkt.Die Wissenschaftler bezeichnen diese komplexeAktivierungskette als Hypothalamus-Hypophy-sen-Nebennierenrinden-Achse oder einfachals Stressachse. Bei der spezifischen Anpassungdes Körpers an Stresssituationen spielt diese
Achse eine sehr wichtige Rolle. Unter patholo-gischen, also krank machenden Bedingungenwie depressiven Erkrankungen und Angst-störungen, kann die normale Funktion dieserStressachse erheblich gestört sein.Über seine Rolle bei der Aktivierung der Stress-achse hinaus wirkt das Signalmolekül CRF auchbei der Bildung von Gedächtnis, Angst undEssverhalten im Gehirn mit. Diese Wirkungenvon CRF werden durch verschiedene in denZellwänden verankerte Rezeptoren vermittelt.Das sind quasi Antennenmoleküle, die das CRFbinden und auf diese Weise weitere Signal-
Der schraubenförmige (alpha-helikale)Teil des Peptids CRF mit den Aminosäu-ren auf der Wasser abweisenden Seite.h/rCRF bindet mit einer um den Faktor 3höheren Bindungsstärke an das Bin-dungsprotein als an den Rezeptor (CRFRezeptor, Subtyp 1). Der Austausch derAminosäure Alanin (Ala) gegen Glutamin-
säure (Glu) vermindert die Bindungs-stärke zum Bindungsprotein um denFaktor 150 und erhöht die Bindungs-
stärke zum Rezeptor um den Faktor 3.
tauscht, so wird das Molekülnicht mehr an das Bindungs-protein, sondern lediglich anden CRF-Rezeptor gebunden.Damit halten die Wissenschaft-ler sozusagen einen molekula-ren Schalter in den Händen,mit dem sie die Bindungseigen-schaften des Signalmolekülsgezielt verändern können. DerAminosäureaustausch findetin einem schraubenförmig ge-wundenen Bereich des CRF-Moleküls statt, der sehr wasser-abstoßend ist.Den Göttinger Wissenschaft-lern ist es bereits gelungen,
diesen wissenschaftlichen Be-fund bei der Entwicklung vonHemmstoffen umzusetzen: Sieveränderten einen Hemmstoff,das Astressin, der wegen seinergeringen Löslichkeit bisher nurbegrenzt in Tierversuchen ein-gesetzt werden konnte und dereine schwache Bindung an dasCRF-Bindungsprotein zeigte,durch die Einführung der„Schalteraminosäure“ Glutamin-säure. Dadurch erhöhte sichdie Bindungsfestigkeit an denCRF-Rezeptor, während dieFähigkeit, an das Bindungspro-tein zu binden, verloren ging.Zugleich wurde durch diese Veränderungen die Wasserlös-lichkeit des sauren Astressins sogesteigert, dass es im Tierexpe-riment wirksam werden konnte– Angstreaktionen bei Mäusenließen sich mit saurem Astressin jetzt ohne Schwierigkeitenunterdrücken. Zur Zeit arbeitendie Wissenschaftler des Göttin-
ger Max-Planck-Instituts anHemmstoffen mit größererSelektivität für Untergruppendes CRF-Rezeptors.
Weitere Informationenerhalten Sie von:
JOACHIM SPIESS
Max-Planck-Institut für experi-mentelle Medizin, GöttingenTel.: 0551/3899-258Fax: 0551/3899-359E-Mail: [email protected] A
B B . :
M P I F Ü R E X P E R I M E N T E L L E M E D I Z I N
Jahr 1995 konnten AndreasRühmann, Ines Bonk und Joa-chim Spiess aus der AbteilungMolekulare Neuroendokrinolo-gie des Göttinger Max-Planck-Instituts für experimentelleMedizin in Zusammenarbeitmit Chijen Lin und Michael Ro-senfeld vom Howard HughesInstitute in San Diego einensolchen selektiv bindendenHemmstoff, das Peptid Anti-Sauvagine-30, erzeugen.In ihrer jüngsten Veröffentli-
chung in PNAS haben Wissen-schaftler derselben Abteilung –Klaus Eckart, Olaf Jahn, JelenaRadulovic, Hossein Tezval, Larsvan Werven und JoachimSpiess – nun gezeigt, dass derAustausch einer einzigen Ami-nosäure im CRF-Molekül darü-ber entscheidet, ob CRF an seinBindungsprotein gebundenwird oder nicht. Wird die Ami-nosäure Alanin gegen die Ami-nosäure Glutaminsäure ausge-
ketten im Inneren der Zelleauslösen. Interessanterweisekann CRF Gedächtnis undAngst sowohl verstärken alsauch schwächen, je nachdem,an welche Rezeptoren einerHirnregion es gebunden hat.Darüber hinaus wird CRF nichtnur an verschiedene Rezepto-ren der Gehirnzellen gebunden,sondern auch an ein so ge-nanntes CRF-Bindungsprotein.Dieses Protein bindet immenschlichen Gehirn etwa50 Prozent des vorhandenenSignalmoleküls, und das mitgrößerer Festigkeit beziehungs-weise Affinität als die erwähn-ten Rezeptoren. Noch habendie Wissenschaftler die biolo-gische Funktion dieses Bin-dungsproteins nicht vollständigverstanden, aber es stellt ohneZweifel ein pharmakologischwichtiges Reservoir von CRF
dar, das beispielsweise für die Verbesserung der Gedächt-nisleistung benutzt werdenkönnte.Um die durch die CRF-Rezep-toren vermittelten Gehirnfunk-tionen besser zu verstehen,versuchen die WissenschaftlerCRF-analoge Signalmoleküleherzustellen, die bevorzugtvon einem der Rezeptoren oderaber dem Bindungsprotein ge-bunden werden. Bereits im
EXPERIMENTELLE MEDIZIN
Aminosäure-Schalter für die Angst
@
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 6/59
FORSCHUNG aktue
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 11
RSCHUNG aktuell
10 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
Schwarze Löcher saugenmit ihrer enormen Schwer-kraft Gas aus der Umgebungauf. Stürzt es in die Schwer-
kraftfalle hinein, so erhitztes sich und sendet Röntgen-strahlung aus. Nach dergängigen Theorie müsstendie Röntgenblitze auch um-gebende Materie aufheizenund zum Leuchten im sicht-baren Licht anregen. Durchgleichzeitige Messung vonRöntgenstrahlung und sicht-barem Licht sollte dieses„Lichtecho“ nachweisbarsein. Die besten Messungendieser Art haben Astronomenvon den beiden GarchingerMax-Planck-Instituten fürextraterrestrische Physik undfür Astrophysik gewonnen(NATURE, 8. November 2001).
Überraschenderweise ließensich die Ergebnisse jedochnicht mit der bisherigen „Echo-theorie“ erklären. Das Team umGottfried Kanbach und HenkSpruit vermutet, dass von demSchwarzen Loch ein Materie-
strom ausgeht, in dem dieoptische Strahlung entsteht.Die Garchinger Forscherhatten sich für ihre Untersu-chungen einen etwa 6000Lichtjahre entfernten Himmels-körper mit der BezeichnungXTE J1118+480 (auch KV UrsaMajoris genannt) ausgewählt.Auf Grund früherer Beobach-tungen vermuten die Forscherdort ein Schwarzes Loch, dasmehr als die sechsfache Son-
nenmasse besitzt. Von einemBegleitstern strömt Gas zumSchwarzen Loch hinüberund sammelt sich zunächst ineiner Scheibe. Von dort ausstrudelt es nach und nach inden kosmischen Mahlstromhinein. Kommt es hierbei zuStörungen, bei denen größereGaswolken in das SchwarzeLoch hineinstürzen, strahltdas Gas einen i ntensivenRöntgenblitz ab.Kanbach und seine Kollegenbeobachteten XTE J1118+480im Juli 2000 gleichzeitig imRöntgenbereich mit dem ame-
rikanischen WeltraumteleskopRossi XTE und im sichtbarenLicht mit einem Teleskop auf Kreta. Für ihre dortigen Mes-sungen verwendeten sie dasam Max-Planck-Institut fürextraterrestrische Physik ent-wickelte Instrument OPTIMA;es erlaubt die Messung sehrrascher Helligkeitsänderungen.Mit diesen Synchronbeobach-tungen gelang es ihnen,schnelle Variationen der Rönt-genstrahlung und des opti-schen Lichts auf Zeitskalen vonMillisekunden miteinander zukorrelieren. „Zu unserer Über-raschung zeigte sich jedoch,dass die optische Strahlung vielschneller auf Variationen derRöntgenstrahlung reagiert alswir es auf Grund des bisherigenModells erwartet hatten“, sagtHenk Spruit. Tatsächlich folgtenach jeweils einem Röntgen-ausbruch ein Helligkeits-anstieg im sichtbaren Bereich
schon nach etwa einer Zehn-telsekunde.Die Forscher interpretierendiese Beobachtung als Hinweisauf einen Materieausfluss vomSchwarzen Loch. Demnachlenken Magnetfelder einen Teildes auf das Schwarze Lochzuströmenden Gases um undbeschleunigen es senkrecht zurScheibe. Jedes Mal, wenn einegroße Gaswolke in RichtungSchwarzes Loch fällt, gerät
auch mehr Materie in den ab-strömenden Gasstrom. In ihmbilden sich dann Wellen, dieden beobachteten Lichtblitzaussenden. Einfachen Abschät-zungen zufolge müsste dieserAusstrom mit weniger als zehnProzent der Lichtgeschwindig-keit erfolgen. Die optischeEmission käme dann aus einerRegion in etwa 20.000 Kilome-tern Entfernung vom Schwar-zen Loch. Die Zeitverzögerungdes sichtbaren Lichts gegen-über dem Röntgenausbruchwird also durch eine Laufzeit-verzögerung erklärt.
Dieser relativ langsame Aus-strom wäre ein neues Phäno-men in der Umgebung einesSchwarzen Lochs. Bisher sindausschließlich stark gebün-delte Gasstrahlen (Radiojets)bekannt, in denen sich dieTeilchen mit bis zu 90 Prozentder Lichtgeschwindigkeit vomSchwarzen Loch fortbewegen.Ob diese Interpretation stimmt,wollen die Forscher mit wei-teren Beobachtungen an ähn-lichen Quellen überprüfen –XTE J1118+480 ist nach seinemsiebenmonatigen Ausbruchim Jahr 2000 erloschen.
Weitere Informationenerhalten Sie von:DR. GOTTFRIED KANBACH
Max-Planck-Institut fürextraterrestrische Physik,GarchingTel.: 089/30000-3544Fax: 089/30000-3606E-Mail: [email protected]
PROF. DR. HENK SPRUIT
Max-Planck-Institut fürAstrophysik, GarchingTel.: 089/30000-2220Fax: 089/30000-2235E-Mail: [email protected]
@
ASTROPHYSIK
Flackerndes Licht vom Schwarzen Loch
ration derlungsprozesser Umgebungchwarzenes XTE
8+480.röme von
m Begleitsternerhalb dess) bilden einebe um das(dunkelrot
braun dar-llt).olken stürzenort in dasarze Loch, dast unsichtbart, und senden Röntgen-lung aus). Gleichzeitig
mt Gas in Formsehr schnellen
“ (blau) insin langsamererrom strahltnach demgenblitz imbaren Licht).
I L L U S T R A T I O N : M P I F Ü R A S T R O P H Y S I K
/ S P R U I T
zeigen, dass offensichtlich dasZusammenspiel dieser beidenProteine die Stabilität des Mikrtubuli-Netzwerks festlegt:XMAP215 alleine sorgt für eineschnellere Polymerisationsrate,vergleichbar mit jener unter In-vivo-Bedingungen. Durch Zugavon XKCM1 wird die Polymerisationsrate nicht beeinflusst. Umgekehrt senkt XMAP215 aber ddurch diesen Faktor ausgelösteKatastrophenrate, also das Um-schalten in den Depolymerisations- oder Schrumpfungsprozes„Die Ähnlichkeit zwischen derdynamischen Instabilität in vivund unserem aus Tubulin,XMAP215, XKCM1 bestehendenIn-vitro-System ist unüberseh-bar“, sagt Anthony Hyman.
„Möglicherweise halten wir denSchlüssel in Händen, um zuküntig auch komplexe zelluläre Prozesse wie die Organisation derZellteilungsspindel in vitro ablaufen zu lassen.“Damit kämen die Wissenschaftnicht nur einem Verständnis deGrundprinzipien zellulärer Organisation näher. Auch im medizinischen Bereich könnten dieseErkenntnisse relevant werden.Schon seit längerem ist bekanndass Defekte auf der Ebene derMikrotubuli-Dynamik Einflussauf Krebserkrankungen haben.Mikrotubuli sind daher ein An-griffsziel für die ChemotherapieTaxol beispielsweise stabilisiertMikrotubuli und verhindertdie dynamische Instabilität. Beibestimmten Krebsformen, wieBrustkrebs, löst es spezifisch deTod der Krebszellen aus.
Weitere Informationenerhalten Sie von:
CLAUDIA LORENZ
Max-Planck-Institut für molekulaZellbiologie und Genetik, DresdenTel.: 0351/210-2030Fax: 0351/210-1679E-Mail: claudia.lorenz@mpi-cbg.
PROF. ANTHONY H YMAN
Tel.: 0351/210-1700Fax: 0351/210-1289E-Mail: [email protected]
tionszentren stellen ununter-brochen neue, rein zufällig aus-gerichtete Mikrotubuli her.Ein Mikrotubulus, der von einemsolchen Zentrum aus wächst,kann stabilisiert werden, wennsein „Plus-Ende“ von spezifischenProteinen eingefangen wird, umseinen Abbau zu verhindern. Ge-schieht dies durch eine Strukturin einem besonderen Bereich derZelle, wird der Mikrotubulus einziemlich stabiles Bindeglied zwi-schen dieser Struktur und demOrganisationszentrum bilden.Mikrotubuli dehnen sich deshalbnur in bestimmte Bereiche der
Zelle aus und schaffen einenMechanismus für die räumlicheOrganisation von Zellen sowie fürgerichtete Bewegungen vonOrganellen. Verglichen mit Mikrotubuli, dieaus gereinigtem Tubulin zusam-mengesetzt wurden, polymerisie-ren Mikrotubuli in ihrer physiolo-gischen Umgebung viermal soschnell und schalten auch we-sentlich häufiger von Polymerisa-tion zu Depolymerisation. DieMax-Planck-WissenschaftlerAnthony Hyman, Kazuhisa Kino-shita und ihre Kollegen habensich auf die Suche nach den Fak-toren begeben, die die Mikrotu-buli-Dynamik steuern. Beim Kral-lenfrosch Xenopus stießen sie auf ein Mikrotubuli-assoziiertes Pro-tein – kurz XMAP215 genannt –,das die Polymerisationsrate derMikrotubuli entscheidend stei-gert: Ohne XMAP215 gibt esbeim Krallenfrosch kein Mikro-tubuli-Wachstum. Des Weiteren
konnten die Forscher denvorherrschenden „Katastro-phenauslöser“ identifizieren:
Das Protein XKCM1, einMitglied aus der Kinesin-Familie, destabilisiert dieMikrotubuli, setzt also ihrenSchrumpfungsprozess inGang. Die beiden Faktorenhaben somit eine gegen-sätzliche Wirkung.In den In-vitro-Tests konn-ten die Wissenschaftler nun
den Verlust beziehungsweise dasHinzufügen von Tubulin-Baustei-nen. Die Gesamtpopulation vonMikrotubuli in der Zelle bestehtzu jedem Zeitpunkt aus einemGemisch von langsam wachsen-den und schnell schrumpfendenPolymeren. Das Umschalten zwi-schen diesen beiden Zuständenerfolgt rein stochastisch.Bereits 1984 wurde dieses dyna-mische Verhalten von Mikrotu-buli entdeckt. Es ist wesentlichesOrganisationsprinzip für eineganze Reihe wichtiger zellulärer Vorgänge. Denn im Gegensatzzu einem Knochenskelett, das
ausschließlich Stützfunktionübernimmt, ermöglicht dieserdynamische Grundzustand demZytoskelett auch zelluläre Bewe-gungen: So organisieren Mikro-tubuli den Transport von Zell-organellen, das Auswachsen derFasern von Nervenzellen oderdie Trennung der Chromosomen-paare während der Zellteilung.Wie geschieht das?Die Mikrotubuli liegen am dich-testen um den Zellkern und deh-nen sich von dort strahlenförmigin feinen filigranartigen Fädenzur Zellperipherie hin aus. Wegenseiner dynamischen Instabilitätwird ein neu gebildeter Mikro-tubulus nur bestehen bleiben,wenn seine beiden Enden vorDepolymerisation, also demSchrumpfen, geschützt sind. InZellen werden die so genanntenMinus-Enden der Mikrotubuligewöhnlich durch die Mikrotu-buli-Organisationszentren ge-schützt, von denen aus diese
Fäden wachsen. Die Organisa-
ZELLBIOLOGIE
Wie der Zufall mit Proteinen spielt
Auch Zellen haben ein „Ske-lett“ – ein Gerüst aus faden-förmigen Eiweißmolekülen, daseinerseits Stützfunktionen er-füllt, andererseits aber auchBewegungen der Zelle ermög-licht sowie an Transportprozes-sen innerhalb des Zellkörpersmitwirkt. Eine wichtige Rollefür dieses Zellskelett spielendie so genannten Mikrotubuli,die einem fortwährenden Auf-und Abbau unterliegen: einemdynamisch-instabilen Prozess,den Forscher am Max-Planck-Institut für molekulare Zell-biologie und Genetik jetzt
erstmals modellhaft „nach-gespielt“ haben (SCIENCE,9. November 2001).
„Dynamische Instabilität“ –damit sind nicht die derzeitigenSchwankungen der Aktienkursean der Börse gemeint, sonderndas Verhalten von Mikrotubuli,von winzigen, aus dem EiweißTubulin aufgebauten Polymeren,die wesentlicher Bestandteildes Zytoskeletts sind. Dabeihat der Verlauf der Aktienkursedurchaus einiges gemein mitdem Verhalten von Mikrotubuli –wechselt er doch ebenso zwi-schen Hoffnung weckendemAnstieg und katastrophalemAbsturz hin und her.Auch Mikrotubuli schalten umvon einem Katastrophenzustandin einen einträglicheren Status –die Wissenschaftler sprechen et-was nüchterner von Depolymeri-sation und Polymerisation: Siemeinen damit das Verkürzen oder
Verlängern der Mikrotubuli durch
Die Bilder zeigen das vom Mikrotubuli-Organisationszentrum ausgehende Verlängern und Schrumpfen verschiedener Mikrotubuli-Fäden.
@ F O T O S : M P I F Ü R
M O L E K U L A R E Z E L L B I O L O G I E U N D G E N E T I K
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 7/59
Strahlung so auf, dass das opti-sche Licht auf Bereiche außer-halb des Röntgendetektors ab-gelenkt wurde und somit nichtmehr stören konnte. Gleichzei-tig ermöglichte das Gitter aucheine genaue Analyse des Rönt-genspektrums. Dabei zeigtesich, dass die Röntgenstrahlungim Wesentlichen nur auf zweiWellenlängen konzentriertist, die genau den Röntgen-Fluoreszenzlinien von Sauer-stoff und Kohlenstoff ent-sprechen, den Hauptbestand-teilen in der Kohlendioxid-Atmosphäre der Venus.
Wie entsteht die Fluoreszenz?Röntgenphotonen von derSonne katapultieren aus denSauerstoff- und Kohlenstoff-atomen jeweils ein Elektronheraus, und nachrückendeElektronen besetzen die freigewordenen Plätze sofort wie-der. Bei diesem Prozess wirdStrahlung emittiert – die be-obachtete Röntgenfluoreszenz.Das Röntgenbild zeigt – andersals optische Fotos – eine starkeAufhellung des der Sonne zu-gewandten Planetenrandes.Diesen Effekt haben Forscherdes Max-Planck-Instituts fürextraterrestrische Physik amComputer detailgetreu simu-liert. „Die Röntgenfluoreszenz-Strahlung ist in Höhen von120 bis 140 Kilometern amkräftigsten. Im Röntgenbereichist die von der Sonne beschie-nene Halbkugel der Venus voneiner nahezu durchsichtigenleuchtenden Schale umgeben,
die am Rand am hellsten er-scheint, da wir dort am meistenvon der leuchtenden Materiesehen“, erklärt Konrad Dennerl.Die Eigenschaften dieser obe-ren atmosphärischen Schich-ten, der Thermosphäre und derExosphäre, lassen sich somitdurch Röntgenbeobachtungengut untersuchen.
Ein weiteres interessantes Er-
gebnis: Die Wechselwirkungder schweren, hoch ionisiertenAtome des Sonnenwinds mitder Atmosphäre spielt – im Ge-gensatz zur Röntgenstrahlungvon Kometen – bei der Venuseine untergeordnete Rolle.„Dies liegt vor allem daran“, soDennerl, „dass das Gas in derAtmosphäre erheblich dichterund konzentrierter ist als in derKoma eines Kometen“.Wie schwierig die Messungenwaren, zeigt eine Zahl: DieStärke der registrierten Rönt-genstrahlung betrug ein Zehn-milliardstel der optischenStrahlung – nur etwa alle 40Sekunden fing der Detektor einRöntgenphoton auf. Aus die-sem Grund musste Chandra die Venus drei Stunden lang unterdie Lupe nehmen und die Pho-tonen „aufsammeln“. Währenddieser Zeit bewegten sich Ve-nus und Erde auf ihren Bahnenum die Sonne und zog Chandra
um die Erde. Diese „Choreogra-fie“ ließ das Röntgenbild der Venus um das Zwanzigfacheihres Durchmessers im Teleskopweiter wandern. Um dennochein scharfes Bild zu erhalten,mussten die Photonen einzelnauf diese Bewegung korrigiertund der CCD-Detektor alle dreiSekunden ausgelesen werden.
Die Röntgenphotonen auf demBild erscheinen als einzelnePunkte. Zum Zeitpunkt der Be-obachtung betrug der schein-bare Durchmesser der Venusnur etwa ein Achtzigstel desErdmonddurchmessers; erstChandra machte es möglich,derart kleine Objekte im Rönt-genbereich abzubilden.
Weitere Informationenerhalten Sie von:
DR. KONRAD DENNERL
Max-Planck-Institutfür extraterrestrische Physik,GarchingTel.: 089/30000 - 3862Fax: 089/30000 - 3569E-Mail: [email protected]
FORSCHUNG aktue
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 13
Ein deutsch-amerikanischesTeam um Konrad Dennerlvom Max-Planck-Institutfür extraterrestrische Physik(MPE) in Garching bei Mün-chen hat erstmals die Venusmit einem Röntgenteleskopbeobachtet; das Instrumentkreist an Bord des SatellitenChandra um die Erde. Die„Röntgenfluoreszenz“ ent-steht in den oberen Schich-ten der Venusatmosphäre;Ursache dafür ist die Rönt-genstrahlung von der Sonne.Eine wesentliche Rolle beider Beobachtung spielte das
am Garchinger Max-Planck-Institut entwickelte Nieder-energie-Transmissionsgitter,das mit dem Chandra-Tele-skop hoch aufgelöste Spekt-roskopie erlaubt. Überihre Ergebnisse werden dieWissenschaftler in einerder nächsten Ausgaben derrenommierten FachzeitschriftASTRONOMY & ASTROPHYSICS
berichten.
Die Venus umrundet die Sonnein einer durchschnittlichenEntfernung von 108 MillionenKilometern, also innerhalb derErdbahn: Deshalb entfernt sichdie Venus von unserem Plane-ten aus gesehen niemals weiterals 48 Grad von der Sonne. Undaus diesem Grund beobachtenwir sie als hellen Morgen- oderAbendstern am östlichen oderwestlichen Dämmerungshim-mel, aber niemals um Mitter-nacht hoch im Süden. Der ge-
ringe Winkelabstand zur Sonnebedeutet für die meisten Rönt-gensatelliten ein Problem: Siedürfen nur Objekte in einemWinkelabstand von etwa 90Grad von der Sonne ins Visiernehmen, da sonst solaresStreulicht die Beobachtungstört, sich der Satellit erwärmtoder – im Fall fest montierter
Solarzellen – die Stromver-sorgung beeinträchtigt wird.Der amerikanische Röntgensa-tellit Chandra jedoch kann sichbis auf 45 Grad Winkelabstandan die Sonne „herantasten“.Dies reicht für die Venus gera-de aus. Dazu muss sie sich aberim maximalen Sonnenabstandbefinden, was etwa alle 19Monate zwei Mal hintereinan-der vorkommt. Im Januar 2001war dies der Fall: Die Venusglänzte als heller Abendsternund zeigte sich im Fernrohrals „Halbmond“.Weil die dichte Venusatmo-
sphäre einen großen Teil deseintreffenden Sonnenlichtsin den Weltraum reflektiert,erscheint sie sehr hell. Dasbedeutete ein besonderesProblem bei der Beobachtung,denn die große Leuchtkraftverfälscht das Röntgensignal.Andererseits dürfen Filter zur
RSCHUNG aktuell
12 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
ASTRONOMIE
Röntgenblick auf die Venus
Das erste Rönt-genbild der Venus,aufgenommenam 13. Januar2001 mit demRöntgenteleskopan Bord des Sa-telliten Chandra.
Intensität der Röntgen-Fluores-zenzstrahlung in der Venusatmo-
sphäre in Abhängigkeit vonder Höhe über der Oberfläche.Die durchgezogenen Linien gel-ten für senkrechten Einfall derSonnenstrahlung („Mittag“),während die gestrichelten Liniendie Verhältnisse für flachen Ein-fall („Dämmerung“) wiederge-ben. In allen Fällen ist die Flu-oreszenzstrahlung in Höhen von120 bis 140 Kilometern am kräf-tigsten. Die Buchstaben C, N, Obezeichnen Kohlenstoff, Stick-stoff und Sauerstoff; diese Ele-mente senden die Fluoreszenz-strahlung aus.
A B B . :
M P I F Ü R E X T R A T E R R E S T R I S C H E P H Y S I K
„Dämpfung“ nicht zu dichtsein, da sie sonst nicht nur dassichtbare Licht, sondern auchdie zu untersuchende Rönt-genstrahlung schwächen. DieFilter an Bord von Chandra sindso ausgelegt, dass sie für diemeisten Röntgenquellen dasoptische Licht ausreichend un-terdrücken. Bei der Venus je-doch lässt auch das dichtesteFilter noch etwas Licht durch.Dies wirkt sich zwar auf dieRöntgenbilder nicht stark aus,beeinträchtigt aber spektraleUntersuchungen, bei denen dieStrahlung nach Wellenlängen
zerlegt wird.Um dieses Problem zu umge-hen, bedienten sich die For-scher einer speziellen Beobach-tungstechnik. Das am Max-Planck-Institut für extraterres-trische Physik entwickelteTransmissionsgitter fächertedie vom Teleskop eingefangene
Mesosphäre Thermosphäre Exosphäre
Höhe über der Oberfläche (km)
@
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 8/59
RSCHUNG aktuell
14 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
KongruenteHandpositionen:beide Handflächen
nach oben oderbeide nach unten.
PSYCHOLOGISCHE FORSCHUNG
Gleich zu gleich bewegt sich’s leicht
wegungen mit der symmetri-schen Struktur des Körpers unddes Nervensystems zusammen-hängt. Die Symmetrietendenzist – so die traditionelle Lehr-meinung – eine Tendenz zurgemeinsamen Aktivierung ana-tomisch homologer Muskeln.Eine solche Deutung scheint auf den ersten Blick plausibel, dennhomologe Muskeln, aber auchzueinander spiegelbildlicheGebiete in beiden Hirnhälftenund im Rückenmark könnenerstens leicht gemeinsam akti-viert werden und sind zweitensüber neuronale Wege miteinan-
der verbunden, die selbst wie-derum eine besonders intensiveund effektive „Express-Kom-munikation“ ermöglichen.Eine andere Erklärung der Sym-metrietendenz liegt jedoch auf der Hand: Es könnte sein, dasssich hier keineswegs eine Ten-denz zur gemeinsamen Aktivie-rung homologer Muskeln aus-drückt, sondern dass wir zu Be-wegungen neigen, die symme-trisch aussehen und sich sym-metrisch anfühlen. Da wir Spie-gelsymmetrie gut erkennenund beurteilen können, sindsymmetrisch gestaltete Bewe-gungen möglicherweise beson-ders leicht zu überwachen undzu steuern. Franz Mechsner,Dirk Kerzel, Günther Knoblichund Wolfgang Prinz vom Max-Planck-Institut für psychologi-sche Forschung zeigten nun ineinfachen Bewegungsexperi-menten, dass unsere Neigungzur Symmetrie in der Tat auf
einer äußerlich wahrnehmba-ren Symmetrie beruht – ohne
Bezug auf Muskeln oder moto-rische neuronale Kommandos.In einem ihrer Experimente un-tersuchten die Wissenschaftlerdie beidhändige „Fingeroszilla-tion“, das klassische Beispielfür die Symmetrietendenz: Eine Versuchsperson bewegt zumTakt eines Metronoms beidenebeneinander nach vorn aus-gestreckte Zeigefinger gemein-sam nach links und rechts.Oberhalb einer kritischen Fre-quenz wechseln die meistenMenschen unwillkürlich vondiesem „parallelen“ Bewe-gungsmodus in einen spiegel-
symmetrischen Modus, bei demsich die Zeigefinger im Takt ge-geneinander bewegen. Symme-trische Fingerbewegungen da-gegen bleiben stets stabil.Die Max-Planck-Wissenschaft-ler haben diese Versuchsanord-nung auf einfache Weise nocherweitert: Die Testpersonen be-wegten beide Zeigefinger wei-terhin sowohl parallel als auchsymmetrisch. Doch dabei liegteine Hand mit der Handflächenach unten, die andere nachoben: In „kongruenten“ Posi-tionen zeigen beide Hand-flächen nach unten oder beidenach oben. In „inkongruenten“Positionen zeigt eine Hand-fläche nach oben und dieandere nach unten.Interessant für das Experimentsind die inkongruenten Hand-positionen, denn hier gehenparallele Fingeroszillationenmit periodischer gemeinsamerAktivierung homologer Mus-
keln einher. Wenn also tatsäch-lich eine Tendenz zur gemein-
gungungs-er: parallelegung (links),
metrische Be-ng (rechts).
Bei Bewegungen, die mitbeiden Händen gleichzeitigausgeführt werden, zeigt derMensch eine starke Tendenzzu spiegelsymmetrischen Be-wegungen. Diese Neigungzur Symmetrie wird meist alsgemeinsame Aktivierung ho-mologer, das heißt anato-misch spiegelbildlicher, Mus-keln gedeutet. Wissenschaft-ler vom Münchner Max-Planck-Institut für psycholo-gische Forschung haben jetzt jedoch herausgefunden, dassdie Steuerung solcher Bewe-gungen offenbar über die
Wahrnehmung erfolgt:Äußerlich symmetrische unddamit einfach wahrnehmbareBewegungen scheinen be-sonders gut steuerbar, unab-hängig von den beteiligtenMuskeln. Danach könnenMenschen auch hoch kom-plexe, ja normalerweise „un-mögliche“ Bewegungen aus-führen, wenn nur das von ih-nen wahrnehmbare Ergebnisder Bewegung einfach ist(NATURE, 1. November 2001).
Menschen tendieren dazu, Be-wegungen beider Hände spie-gelbildlich zu synchronisieren.Unsymmetrische Bewegungenkönnen gar unwillkürlich insymmetrische übergehen, be-sonders bei höheren Bewe-gungsgeschwindigkeiten. Wieist diese spontane Symmetrie-tendenz bei bimanuellen Bewe-gungen zu erklären? Die meis-ten Forscher favorisieren bisher
die nahe liegende Idee, dass dieNeigung zu symmetrischen Be-
FORSCHUNG aktue
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 15
dass die Neigung zur Symme-trie auf der Aktivierung gleich-artiger Muskeln beruht, istdamit für die untersuchtenBewegungsabläufe widerlegt.Doch was ist letztlich die Er-klärung für die Symmetrieten-denz? Franz Mechsner undseine Kollegen nehmen an, dassMenschen Bewegungsmusterbevorzugen, die sich auf mög-lichst unkomplizierte Weiseüber Wahrnehmungen undmentale Vorstellungsbilderkoordinieren, steuern undüberwachen lassen. Dieser Ge-danke steht im Gegensatz zutraditionellen Theorien, denenzufolge Bewegungsabläufe inmotorischen neuronalen Struk-turen koordiniert werden. Die-
sen Theorien zufolge trainiertder Organismus in sich zusam-menhängende muskuläre oderneuronale „Motorprogramme“,die für die jeweilige Bewegungcharakteristisch sind, und setztsie bei Bedarf ein. Die Max-Planck-Forscher argumentierendagegen, dass wir Bewegungennicht mittelbar über solchemotorischen Aktivierungsmus-ter, sondern unmittelbar mitHilfe von Wahrnehmungen undmentalen Vorstellungen steu-ern. Die Wissenschaftler konn-ten ihre Annahme durch einweiteres Experiment erhärten: Versuchspersonen drehtenunter einem Tisch beidhändigzwei von oben nicht sichtbareKurbeln, mit denen sie zweisichtbare kreisende Zeigerkontrollierten. Der linke Zeigerkreiste direkt über der linkenHand, während der rechte sich,über ein Zahnradgetriebe ge-steuert, vier Drittel mal schnel-
ler bewegte als die rechteHand. Die Versuchspersonen A
B B . : M
P I F Ü R P S Y C H O L O G I S C H E F O R S C H U N G
bekamen die Aufgabe, diesichtbaren Zeiger in spiegel-symmetrischen oder gegenläu-figen Kreisen zu bewegen. Inbeiden Fällen müssen sie dazuihre Hände in einem Frequenz-verhältnis von 4:3 kreisenlassen. Zum einen ist das einehöchst komplexe Bewegung,die normalerweise unmöglichist. Zum anderen lässt sich ausder Bewegung der Hände dasBewegungsmuster der Zeigernicht erschließen. Symmetrieund Gegentakt in den Zeigernkönnen somit über „motorischeProgramme“, die auf die Mus-keln zielen, nicht erzeugtwerden. Dennoch sind die Ver-suchspersonen recht gut in derLage, die geforderten Bewe-
gungsmuster einzustellen, in-dem sie nur auf die kreisendenZeiger achten und dabei ihreHände „vergessen“. Schlussfol-gerung: Wir Menschen könnenum einfacher Effekte willenhöchst komplizierte, ja „un-mögliche“ Bewegungen aus-führen, sofern wir vor allemauf die angestrebten Effekte,nicht aber auf die genaueKörperbewegung achten. Diesscheint dadurch möglich zusein, dass wir Bewegungen un-mittelbar über Wahrnehmun-gen und Vorstellungen, nichtaber mittelbar über Koordina-tionsprozesse im motorischenSystem steuern. Die nötigenMuskeln scheinen im Diensteder angestrebten Effekte inletztlich einfacher Weise ak-tiviert zu werden. Ihr formalhoch komplexes Tätigkeits-muster ergibt sich dabei ge-wissermaßen automatisch undvon selbst, ohne dass es eigens
als integriertes Ganzes organi-siert werden müsste.
Weitere Informationenerhalten Sie von:
DR. FRANZ MECHSNER
Max-Planck-Institut fürpsychologische Forschung,MünchenTel.: 089/38602-248Fax: 089/38602-199
E-Mail: [email protected]
InkongruenteHandpositionen:eine Handfläche
nach oben undeine nach unten.
@
samen Aktivierung homologerMuskeln besteht, sollte bei in-kongruenten Handpositionendas parallele Bewegungsmusterstabiler sein als das symmetri-sche. Wenn aber eine Tendenzzu einer räumlich spiegelsym-metrischen Bewegungsgestaltbesteht, dann sollten auch beiinkongruenten Handpositionensymmetrische Bewegungen sta-biler sein als parallele – obwohldabei nicht homologe, sondernunterschiedliche Muskeln ge-meinsam aktiviert werden.Die Versuchsergebnisse wareneindeutig: Auch bei inkongru-enter Position der Hände sindspiegelsymmetrische Fingeros-zillationen wesentlich stabilerals parallele. Bei höheren Be-
wegungsgeschwindigkeitenkommen spontane Übergängevom parallelen in den symme-trischen Bewegungsmodus vor,niemals jedoch Übergänge indie umgekehrte Richtung.Schlussfolgerung: Die spontaneSymmetrietendenz bei derZeigefingeroszillation ist eineTendenz zu räumlich spiegel-symmetrischer Bewegung.Welche Muskeln dabei aktivwerden oder welche Nerven-signale dabei gegeben werden,spielt offenbar keine Rolle.Weitere Experimente der Max-Planck-Wissenschaftler legennahe, dieses Forschungsergeb-nis zu verallgemeinern: Diespontane Neigung zur Sym-metrie bei Bewegungen beiderHände ist eine Tendenz zuräumlicher Symmetrie. DasGeschehen ist also stets be-stimmt von äußerlich wahr-nehmbaren Bewegungsgestal-ten, nicht von der motorischen
Struktur des Nervensystems.Die traditionelle Auffassung,
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 9/59
SAY
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 17
STRAFRECH
Die Kontrolle von Geldströmen und der Zugriff auf unrechtmäßige oder verdächtige Vermögenswerte
stehen im Zentrum der unmittelbar nach den terroristi-schen Anschlägen von New York und Washington vom11. September auch hier zu Lande neu entfachten(rechts-)politischen Diskussion. Damit wird ein Ansatzaufgegriffen, der bereits seit 15 Jahren einen Kernpunktder internationalen Bemühungen um den Kampf gegendie so genannte Organisierte Kriminalität (OK) bildet. Esgeht bei dieser strafrechtlichen (oder besser: kriminal-strategischen) Konzeption, die maßgeblich von den Ver-einigten Staaten ausging und seitdem von allen wichti-gen internationalen Gremien (UNO, Europarat, Europäi-sche Union) adaptiert und in einer Vielzahl multilatera-
ler Rechtsakte, Verträge und Übereinkünfte auch prak-tisch umgesetzt wurde, um Gesetze zur Bekämpfung vonGeldwäsche. Der Begriff Geldwäsche gilt – das zeigtauch die jüngste Diskussion in Politik und Medien inDeutschland – als eine Art Zauberformel: Konsequentangewendet, so die Meinung, wäre die erfolgreicheBekämpfung des internationalen Terrorismus allenfallseine Frage der Zeit.
Doch hier ist Skepsis angebracht. Das belegt eine wis-senschaftliche Analyse des Freiburger Max-Planck-In-stituts für ausländisches und internationales Strafrechtzu den bislang in der Bundesrepublik bis zur rechtskräf-tigen Verurteilung gelangten Geldwäsche-Verfahren:Mit den entsprechenden Strafvorschriften (vor allem
EineZauberformel,
die denTerrorismus
bannt?
F O T O : S T O C K M A R K E T
Die Anschläge am 11. September in den USA haben auch in Deutschland
die Diskussion um die Geldwäsche neu belebt. Ließen sich die illegalen Geld-
ströme eindämmen oder gar austrocknen, wäre dem internationalen Terrorismus
der Boden entzogen – so die von Politikern und Medien vertretene Meinung.
Etwas anders sieht das der Fachmann: MICHAEL KILCHLING, Geschäftsführen-
der Referent am Freiburger MAX-PLANCK-INSTITUT FÜR AUSLÄNDISCHES
UND INTERNATIONALES STRAFRECHT (Forschungsgruppe Kriminologie), ist
überzeugt, dass allein mit den Rechtsinstrumenten im Bereich Geldwäsche das
Problem des internationalen Terrorismus nicht in den Griff zu kriegen ist.
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 10/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 19
Gelder berührt werden könnte, in gleicher Weise naiv. Wirklich betroffen wird hingegen der Ruf der einzelnenFinanzinstitute – und seriöse Banken unternehmen des-halb große Anstrengungen, Geldwäsche über ihre Häu-ser möglichst noch über das im Geldwäschegesetz vor-gegebene Maß hinaus vor der Inanspruchnahme durchStraftäter zu schützen. Wenn überhaupt ein konkretes Rechtsgut für die
Geldwäsche zutreffend erscheint, so ist es das staatlicheInteresse – zum einen an Strafverfolgung, zum anderenan Gewinnabschöpfung entweder zugunsten des Staatesoder betroffener Dritter, insbesondere der Opfer.
Diese Interpretation entspricht am ehesten dem ei-gentlichen (originären) Charakter der Geldwäsche als
Verschleierungs- und Verwertungsdelikt. Erkennbar wird dabei auch die kriminalstrategische Zielrichtungdes Geldwäschekontrollkonzepts: Über die Bestrafung
einzelner Täter hinaus soll der Straftatbestand der Geld-wäsche – durch Rückverfolgung so genannter Papier-spuren – möglichst viele weitergehende Erkenntnisseüber weitere Tatbeteiligte sowie den Zugang zu deren
Vermögen eröffnen, um diese abzuschöpfen.Es ist deshalb schon geäußert worden, dass man mit
dem Geldwäsche-Tatbestand eigentlich gar nicht dieGeldwäsche als solche bestrafen wolle. Daran ist viel
Wahres. Dies zeigt sich gerade in den nach den Attacken vom 11. September angelaufenen Bemühungen, durchRückverfolgung von Geldströmen – auch der mutmaßli-chen Börsentransaktionen im Vorfeld der Anschläge –
verwertbare Spuren zu Osama bin Ladens Netzwerk AlQaida zu finden: Schwer vorstellbar, dass daran Betei-ligte, würde man ihrer habhaft, wegen Geldwäsche vor Gericht kämen. Es handelt sich also tatsächlich um ei-nen weit gehend technischen (Hilfs-)Tatbestand, der dieBasis für strafrechtliche Ermittlungen bilden kann undsoll, solange keine weiter gehenden, konkreten Vortat-nachweise verfügbar sind.
Dies wurde in einzelnen Fällen auch in der Vergan-genheit genutzt. So hat der Bundesgerichtshof, diehöchste deutsche Instanz in Strafsachen, im Jahr 1995die Verurteilung eines Mannes zur Höchststrafe von fünf Jahren für rechtens erklärt, weil er einen Betrag von20.000 Mark „gewaschen“ hatte; bei der fraglichenSumme handelte es sich um den Bruchteil von einemProzent aus dem Lösegeld einer Entführung. Die Beteili-gung des Verurteilten an der Entführung wurde vermu-tet, war aber nicht nachzuweisen. Da liegt die Annahmenahe, dass das für deutsche Verhältnisse sehr hoheStrafmaß nicht nur die Geldwäsche, sondern auch die –nicht beweisbare – Vortatbeteiligung des (noch dazunicht vorbestraften) Verurteilten widerspiegelt. DiesesPhänomen ist übrigens aus dem Bereich des Verkehrs-strafrechts bestens bekannt; dort wird beim Strafmaßfür Fahrerflucht regelmäßig ein (fiktiver) Trunkenheits-
entsprechende europarechtliche Ver-pflichtung umgesetzt wurde.
Dass bislang konkrete Anlasstatenfür einen substanziellen Geldwä-scheverdacht (insbesondere durcheine illegale Geldbeschaffung binLadens) fehlen, zeigt außerdem,dass ein Zugriff auf die fraglichenGelder nicht so problemlos seinkann wie das mitunter dargestelltwird – jedenfalls nicht mit straf-rechtlichen oder strafprozessualenMitteln. Die Fälle, in denen bisher in Deutschland Konten aus demUmfeld bin Ladens eingefroren wur-den, erfolgten denn auch auf der
Grundlage der EU-Verordnungen, die interessanterweise
bereits im März und Juli 2001 erlassen wurden und auf Artikel 60 beziehungsweise 301 des EU-Vertrages(GASP) basieren. Sie wurzeln also in außenwirtschafts-rechtlichen Boykottmaßnahmen gegen den Staat Afgha-nistan, stellen aber keine strafrechtlichen Maßnahmengegen konkrete Personen dar. Eine rein präventive Ver-mögenseinziehung ist in Deutschland nicht möglich.
STRAFRECH
18 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
§ 261 StGB) werden keinesfalls die „großen“ OK-Fälleerfasst, an die der Gesetzgeber bei der Implementierungder Geldwäschegesetzgebung gedacht hatte. Was verbirgt sich überhaupt hinter dem Begriff der
Geldwäsche? Vereinfacht gesprochen soll mit diesemDelikt jegliche Anlage oder (Weiter-)Verwertung delik-tisch erworbener Vermögenswerte unter Strafe gestelltund damit erschwert oder möglichst ganz unterbundenwerden. Demnach wäre Geldwäsche als eine Nachfolge-tat zu einer bereits begangenen Vortat zu sehen, beider Gewinne angefallen sind. Fraglich bleibt allerdings,worin der spezifische Unwert der Geldwäsche liegensoll. Denn: Sieht man von der unrechtmäßigen Herkunftder fraglichen Gelder einmal ab, so umschreibt der Straftatbestand des § 261 Handlungen, die auch alsganz normales Finanzmanagement erscheinen können.
Was macht also den besonderen, den strafwürdigen Ge-
halt der Geldwäsche aus?
SAY
aufschlag angesetzt – in der Annah-me, dass das Motiv für Fahrerfluchtregelmäßig in einer Alkoholisierungder Täter zu suchen ist, die manspäter nicht mehr nachweisen kann.
Darüber hinaus ist der Tatbestandder Geldwäsche für die Strafverfol-gungsbehörden auch im Frühstadi-um der Ermittlungen von nichtunerheblicher Bedeutung. Solangenämlich noch keine konkreten An-haltspunkte für bestimmte Vortaten
vorliegen, bedarf es des Geldwä-scheverdachts, um überhaupt einErmittlungsverfahren eröffnen undbesondere Ermittlungsmaßnahmenanordnen zu können. Insoweit darf man sich von der
Übertragung des Geldwäschekonzepts auf die Terroris-musbekämpfung tatsächlich einen gewissen Gewinn
versprechen, insbesondere mit Blick auf die Ermittlungund Verfolgung verwertbarer Spuren.
Dennoch gilt es, weitere Missverständnisse aufzu-klären, die in der öffentlichen Diskussion um eine geld-wäschebezogene Terrorismusbekämpfung mitunter auf-tauchen. So ist festzustellen, dass die Finanztransaktio-nen, die im Vorfeld der September-Anschläge mutmaß-lich getätigt wurden, wohl zu einem Gutteil legal waren.Jedenfalls ist Gegenteiliges nicht bekannt: Bin Ladensoll sein Vermögen geerbt, beziehungsweise im Straßen-bau redlich verdient haben. Anders als bei der RAF, de-ren Geldbeschaffung auf Straftaten wie Banküberfällenbasierte, oder im Fall der PKK, deren Spendensammel-praxis nach Erkenntnissen des Bundeskriminalamts mit-unter Schutzgelderpressungen nach italienischer Mafia-Manier ähnelt, wurde also ganz offenbar nicht mit Gel-dern gearbeitet, die aus Straftaten herrühren; zum da-maligen Zeitpunkt handelte es sich also zunächst nichtum „schmutziges Geld“. Auch die Gleichsetzung von Al-Qaida-Geldern mit
Staatsvermögen der Taliban, das teilweise aus Drogen-geldern gespeist sein soll, erscheint ohne nähere Er-kenntnisse nicht a priori möglich. Der Eindruck, einestrengere Geldwäschegesetzgebung und –kontrolle hät-ten die September-Anschläge eventuell verhindern kön-nen, führt deshalb in die Irre. Geldwäsche ist ein repres-siver, kein präventiver Ansatz. Und Vorfeldermittlungenunter dem allgemeinen Gesichtspunkt terroristischer Betätigung waren zum damaligen Zeitpunkt überdiesnoch gar nicht möglich: Es gab noch gar kein auf aus-ländische Organisationen zugeschnittenes Organisati-onsdelikt – übrigens eine Lücke, auf die bereits unser Forschungsbericht ausdrücklich hinweist. Der entspre-chende Paragraph (§ 129b StGB) wird erst mit dem ers-ten Sicherheitspaket eingeführt, womit zugleich eine
Mythos Bankgeheim
s ist Geldwäsche?
Dass Straftäter aus ihrem kriminellen Tun nicht zu-sätzlich Gewinne ziehen, mag moralisch wünschenswertsein. Dies rechtfertigt in einem Rechtsstaat freilich nichthinreichend, ein solches Verhalten unter Strafe zu stel-len. Das gilt umso mehr angesichts der Tatsache, dassder § 261 StGB vergleichsweise hohe Strafen vorsieht:Geldwäsche stellt einen der relativ wenigen Straftatbe-stände im deutschen Strafgesetzbuch dar, auf die alsMindeststrafe regelmäßig eine Freiheitsstrafe steht. EineGeldstrafe – wie sonst zumeist möglich – ist hier ausge-schlossen; damit ist Geldwäsche sogar schärfer bedrohtals manche ihrer Vortaten.
Gerade im Hinblick auf den Ultima-Ratio-Charakter des Strafrechts ist es nach unserem Rechtsverständnisunerlässlich, mit einer Strafnorm ein spezifischesRechtsgut zu schützen. Doch bis heute ist nicht geklärt,welches Rechtsgut oder welche Rechtsgüter durch denStraftatbestand der Geldwäsche eigentlich geschütztwerden. Kritiker sagen, solche Rechtsgüter seien auchbei bestem Willen nicht ersichtlich; einige Befürworter meinen, der legale Wirtschafts- und Finanzkreislauf müsse vor der Infizierung durch „schmutziges Geld“ ge-schützt werden.
Fraglich ist allerdings zum einen, ob Geld alsgrundsätzlich neutraler Wertträger überhaupt durch kri-minelle Einzelvermögen „infizierbar“ ist. Dann nämlichwären innerhalb kürzester Zeit sämtliche Geldwerte der Erde, die ständig im weltweiten Finanzkreislauf fließenund in Millionen täglicher Transaktionen neu vermischtwerden, „angesteckt“ – eine höchst absurde Vorstellung.
Zum anderen erscheint die Idee, dass das (weltweite)Finanzsystem als technische Service-Infrastruktur vonder legalen oder illegalen Herkunft der darin bewegten
Auf der anderen Seite bieten die schon entwickeltenund erprobten Instrumente durchaus Ansatzpunkte für die nach dem 11. September angelaufenen Strafverfol-gungsbemühungen (die gegenwärtig zunächst freilichreine Ermittlungsbemühungen darstellen). Als nützlichkönnte sich die Rückverfolgung der verdächtigen Fi-nanzströme erweisen. Dies ist schon seit längerem mög-lich und wird im Rahmen von Finanzermittlungen be-reits heute praktiziert – mit zunehmendem Erfolg: 1999stellte die Polizei in Deutschland verdächtige Vermö-genswerte in Höhe von etwa 430 Millionen Mark vor-läufig sicher; im Jahr 2000 lag der Betrag in der Größenordnung von rund einer Milliarde Mark, und imJahr 2001 werden nach vorläufigen Schätzungen bis zuzwei Milliarden Mark „eingefroren“. Der Mythos einesumfassenden Bankgeheimnisses entspricht somit schonlange nicht mehr der Realität. Allerdings ist nachhaltig daran zu erinnern, dass die
Verfolgung verdächtiger Gelder nur eine – zusätzliche –Ermittlungskomponente sein kann. Bereits bei der Bekämpfung der Organisierten Kriminalität hat sich ge-zeigt, dass die Verfolgung der Geldwäsche keineswegsden Königsweg bietet, als der sie ursprünglich konzipiertworden war. Dies wird sich im Rahmen der neu einset-zenden Bemühungen zur Terrorismusbekämpfung ver-mutlich bestätigen. Die Ermittlung, die strafrechtliche
Verfolgung und der damit zugleich intendierte konfiska-
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 11/59
20 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
SAY
torische Zugriff auf die fraglichen Vermögenswerte stoßen in der Pra-xis auf vielfältige Probleme. Dashaben unsere Forschungen im Be-reich der Geldwäsche deutlich ge-zeigt.
Ein großes Problem, wenn aucherst in zweiter Linie, ist dabei dieZuordnung verdächtiger Vermö-genswerte zu bestimmten Personen.Hintermänner von Strohmannkon-ten (ein gängiges Vorgehen im kri-minellen Milieu) lassen sich mitentsprechendem ermittlungstechni-schem Aufwand durchaus identi-fizieren: Das haben zuletzt die Er-mittlungen der Genfer Strafverfolgungsbehörden im
Leuna-Komplex deutlich gemacht, deren Ergebnisse indem „Tapete“ genannten Schema, das im Sommer 2001in der Presse abgedruckt war, sehr schön sichtbar ge-macht wurden. Weit schwieriger ist es hingegen, die
verdächtigen Vermögenswerte jeweils konkreten Straf-taten zuzuordnen – was die unabdingbare Vorausset-zung für einen strafrechtlichen Zugriff ist.
der Schweiz sind erheblich höhereZahlen zu verzeichnen; allein zwi-schen 1991 und 1997 wurden dort243 Personen einschlägig verurteilt,davon viele Fälle nach Rechtshilfe-ersuchen aus dem Ausland. Dieszeigt sehr schön die Sonderstellungdes internationalen BankenplatzesSchweiz.
In einer verstärkten internationa-len Zusammenarbeit wird daher auch im Bereich der Geldwäsche-bekämpfung das mögliche weitereErfolgspotenzial zu suchen sein. Sohaben denn die Justiz- und Innen-minister der EU bereits wenige Wo-
chen nach den September-Anschlägen die Intensivie-
rung entsprechender Maßnahmen verabredet. Die Er-gänzung der bisher zumeist nur national ausgerichtetenGeldwäschebehörden um eine europäische Institution –sei es als Unterabteilung oder als Schwesterbehörde vonEuropol – erscheint durchaus folgerichtig. Wobei es inder Bundesrepublik in der Vergangenheit aus Gründendes Föderalismus nicht einmal gelungen war, eine na-tionale Geldwäschemeldestelle nach ausländischem Vor-bild zu etablieren. Erst jetzt wird ein neuer Anlauf un-ternommen.
Bei allem, jedenfalls vom Grundsatz her nicht ganzunberechtigt erscheinenden Optimismus über die Taug-lichkeit der Geldwäschekontrollstrategie auch im Be-reich des Terrorismus, darf man freilich nicht vergessen,dass diese bislang nur auf dem Gebiet der OrganisiertenKriminalität zum Einsatz kam. Bis auf ganz wenige Län-der, wie Spanien, wurde Terrorismus nämlich (aus defi-nitorischer Perspektive mit guten Gründen) als nicht mitder OK vergleichbares Phänomen verstanden. Denn der Terrorismus ist, anders als die OK, nicht darauf ausge-richtet, Gewinne zu erzielen. Dies ist raison d’être der Organisierten Kriminalität, die ohne Rückgriff auf ihreGewinne und ohne Nutzbarkeit der weltweiten Finanz-kreisläufe ihrer entscheidenden Antriebsfeder beraubtund nicht lebensfähig wäre.
Für den Terrorismus ist Geld hingegen nur Mittel zumZweck: Erschließung von Geldquellen zur Finanzierung
von Anschlägen. Der bloße Entzug von Finanzmittelnoder von bestimmten Finanzierungskanälen kann dieoriginäre Gefahr, nämlich die Begehung weiterer Terror-akte, nicht bannen. Die präventive Komponente, diedem Geldwäsche- und Gewinnabschöpfungskonzeptauch zu Grunde liegt, läuft beim Terrorismus wohl zueinem Gutteil leer. Geldwäschebekämpfung wird somittraditionelle kriminalistische Ansätze sinnvoll ergänzen,aber keinesfalls ersetzen können.
mplexität als Hauptproblem
Allerdings liegen die Probleme nicht etwa in Schwä-chen der Gesetzgebung, sondern in der Komplexität der Materie. Die Vorstellung, die dem Gesetzgeber bei der Konzeption der Geldwäschestrategie vor Augen stand –dass nämlich von verdächtigen Vermögenswerten ausproblemlos in Richtung der zu Grunde liegendenStraftaten ermittelt werden könne („verdachtsunabhän-gige Finanzermittlungen“) – hat sich als etwas zu opti-mistisch erwiesen. Von allen 78 im Rahmen unseresForschungsprojekts untersuchten Geldwäscheverfahrenhatten nur sieben ihren Ermittlungsursprung in einer
Verdachtsmeldung nach dem Geldwäschegesetz; fast al-le anderen gingen auf vortatbezogene Ermittlungenzurück, wurden also mit der „herkömmlichen“ Ermitt-lungsrichtung (das heißt von einer konkreten Straftat zuden dazugehörigen Geldern) erzielt.
Kaum überraschend erscheinen vor einem solchenHintergrund auch die bislang europaweit sehr niedrigen
Verurteilungszahlen. So gab es 1999 in der Bundesrepu-blik 604 der Geldwäsche Verdächtigte. Tatsächlich ver-urteilt werden jährlich allenfalls 20 bis 25 Personen.
Von der Einführung des Geldwäschetatbestands im Jahr 1993 bis Ende 1999 wurden gerade 143 Verurteilungenregistriert – und nur bei 26 dieser Personen auch dieentsprechenden Gelder eingezogen. Mit diesen niedrigen
Verurteilungsquoten bei Geldwäsche liegt Deutschlandübrigens durchaus im europäischen Trend. Lediglich in
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 12/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 23
Unsichtbares UNIVERSUHWER punkt
Es ist nur ein unscheinbares, rotschimmerndes Pünktchen in
den Weiten des Weltraums. Seine Be-
zeichnung lautet SDSS 1030+0524,und seine Geschichte beginnt auf dem 2788 Meter hohen Apache Pointim US-Bundesstaat New Mexico.Dort wurde im Mai 1998 ein Tele-skop mit einem 2,5-Meter-Spiegel inBetrieb genommen, das den Himmeldurchmustert und dabei weit in denRaum hinausdringt. Das Fernrohrist mit einer Mosaik-CCD-Kameraund einem Multifaserspektrographenausgerüstet. Die Kamera nimmt dieastronomischen Objekte durch fünf
verschiedene Filter und damit in fünf unterschiedlichen Farben auf undliefert Bilder mit drei Grad (sechs
Vollmondscheiben) Durchmesser; der Spektrograph zerlegt das Licht inkleine „Regenbögen“, in denen che-mische Elemente ihre Fingerab-drücke als charakteristische Linienhinterlassen. Daraus analysieren die
Wissenschaftler wiederum die stoff-liche Zusammensetzung der unter-suchten Himmelskörper.
Mit dem 2,5-Meter-Teleskop arbei-ten die Forscher an dem Sloan Digi-tal Sky Survey (SDSS), der bisher umfangreichsten digitalen Himmels-durchmusterung. Das Projekt wird
von einem Konsortium amerikani-scher, japanischer und deutscher Forschungseinrichtungen getragen.
Auf deutscher Seite sind das Max-Planck-Institut für Astronomie inHeidelberg und das Garchinger Max-Planck-Institut für Astrophysik be-
Fernrohre gleichen Zeitmaschinen: Je weiter sie in den Raum schauen,
umso weiter blicken sie in die Vergangenheit zurück. Quasare, gigantische
Schwarze Löcher in den Herzen der ersten Galaxien, führen die Astro-
nomen zu den Ursprüngen des Alls. HANS-WALTER RIX, Direktor am
Heidelberger MAX-PLANCK-INSTITUT FÜR ASTRONOMIE, und seine
Kollegin LAURA PENTERICCI sind beim Studium eines Quasars bis zur
dunklen Ära des jungen Universums vorgedrungen.
Botschaften
vom Randdes Universums
F O T O S : S L O A N
D I G I T A L S K Y
S U R V E Y
teiligt. Der SDSS soll innerhalb vonfünf Jahren 10.000 Quadratgrad –den halben Nordhimmel – kartieren
und die Rotverschiebungen von etwaeiner Million ferner Galaxien und100.000 Quasaren messen. Das be-deutet einen gewaltigen Sprung,denn damit werden die Astronomendie räumliche Verteilung der Stern-systeme in einem hundertfach grö-ßeren Volumen als bisher bestim-men. Die Durchmusterung wird 15Terabytes an Daten bringen; um siezu speichern, bräuchte man 24.000CD-ROMs.
DER COMPUTER
SORTIERT DEN H IMMEL
Für gewöhnliche Sterne innerhalbunserer Milchstraße oder Kleinplane-ten und Kometen, die zufällig insBild kommen, interessieren sich dieSDSS-Forscher ebensowenig wie für relativ nahe, wenige Millionen Licht-
jahre entfernte Galaxien. Auf denersten Blick erscheint die Unterschei-dung der verschiedenen Objekteschwierig: Die Bilder von weit ent-fernten Galaxien, Sternen oder Kleinplaneten ähneln sich – alle er-scheinen sie auf den digitalen Weit-winkelfotos als mehr oder weniger schwache Lichtpünktchen. Es bedarf einer speziellen Software, um dieHimmelskörper nach vorgegebenenKriterien zu sortieren. Zum Beispielfischt das Computerprogramm jeneheraus, die nur im roten Bereich desSpektrums leuchten. Dahinter ver-bergen sich sehr häufig so genannte
,5-Meter-Teleskop des Sloan
al Sky Survey (SDSS) auf dem Apache
im US-Bundesstaat New Mexico.
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 13/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 25
Unsichtbares UNIVERSU
(millionstel Millimeter), liegt also imunsichtbaren ultravioletten Licht.Die kosmische Rotverschiebung lässtsie jedoch in den sichtbaren Teil desSpektrums wandern. Weil das Licht von Quasaren stark
rotverschoben ist, müssen sie „astro-nomisch“ weit von der Erde entferntsein (gerade deswegen gelten sienach der kosmologischen Interpreta-tion als Energiemonster, weil sietrotz der großen Distanzen ver-gleichsweise hell am irdischen Him-
24 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
HWER punkt
Hier kommt die Kosmologie insSpiel. Nach dem klassischen Urknall-Modell expandiert der Raum seit der „Urexplosion“ vor 15 MilliardenJahren in alle Richtungen. Da dieLichtgeschwindigkeit endlich ist,benötigt das Licht eine gewisse Zeit,um von einem Punkt A nach einemPunkt B zu gelangen. Ist zum Bei-spiel „Punkt A“ die Sonne und„Punkt B“ die Erde, so dauert dieReise gut acht Minuten. Das heißt:
Wir nehmen die Sonne so wahr, wiesie vor gut acht Minuten ausgesehenhat – zum Zeitpunkt also, zu demdas Licht ausgesandt wurde. Ebensoerscheint uns die rund 2,5 MillionenLichtjahre entfernte Andromeda-Ga-laxie so, wie sie vor 2,5 Millionen
Jahren ausgesehen hat. Kurz: Strah-lung aus dem All ist immer auch einBotschafter aus der Vergangenheit.Je weiter die Teleskope in den Raumhinausspähen, umso weiter blickensie in die Vergangenheit zurück.
Das Licht einer fernen Galaxiemuss eine weite Strecke durchlaufenund ist deshalb lange unterwegs.
Während dieser Zeit expandiert dasUniversum, also der gesamte Raum,und damit wächst auch der Abstandzwischen Wellentälern und -bergen.Diese „Dehnung“ führt zu größeren
Wellenlängen, also zu einer „Rotver-schiebung“ des Lichts – und gilt alsMaß für die Entfernung eines Ob-
jekts: Je stärker das Licht „rotver-schoben“ ist, desto größer die Dis-tanz der Lichtquelle zur Erde.
Die Rotverschiebung (z) ist gleich-sam der Dehnungsfaktor der Wel-lenlänge; eine Rotverschiebung vonz = 1 heißt, dass die Wellenlänge auf das Doppelte angewachsen ist. In der Praxis suchen die Astronomen in ei-nem Galaxienspektrum nach einer bekannten Linie und vergleichen de-ren Wellenlänge mit dem gemesse-nen Laborwert. Als hilfreich bei der Suche hat sich die „Lyman-alpha“-Linie des Wasserstoffs erwiesen.
Wasserstoff ist das häufigste Elementim Kosmos, und die Lyman-alpha-Linie steckt praktisch in jedem Gala-xienspektrum. Sie besitzt eine Ruhe-wellenlänge von 121,6 Nanometern
stecken. Diese Schwerkraftmonster saugen Materie an: Gaswolken undSterne sammeln sich in einer rotie-renden Akkretionsscheibe und stru-deln schließlich mit hohem Tempo inden kosmischen Schlund. Aus Qua-sar-Spektren leiten die Wissen-schaftler Geschwindigkeiten von biszu 5000 Kilometer in der Sekundeab. Pro Sekunde „verschluckt“ einQuasar etwa eine Erdmasse anMaterie. Dies erzeugt Energien, dienahezu den maximalen, von Ein-steins berühmter Äquivalenzformel„Energie ist gleich Masse mal demQuadrat der Lichtgeschwindigkeit“(E = m x c2) vorgegebenen Wert er-reichen. Dieser Prozess ist um ein
Vielfaches effizienter als die Um-
wandlung von Wasserstoff zu Heli-um, mit der sonnenähnliche Sterne inihrem Inneren Energie produzieren.
TELESKOPE
ALS ZEITMASCHINEN
Quasare leuchten in einem breitenBand des Spektrums: im Radio- undRöntgenbereich ebenso wie im op-tisch sichtbaren und vor allem im ul-travioletten Licht. Dennoch glimmtSDSS 1030+0524 wie alle anderenQuasare auf den Bildern des SloanDigital Sky Survey auffallend rot. Ir-gendetwas muss die Strahlung zulängeren Wellen, also in den rotenSpektralbereich, verschoben haben.
Quasare – und damit sind wir wieder bei dem roten Pünktchen SDSS1030+0524.
Im Juni 2001 analysierte XiaohuiFan vom Institute for Advanced Stu-dies in Princeton (USA) mit einigenKollegen des SDSS-Teams das Lichtdieses roten „Sterns“ und fand mit-hilfe eines extra aufgenommenenSpektrums heraus, dass es sich dabeitatsächlich um einen Quasar handelt.Diese Objekte gelten als die leucht-kräftigsten im Universum. Sie produ-zieren tausendmal mehr Strahlungals eine gewöhnliche Galaxie wieunsere Milchstraße mit ihren 100oder 200 Milliarden Sonnen. Weildie Strahlung von Quasaren inner-halb weniger Tage schwankt, muss
sie aus einem Bereich stammen, der wenige Lichttage Durchmesser hat;ein Lichttag ist die Strecke, die dasLicht in 24 Stunden zurücklegt, alsorund 26 Milliarden Kilometer. Dieserscheint groß – doch im Vergleichdazu beträgt der Durchmesser der Milchstraße etwa 100.000 Lichtjahre.
Woher stammt die unglaublichkonzentrierte Kraft dieser Energie-bündel? Die meisten Forscher glau-ben, dass Quasare die Zentren vonGalaxien sind, in denen SchwarzeLöcher mit Millionen Sonnenmassen
mel strahlen). Damit sind Quasareauch sehr jung und erlauben denBlick in ein Universum, das weniger als ein Viertel oder gar ein Fünftelseines heutigen Alters besitzt.
Bei dem Quasar SDSS 1030+0524fanden die SDSS-Forscher die Ly-man-alpha-Linie bei einer Wellen-länge von 885 Nanometern – was ei-ne Rotverschiebung von z = 6,28 er-gibt. Einem gängigen kosmologi-schen Modell zufolge sehen wir dasObjekt zu einer Zeit, da das All etwa
URKNALL
15 Milliarden Jahre
-270 Grad
500 Millionen bis
1 Milliarde Jahre
-250 Grad
300000 Jahre
3000 Grad
1 Sekunde
10 Milliarden Grad
10-5 Sekunden
1 Billion Grad
10-43 Sekunden
1041 Grad
? ?
Gegenwart
Protogalaxien
Quasare
Helium- und
Wasserstoffatome;
das Weltall
wird transparent
Helium- und
Wasserstoffkerne
Beginn der Zeit
Ursuppe
Galaxien
fünf Prozent seines heutigen Altersaufwies; das entspricht einer Epochenur ungefähr 700 Millionen Jahrenach dem Urknall vor 15 MilliardenJahren. Das ist Rekord: Niemals zu-
vor haben die Astronomen ein weiter entferntes Objekt gesehen.
Der Quasar sollte weitere Überra-schungen bergen. Hans-Walter Rix,Direktor am Heidelberger Max-Planck-Institut für Astronomie, undseine Mitarbeiterin Laura Pentericcinahmen sich SDSS 1030+0524 mitdem 8-Meter-Spiegel „Kueyen“ des
Very Large Telescope vor. Diese An-
lage des European Southern Obser- vatory (ESO) auf dem chilenischen Andengipfel Paranal besteht aus vier Fernrohren mit jeweils acht Meter Durchmesser. Für ihre Spektralbe-obachtungen verwendeten Rix undPentericci FORS 2. Das Instrumentwiegt mehr als zwei Tonnen und ist,
verbunden mit dem Teleskop, eine Art „All“-Zweckwaffe: Kamera,Spektrograph und Polarimeter in ei-nem. Es liefert nicht nur Bilder vomRand des Universums, sondern kannaußerdem 19 astronomische Objekte
Wie das All auf die Welt kam: Die Grafik
zeigt schematisch die wichtigsten
Stationen in der Entwicklung des Universums.
Vier „Riesenaugen“ blicken zum Himmel:
Very Large Telescope der Europäischen Südsternwarte
(ESO) auf dem Cerro Paranal in Chile.
Der Quasar SDSS 1030+0524 erscheint
auf der Entdeckungsaufnahme als ein schwach
leuchtendes, auffallend rotes Objekt (Pfeil).
F O T O : E S O
F O T O : S L O A N
D I G I T A L S K Y
S U R V E Y
/ I L L U S T R A T I O N : R O
H R E R
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 14/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 27
schen Expansion kühlt das All umeinige hundert Millionen Grad ab,die Kernsynthese kommt nach weni-gen Minuten zum Stillstand. DasUniversum besteht jetzt aus Wasser-stoff, Helium-4 sowie extrem gerin-gen Mengen von Deuterium, Heli-um-3 und Lithium-7.
Rund 300.000 Jahre nach dem Ur-knall (entsprechend einer Rotver-schiebung von z = 1000) liegt dieTemperatur bei 3000 Grad. Jetzt ge-schieht etwas Entscheidendes: ImUniversum bildet sich neutraler Was-serstoff, denn den Atomkernen ge-lingt es, die umherschwirrendenElektronen einzufangen und Atomezu formen. Damit lichtet sich der „Elektronennebel“. Die Photonenkoppeln sich vom Plasma der Ele-mentarteilchen ab. Das All wird für elektromagnetische Wellen durch-sichtig; wegen der kosmischen Ex-pansion hat sich dieses „Urlicht“ bisheute auf drei Grad über dem abso-luten Nullpunkt (- 270 Grad = 3 Kel-
vin) abgekühlt. Die „3-K-Hinter-grundstrahlung“ gilt als stärkstes Ar-gument für den Urknall.
Der Quasar SDSS 1030+0524 er-hellt diese finstere Epoche des neu-tralen Wasserstoffs: Offenbar dauerte
diese Ära nur wenige 100 MillionenJahre, denn als im Universum dieersten „Lichter angingen“ – alsoSterne und Quasare aufleuchteten –begann deren energiereiche Ultra-
violett-Strahlung, das Elektron im Wasserstoffatom loszuschlagen, alsodie Materie zu ionisieren.
SPEKTRUM VERRÄT
NEUTRALES GAS
Diese Übergangsphase von „dun-kel“ nach „hell“ zeigt sich im Spek-trum, das Rix und Pentericci unter-sucht haben: „Die Lyman-alpha-Li-nie fällt bei kürzeren Wellenlängenzunächst nicht abrupt auf Null. Dar-in sieht man Materie, die durch dasQuasarlicht ionisiert wird“, erläutertder Heidelberger Astronom. „Dann
jedoch bricht die Kontinuumsstrah-lung plötzlich ab. Im Bereich zwi-schen 875 und 835 Nanometern istsie auf höchstens 0,3 Prozent des ur-sprünglichen Werts reduziert. Erstunterhalb von 835 Nanometern hebtsie sich sehr schwach vom Hinter-grundrauschen ab.“ Was hat dieser Befund zu bedeu-
ten? Neutrales intergalaktisches Gas,das sich in einem Rotverschiebungs-bereich zwischen etwa z = 6,0 und
z = 6,3 befindet, absorbiert dieStrahlung nahezu vollständig undunterdrückt dadurch das Kontinuum;denn nur neutrale Materie kannStrahlung „verschlucken“. Auf diese
Weise verrät sich im Quasar-Spek-trum gleichsam die kosmische Urma-terie. Zu der Zeit, zu der wir SDSS1030+0524 sehen, war der Prozessder erneuten Ionisation noch nichtabgeschlossen. Umgekehrt belegenBeobachtungen von Quasaren beiniedrigeren Rotverschiebungen von
z = 4 oder z = 2 – also mit zuneh-mendem zeitlichen Abstand vom Ur-knall –, dass die Kontinuumsstrah-lung wieder ansteigt. Das heißt: Mitwachsendem Alter des Universumswurde der Wasserstoff von den jetztin immer höherer Zahl aufleuchten-den Quasaren immer stärker ioni-siert.
Zwar sind die Astronomen nun-mehr in die Epoche vorgedrungen,als aus dem neutralen Urgas die ers-ten Galaxien und damit Quasare ge-boren wurden. Aber wie diese Geburt
verlief, wissen sie nicht. Und auchden exakten Zeitpunkt, zu dem esLicht wurde, haben sie noch nichtbeobachten können. Hans-Walter Rix und seine Kollegen hoffen daher auf den Satelliten PRIME, der mithil-fe des Deutschen Zentrums für Luft-und Raumfahrt (DLR) und der US-Raumfahrtbehörde NASA verwirk-licht werden soll. Der unbemannteSpäher könnte in ein paar Jahren in600 Kilometer Höhe die Erde umrun-den und mit einem 70-Zentimeter-Teleskop ein Viertel des Himmelsdurchmustern. Außerhalb der stören-den Erdatmosphäre werden seineInfrarot-Augen noch Objekte bei ei-ner Rotverschiebung von z = 20 se-hen und damit in die Kinderstubedes Kosmos. Das rote Lichtpünkt-chen mit der Bezeichnung SDSS1030+0524 hat den Weg gewiesen.
HELMUT HORNUNG
Unsichtbares UNIVERSU
26 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
HWER punkt
gleichzeitig spektroskopieren. Diegroße Licht sammelnde Wirkung von„Kueyen“ und die effiziente Kon-struktion von FORS 2 erlaubenaußergewöhnlich präzise Spektrenauch von schwachen Objekten wiefernen Galaxien oder Quasaren.
In dem Spektrum von SDSS1030+0524 (siehe die Abbildung auf Seite 27), das die beiden Max-Planck-Wissenschaftler gewannen,zeigt sich die Wasserstofflinie Ly-man-alpha, die der Quasar selbstaussendet und die – wie oben be-schrieben – wegen der hohen Rot-
verschiebung statt im ultraviolettenim nahen Infrarotbereich erscheint.Die Linie ist relativ breit und spiegeltdamit die rasenden Bewegungen des
Gases in der Nähe des SchwarzenLochs wider.
Darüber hinaus identifizierten die Astronomen Linien von hoch ioni-siertem Stickstoff und von Kohlen-stoff – Elementen, die nur bei Kern-fusionsprozessen im Inneren vonSternen „gekocht“ und am Ende ih-res Lebens, zum Beispiel bei Super-nova-Explosionen, freigesetzt wer-den. „Massereiche Sterne leben we-nige hundert Millionen Jahre. Folg-lich muss die Sternproduktion ent-sprechend früh begonnen haben,
vielleicht 300 Millionen Jahre vor den Supernova-Explosionen“, sagtRix. Damit liegt die Sternengeburtaber noch näher am Urknall undsollte im Fall des Quasars SDSS1030+0524 bereits 400 MillionenJahre nach der Geburt des Kosmoseingesetzt haben.
Dies verschärft ein Problem, dasdie Kosmologen schon länger plagt:
Wie konnte sich die Materie schon sokurze Zeit nach dem Urknall zu Ster-nen zusammenballen? Mehr noch:Damit Sterne als Supernovae ster-ben, Materie ins All abgeben und alsSchwarze Löcher enden, müssen sieetwa die zehnfache Sonnenmassebesitzen. Andererseits kennen die
Astronomen keine Sterne mit mehr als der hundertfachen Masse unserer Sonne. Die Schwarzen Löcher der Quasare haben jedoch eine MillionSonnenmassen. Wie also wurden sieerzeugt? „Eine bisher ungelöste Fra-ge“, sagt Hans-Walter Rix.
TEILCHENGEBURT
AUS URENERGIE
Um die Schwierigkeiten der Astro-nomen und die weitere Interpretati-on des Spektrums von SDSS1030+0524 zu verstehen, muss mandie Grundzüge des Standardmodells
vom „inflationären Urknall“ kennen.Danach entstand das Universum auseinem punktförmigen Volumenhöchster Energiedichte. Die Wissen-
schaftler sind weit davon entfernt,die Fragen nach dem „Warum“ oder dem „Davor“ zu beantworten. Erstnach Ablauf der Planck-Zeit (10-43
Sekunden) macht es Sinn, über die
Entwicklung des Universums nach-zudenken. Es ist viel kleiner als ein
Atomkern, und bei einer Temperatur von 1041 Grad schwappt die Energiedarin hin und her. Nach 10-35 Sekun-den bläht sich der Raum auf; diese„Inflation“ lässt das All um das1050fache anwachsen, auf die Größeeiner Orange. Unterdessen entstehenaus der Urenergie Teilchen und ihre
Antiteilchen – und vernichten sichaugenblicklich wieder. Nur jedesmilliardste Teilchen findet keinen
Antimaterie-Partner; auf diese Weisekommt es zu einem winzigen Über-schuss von Materie.
Etwa eine hunderttausendstel Se-kunde nach dem Urknall formen sichdie Protonen und Neutronen, eine
Sekunde später vereinigen sich dieseMateriebausteine bei einer Tempera-tur von einer Billion Grad zu Was-serstoffkernen, die schließlich Heli-umkerne bilden. Wegen der kosmi-
Jet
Staubtorus
Akkretionsscheibe SupermassivesSchwarzes Loch
Kosmisches Kraftwerk: Im Zentrum eines Quasars
steckt ein supermassives Schwarzes Loch; seine
Umgebung ist im Vergleich zum Gesamtbild um den
Faktor 10.000 vergrößert dargestellt.
Das Spektrum des neuen Entfernungsrekordhalters
SDSS 1033+0524, aufgenommen mit FORS 2 am
Very Large Telescope. Im Bereich zwischen 835 und 875
Nanometern ist das Kontinuum auf höchstens 0,3 Prozent
des ursprünglichen Werts reduziert. Erst unterhalb von
835 Nanometern hebt es sich schwach vom Rauschen ab.
A B B . :
M P I F Ü R
A S T R O N O M I E
A B B . :
M P I F Ü R
A S T R O N O M I E
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 15/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 29
Unsichtbares UNIVERSU
28 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
HWER punkt
Galaxien wie unsere Milch-straße sind keine Einzelgän-
ger. Sie haben sich in großen Grup-
pen angesammelt, die im Extremfallmehrere tausend Mitglieder umfas-sen können. Nahe am Zentrum fast
jedes großen Haufens befindet sicheine Riesengalaxie. Der Raum zwi-schen den Galaxien ist nicht gänz-lich leer, wie es auf Bildern im Be-reich des sichtbaren Lichts den An-schein hat. Vielmehr existiert dortein sehr fein verteiltes Gas. Da es
viele Millionen Grad heiß ist, strahltes jedoch ausschließlich im Röntgen-licht – ein beobachterisch schwer zugänglicher Bereich, da die Erdat-mosphäre diese energiereiche Strah-lung absorbiert.
Die Entdeckung dieses intergalak-tischen Gases in den siebziger Jahrenführte zehn Jahre später zu einer Theorie, die bis heute heiß umstrittenblieb: Britische Astrophysiker zogendamals den Schluss, dass das Gaszunächst in das Zentralgebiet desHaufens strömt, wo die massereicheGalaxie mit ihrem starken Schwer-kraftfeld ihre Umgebung dominiert.Dort kühlt es sich innerhalb vonhöchstens einer Milliarde Jahren abund „kondensiert“ zu neuen Sternenaus. Die Fachleute sprachen voncooling flows. Aus den damals vor-handenen Messdaten schätzten dieForscher ab, dass auf diese Weise inExtremfällen jedes Jahr mehr alstausend neue Sterne in den coolingflows entstehen. Eine unglaublichhohe Rate im Vergleich zu einer
durchschnittlichen Spiralgalaxie wieder Milchstraße, in der jährlich etwaein neuer Stern aufleuchtet. Dieser
prognostizierte Vorgang müsstedemnach die Entwicklung von Gala-xienhaufen ganz erheblich beein-flussen.
Diese Aufsehen erregende Theoriehatte indes einen Haken: Weder daskühle Gas selbst noch die darin ent-stehenden jungen Sterne ließen sichnachweisen. Verfechter der Theorieerdachten daher immer neue Hypo-thesen, um die Diskrepanz zwischenTheorie und Beobachtung zu er-klären. So wurde beispielsweise ver-mutet, dass die Sternentstehung inden cooling flows anders abläuft alses von unserer Milchstraße und an-deren Galaxien her bekannt ist. Ins-besondere sollten fast ausschließlichmassearme Sterne entstehen, die sichaus größerer Entfernung nicht voneiner alten Sternpopulation unter-scheiden lässt, wie sie in der Zentral-galaxie vorhanden ist. Das wider-sprach hingegen aller Erfahrung.
PARADOXONZWISCHEN HEISS UND KALT
Das Paradoxon blieb bestehen: Dasheiße Gas war eindeutig vorhandenund nach allen Regeln der Physik müsste es sich auch abkühlen. Offen-bar tut es das aber nicht. Warum? Alle bisherigen Beobachtungen lit-
ten darunter, dass die Röntgentele-skope zum einen keine hohe Auflö-sung besaßen, also keine Details imInnern der Galaxienhaufen zeigten.
Zum anderen gab es keinen emp-findlichen Spektrographen. Ein sol-ches Instrument ist aber nötig, bei-
spielsweise um Gastemperaturen zumessen. Beide Möglichkeiten bietetdas Ende 1999 gestartete europäi-sche Röntgenobservatorium XMM-Newton.
Im Jahr 2000 beobachteten HansBöhringer und Kollegen vom Max-Planck-Institut für extraterrestrischePhysik in Garching mit XMM-New-ton die Zentralgalaxien von insge-samt drei Galaxienhaufen, um nachden cooling flows zu suchen. Diebesten Daten erhielten die Forscher
von dem etwa 50 Millionen Lichtjah-re entfernten Virgo-Galaxienhaufenund dessen Zentralgalaxie Messier 87 (kurz M 87). Sie zählt zu denmassereichsten bekannten Galaxien.
Auffällig an ihr ist ein gebündelter Gasstrahl, ein so genannter Jet, der
vom Zentrum ausgeht und über eineStrecke von etwa 5000 Lichtjahrenins All hinaus schießt.
Über elf Stunden lang mussten die Astronomen das Teleskop auf dieGalaxie ausrichten, bis sie ein exzel-lentes Spektrum hatten. In ihm fan-den sich die Signaturen unterschied-licher chemischer Elemente in Form
von Emissionslinien. Sie entstehen,wenn Stoffe sich in einer heißen undstrahlungsreichen Umgebung befin-den und darin selbst zum Leuchtenangeregt werden. Die Emissionsliniedes Eisens war besonders deutlichund diente den Astronomen gewis-sermaßen als Thermometer für das
Schwarze Löcher, Millionen bis Milliarden Mal massereicher als die Sonne,
befinden sich wahrscheinlich in den Zentren der meisten Galaxien. Eine Vielzahl
an wissenschaftlichen Daten haben die Astronomen mittlerweile über diese
Exoten im Universum gesammelt. Doch erst in jüngster Zeit wird immer deutlicher,
dass Schwarze Löcher eine wesentliche Rolle bei der Entwicklung der Galaxien
gespielt haben. Max-Planck-Forscher brachten mit Hilfe des europäischen Röntgen-
observatoriumsXMM-NEWTON mehr Licht in diese dunkle Seite des Universums.
Schwarze Löcherals galaktische
GasheizungM-Aufnahme des Gebietes um die Galaxie M 87.
mgebende Gas besitzt eine nahezu gleichförmige
eilung und ist deutlich heißer als zehn Millionen Grad.
F O T O : M P E / E S A
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 16/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 31
Unsichtbares UNIVERSU
30 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
HWER punkt
des Röntgenlichts, die ganz selektiv nur in den kühlen Bereichen auftritt.„Aber auch diese Möglichkeit schei-det unserer Meinung nach aus“, sagtHans Böhringer.
Unterstützt werden die Garchinger Astronomen von ihren Kollegen ausden USA. Sie haben mit ihrem Rönt-genteleskop Chandra sehr hoch auf-gelöste Bilder von der Umgebung der Galaxie M 87 erhalten und findenebenfalls keinerlei Hinweise auf große kühle Wolken. Lediglich in denZentralgebieten einiger Haufen las-sen sich kleinere Regionen mit etwaskühlerem Gas ausmachen. Sie sind
jedoch zehn- bis hundertmal mas-seärmer als es die Befürworter desCooling-flow-Modells voraussagen.
Wenn sich aber das eindeutig vor-handene heiße Gas nicht abkühlt,muss es konstant geheizt werden.Diese „Heizung“ muss überdies sehr
Gas im Zentrum des Virgo-Galaxien-haufens. Wenn das Modell der coo-ling flows stimmte, müsste es in der Umgebung von M 87 Regionen stark
verwirbelten Gases mit sehr unter-schiedlichen Temperaturen geben.Nichts davon war indes in den Spek-tren zu erkennen. Sie ließen sich ameinfachsten mit einer nahezu ein-heitlichen hohen Temperatur vonmehr als zehn Millionen Grad er-klären und sprechen eindeutig ge-gen das Cooling-flow-Modell. Umwirklich sicher zu gehen, überprüf-ten die Max-Planck-Wissenschaftler auch sehr spezielle Modelle, die ihreBeobachtungen im Rahmen des Coo-ling-flow-Modells erklären könnten,zum Beispiel eine starke Absorption
gleich mit der theoretischen Kühlratedes Gases zeigt, dass die Jets Energiegenau in der richtigen Größenord-nung liefern – ein überraschendes„Fine tuning“. Wie das funktioniert, könnte ein
selbst regulierender Mechanismuserklären. Hierbei nimmt man an,dass das intergalaktische Gas auf dasSchwerpunktzentrum, das SchwarzeLoch, zuströmt. Einen Teil dieses Ga-ses wird der dunkle Riese ver-schlucken, der andere Teil wird ent-lang der Magnetfelder in die Jets
eingeschossen. Je mehr Gas außen vorhanden ist, desto mehr Materieströmt auf das Schwarze Loch zuund umso mehr Energie liefern dieJets. Die ist gleichzeitig auch nötig,weil der Heizbedarf mit der Massedes umgebenden Gases steigt. Ist we-niger Gas vorhanden, bekommt dasSchwarze Loch auch weniger Nah-rung und heizt seine Umgebung
fein auf ihre Aufgabe abgestimmtsein: Ist sie zu stark, treibt sie das in-tergalaktische Gas aus den Zentrender Galaxienhaufen hinaus – wasnicht beobachtet wird. Ist sie zuschwach, kühlen sich die riesigenGasmassen über längere Zeit den-noch ab. Für die Garchinger Forscher kommt hier nur eine Möglichkeit inFrage: Schwarze Löcher in den Zen-tren aktiver Galaxien.
Die Astronomen sind sich heuteziemlich sicher, dass fast jede Gala-xie in ihrem Zentrum ein SchwarzesLoch birgt. Diese Gebilde können ei-nige Millionen bis Milliarden Malmassereicher sein als die Sonne. Um-geben sind sie von heißen Gasschei-ben, aus denen Materie langsam in
das zentrale Schwarze Loch hinein-strudelt und dort auf ewig ver-schwindet. Vermutlich rotieren diesekosmischen Mahlströme und verdril-len Magnetfeldlinien, die sich ent-lang ihrer Rotationsachsen – senk-recht zur Scheibenebene – ins Allwinden. Entlang dieser Feldlinienwerden laut Theorie elektrisch gela-dene Teilchen, vermutlich Elektronenund deren Antiteilchen (Positronen),in den Raum geschossen. Unterstütztwird dieses Szenario von Tübinger
Astronomen, die mit XMM-Newtonden Bereich in der unmittelbarenUmgebung eines Schwarzen Lochsstudiert haben.
JETS AGIEREN
ALS ENERGIETRÄGER
Diese Materiestrahlen (oder Jets)können sich bis zu eine MillionLichtjahre weit in den Raum er-strecken. Dort stoßen sie auf dasHaufengas und verwirbeln ingroßen, sich beständig ausdehnen-den Wolken. Die Jets stellen einenerheblichen Energiestrom dar. Es istsomit denkbar, dass die expandie-renden Gasblasen diese Energie zumTeil auf das intergalaktische Gasübertragen und es damit heizen. Die-se Art der Wechselwirkung konnten
Astronomen jetzt mit Chandra direktnachweisen.
Eugene Churazov vom Max-Planck-Institut für Astrophysik in
Garching entwickelt derzeit einComputermodell, um den Energie-eintrag der Jets in das heiße Gas zusimulieren. Eine einfache Abschät-zung der reinen Zahlen deutet aber bereits darauf hin, dass die Garchin-ger Forscher auf dem richtigen Wegsind. Der Jet von M 87 beispielsweiseliefert etwa doppelt so viel Energiewie alle Sterne unserer Milchstraßezusammen abstrahlen. Die Zentral-galaxien in den Perseus- und Hydra-
A-Galaxienhaufen sind sogar nochzehnmal energiereicher. Ein Ver-
Die XMM-Aufnahme zeigt eine Fülle aktiver
Galaxien und Quasare. Die Farben geben den Energie-
bereich an: Von Rot über Grün zu Blau nimmt die
Energie des abgestrahlten Röntgenlichts zu.
F O T O : M P E / E S A
et der Galaxie M 87, aufgenommen im
obereich, mit dem Weltraumteleskop Hubble
dem Röntgenteleskop Chandra (von oben).
F O T O S : N R A O / N A S A
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 17/59
Unsichtbares UNIVERSU
auch weniger auf. Dieser Mechanis-mus erklärt nicht nur die Heizungdes intergalaktischen Gases. Er hatauch zur Folge, dass die SchwarzenLöcher dadurch wachsen. M 87 bei-spielsweise sollte jährlich etwa Ma-terie in der Größenordnung einer hundertstel Sonnenmasse verschlin-gen. Über einen Zeitraum von zehnMilliarden Jahren ergäbe dies hun-dert Millionen Sonnenmassen. Den-noch kann dieser Vorgang nicht al-leinige Ursache für die Größe diesesSchwarzen Lochs sein, denn es be-sitzt etwa drei Milliarden Sonnen-massen.
DIE BELICHTUNGSZEIT
BETRÄGT 16 TAGE
Die Frage, wie sich diese kosmi-schen Riesen gebildet haben undwelche Rolle sie bei der Entstehungund Entwicklung der Galaxien ge-spielt haben, gehört zu den span-nendsten Kapiteln der heutigen
Astrophysik. Auch hierzu hat XMM-Newton bereits ganz wesentlich bei-
getragen. Als zu Beginn der sechziger Jahre raketengetragene Detektorenerstmals Röntgenstrahlung aus demUniversum empfingen, fiel bereits ei-ne diffuse Hintergrundstrahlung auf.Sie ließ sich keinen Einzelquellen zu-ordnen. Erst das deutsch-britischeRöntgenteleskop ROSAT brachte inden neunziger Jahren dank seiner wesentlich erhöhten Empfindlichkeitund Abbildungsschärfe Licht insDunkel: Demnach stammt rund Drei-
viertel dieses Strahlungsfelds vonweit entfernten aktiven Galaxien undQuasaren, also Galaxien, die – ähn-lich wie M 87 – ein Schwarzes Lochim Zentrum bergen. 16 Tage langmussten Astronomen das Teleskopfür diese Beobachtung auf ein be-stimmtes Himmelsareal ausrichten,um zu dieser Erkenntnis zu gelangen.Das ist sicher eine der am längstenbelichteten astronomischen Aufnah-men aller Zeiten.
Schon bald danach tauchte die Ver-mutung auf, dass es sich auch bei denrestlichen unidentifizierten Quellen
um aktive Galaxien handelt. Hinter-grund dieser Vermutung war ein neu-es Modell aktiver Galaxien, das sichaus anderen Beobachtungen ergebenhatte. Demnach sollten die Schwar-zen Löcher in den Galaxienzentrennicht nur von einer heißen Scheibe,sondern in größerer Entfernung auch
von einem Staubring umgeben sein.Der verdeckt dann den Blick auf dasZentrum, wenn man eine Galaxie zu-fällig von der Seite beobachtet. Aller-dings kann der Staub nur energiear-me Röntgenstrahlung verschlucken.Energiereichere sollte diesen Vorhangdurchdringen können.
ROSAT war für diesen Energiebe-reich nicht empfindlich, wohl aber XMM-Newton. Also richtete ein in-ternationales Team unter der Leitung
von Günther Hasinger, dem neuenDirektor am MPE, das Instrument auf dasselbe Gebiet aus wie zuvor RO-SAT. Das Ergebnis dieser rund 28-stündigen Belichtung war erstaun-lich. Das gesamte Bildfeld war über-sät mit Galaxien. Auf einer Fläche
32 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
HWER punkt
von einem viertel Quadratgrad, ent-sprechend der Vollmondfläche, zähl-ten die Astronomen etwa 500 Rönt-genquellen. Dank der Energieauflö-sung des am MPE entwickeltenRöntgen-CCD-Detektors ließ sich er-mitteln, dass wie erwartet etwa ein
Viertel aller Quellen nur im energie-reichen Röntgenlicht erkennbar sind.Unter diesen Quellen befinden sichweit entfernte Quasare und mit-einander kollidierende Galaxien,wie sich mit spektroskopischen Be-obachtungen im sichtbaren Lichtnachweisen ließ.
Damit ist klar: Der gesamte Rönt-genhintergrund stammt von aktivenGalaxien, von denen viele nur imenergiereichen Röntgenlicht nach-
weisbar sind. Rechnet man die mitXMM-Newton auf einer kleinenFläche gefundene Zahl an Objektenauf die gesamte Himmelssphärehoch, so kommt man zu einer Ge-samtzahl von rund hundert Millio-nen. Eine Überschlagsrechnung führtdamit zu der erstaunlichen Erkennt-nis, dass mindestens ein Fünftel aller Strahlung im gesamten Universum
von Schwarzen Löchern erzeugtwird. Von jenen Himmelskörpern al-so, die gerade dafür berühmt sind,
dass sie Licht verschlucken. Dieseneue Erkenntnis deutet schon darauf hin, dass Schwarze Löcher die Ent-wicklung des Universums maßgeb-lich beeinflusst haben müssen. Dochder aufgegriffene Faden lässt sichnoch weiter verfolgen. So fanden
Astronomen des Max-Planck-Insti-tuts für Astronomie in Heidelbergund Kollegen aus den USA den bis-lang am weitesten entfernten Quasar (siehe hierzu auch den Beitrag auf Seite 22ff. in diesem Heft). Er sandtedas heute von ihm empfangene Lichtzu einer Zeit aus, als das Universumerst etwa 700 Millionen Jahre alt war.
ASTRONOMEN BEOBACHTEN
„FRÜHGEBURTEN“
Die Forscher gehen davon aus, dassdie Mehrzahl der riesigen SchwarzenLöcher innerhalb der ersten MilliardeJahre nach dem Urknall bereitsexistiert hat. Und ein weiteres Ergeb-nis gibt zu denken: Man hat heraus-gefunden, dass die Schwarzen Löcher um so größer sind, je massereicher das sie umgebende Sternsystem ist.Es muss somit einen entwicklungs-geschichtlichen Zusammenhang zwi-schen Schwarzen Löchern und Gala-xien geben.
Alles deutet daher darauf hin,dass die Schwarzen Löcher nichtmehr länger nur als faszinierende,aber exotische Gebilde angesehenwerden dürfen. Vielmehr müssen siegemeinsam mit den Galaxien ent-standen sein. Es ist sogar denkbar,dass sie gewissermaßen als Konden-sationskeime der Galaxien fungierthaben. „Wir erleben derzeit tat-sächlich einen Paradigmenwechselin der Entwicklung der Galaxien.Offenbar haben die SchwarzenLöcher hierbei eine wesentlichgrößere Rolle gespielt als wir bis-lang vermutet haben“, resümiertGünther Hasinger.
Die weitere Forschung muss nundie Frage angehen, wie sich die
Schwarzen Löcher gebildet haben.Besaßen sie anfänglich nur etwazehn Sonnenmassen, wie es die heu-tigen Theorien erwarten lassen, undsind sie erst durch einen beständigenMateriestrom gewachsen? Oder gabes einen noch unbekannten Vorgang,der es ermöglicht hat, dass gleichSchwarze Löcher mit etwa einer Mil-lion Sonnenmassen entstehen konn-ten? Diese Fragen werden die Astro-physiker noch lange begleiten.
THOMAS BÜHRKE
XMM-NEWTON – EUROPAS
RÖNTGENOBSERVATORIUM
Im Dezember 1999 startete die Europä-ische Weltraumbehörde ESA ihren bislanggrößten Wissenschaftssatelliten: das elf
Meter lange und vier Tonnen schwere Rönt-genobservatorium XMM-Newton (X-rayMulti Mirror). Der Satellit ist mit drei parallel angeordneten,60 Zentimeter langen Teleskopen ausgestattet. Jedes von ihnenbesteht aus 58 ineinander geschachtelten und vergoldeten Röhrenmit Durchmessern von 70 bis 30 Zentimetern. Die Spiegelsystemeermöglichen es, mit drei verschiedenen Detektoren in derenBrennebenen gleichzeitig zu arbeiten: einer Kamera sowie zweiSpektrometern.Erstmals kamen bei XMM-Newton röntgenempfindliche Halbleiter-detektoren, Charge Coupled Devices (CCD), zum Einsatz – ent-wickelt und gebaut am Garchinger Max-Planck-Institut für extra-terrestrische Physik. Mit ihnen lässt sich die Energie der einfallen-den Röntgenphotonen feststellen. Damit ist es möglich, „Farbbil-
der“ im Röntgenbereich aufzunehmen.Die Spektrometer sind für die moderneAstrophysik unerlässliche Instrumente.In dem nach Wellenlängen zerlegtenRöntgenlicht finden sich „Fingerab-drücke“ einzelner chemischer Elemen-
te. Sie geben Aufschluss über wichtigephysikalische Größen wie Temperatur,Dichte, Bewegungszustand oder chemische Zusammensetzung derMaterie. Die Astronomen hoffen, mit XMM-Newton innerhalb vonzehn Jahren mehr als eine Million noch unbekannte Röntgenquellenzu entdecken und mehr als 30.000 Himmelskörper zu spektrosko-pieren.Deutschland war wesentlich an XMM-Newton beteiligt. Gebautwurde das 460 Millionen Mark teure High-Tech-Instrument unterder Leitung der Dornier Satellitensysteme (heute Astrium) in Fried-richshafen, die Firma Carl Zeiss war entscheidend am Bau derSpiegel beteiligt. Der empfindlichste Röntgendetektor in der Fokal-ebene wurde im Garchinger Max-Planck-Institut für extraterres-trische Physik entwickelt. THOMAS BÜHRKE
Aus den Zentren von Radiogalaxien und Quasaren hervorschießendeJets sind schon seit Jahrzehnten bekannt. Wie sie entstehen undauf welche Weise die Teilchen darin beschleunigt werden, ist abernoch weitgehend offen. Andrei Lobanov und Anton Zensus vomMax-Planck-Institut für Radioastronomie in Bonn haben kürzlich indem Jet des Quasars 3C273 eine wellenförmige Struktur entdeckt,die an die doppelt gewundene Helix der DNS erinnert – freilichauf ganz anderen Größenskalen von einigen hundert Lichtjahren.
Vermutlich entsteht dieses Phänomen dadurch, dass sich der Jetdurch ein umgebendes Gas hindurchbohrt, das ihn von außen zu-sammendrückt. Ähnlich wie in ei-nem Wasserstrahl bilden sich dannauch in dem Gasstrahl periodischeInstabilitäten. Mit einem theoreti-schen Modell gelang es den BonnerAstronomen, die innere Strukturdes Jets bis herunter zu Größen-ordnungen von wenigen hundert-stel Bogensekunden, entsprechendetwa 1000 Lichtjahren, zu er-klären. Gleichzeitig lieferte dasModell wichtige physikalischeGrößen. Demnach besitzt der Jetnur ein Viertel der Dichte des
umgebenden Gases. Das Helix-Muster bewegt sich mit etwa20 Prozent der Lichtgeschwindigkeit vom Zentrum der Galaxie fort.Damit macht das Modell Voraussagen, die sich mit zukünftigenBeobachtungen überprüfen lassen.Möglich wurden die Beobachtungen durch eine bisher einmaligeingesetzte Technik. Im Jahr 1997 hatten japanische Forscher einacht Meter großes Radioteleskop, genannt HALCA, in eine Erd-umlaufbahn geschossen. Damit ließ sich erstmals die auf der Erdeschon lange praktizierte Radiointerferometrie (Very Long BaselineInterferometry, VLBI) auf den Weltraum ausdehnen. Hierbei wird
ein Himmelskörper gleichzeitigvon mehreren weltweit verteiltenRadioteleskopen beobachtet.Anschließend kombinieren die For-scher die Daten in einem Spezial-rechner miteinander. Diese „Welt-raum-VLBI“ ermöglicht Beobach-tungen mit einer vierfach höherenAuflösung als mit erdgebundenenTeleskopen allein. Für die Untersu-chung des Jets von 3C273 warenzehn amerikanische Antennen sowiedas 100-m-Radioteleskop in Effels-berg im Einsatz. THOMAS BÜHRKE
DIE DOPPELHELIX IN 3C 273
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 33
M P I F Ü R R A D I O A S T R O N O M I E
F O T O : E S A
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 18/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 35
Unsichtbares UNIVERSU
34 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
HWER punkt
Kaum zu glauben: Nur mit einem Thermometer erforschen Physiker des
Münchener MAX-PLANCK-INSTITUTS FÜR PHYSIK (WERNER-HEISENBERG-
INSTITUT) die Dunkelheit des Weltalls. Im Gran-Sasso-Tunnel in den
italienischen Abruzzen haben sie einen tiefgekühlten Detektor installiert,
mit dem sie „exotische“, bislang nicht fassbare Teilchen nachweisen wollen.
Diese Teilchen könnten der Schlüssel sein, um einerseits den Aufbau des
Mikrokosmos und andererseits die Strukturen im Universum zu verstehen.
Blickt man in einer klaren Nachtzum Firmament, dann scheint
es, als seien die leuchtenden Sternedie einzigen materiellen Objekte ineinem grenzenlosen Weltall. Dochder Eindruck täuscht: Seit dendreißiger Jahren des 20. Jahrhun-derts mehren sich die Anzeichendafür, dass auch der dunkle Raum
von Materie erfüllt ist. Vermutlich verkörpert diese nicht leuchtende
Ein Hauch von Wärme verrät das
Unsichtbare
A L L E A B B I L D U N G E N : M P I F Ü R P H Y S I KMaterie sogar mehr als 90 Prozent
der Masse des Universums. Worausdie Dunkle Materie besteht, ist „einesder größten ungelösten Rätsel der
Astrophysik“, wie es Georg Raffelt vom Max-Planck-Institut für Physik formuliert.
Rund ein Dutzend Forschergrup-pen haben sich weltweit das Ziel ge-setzt, dieses Rätsel aufzuklären. DasMax-Planck-Institut für Physik hat
sich dafür mit der Technischen Uni- versität München, der Oxford Uni- versity sowie den „Laboratori Nazio-nali del Gran Sasso“ zusammenge-tan. In einer der Hallen des großenLaboratoriums, das die Italiener inden achtziger Jahren entlang desGran-Sasso-Autotunnels einrichte-ten, der L’Aquila mit Teramo verbin-det, haben die Wissenschaftler CRESST („Cryogenic Rare Event
Search with Superconducting Ther-mometers“) aufgebaut. Neben denriesigen Apparaten, die in der Hoch-energiephysik an Beschleunigernzum Nachweis von Teilchen dienen,nimmt sich dieser Detektor recht be-scheiden aus: Sein Kernstück bilden
vier würfelförmige Saphirkristalle,die auf Temperaturen nahe dem ab-soluten Nullpunkt abgekühlt sind.Damit wollen die CRESST-Physiker,
nicht minder ehrgeizig wie ihre Kol-legen an den Großbeschleunigern,exotische Teilchen nachweisen, diemöglicherweise das Rätsel der Dun-klen Materie lösen und zudem einefundamentale Rolle in der Elemen-tarteilchenphysik spielen.
Der Begriff „Dunkle Materie“ gehtauf eine Veröffentlichung von FritzZwicky aus dem Jahr 1933 zurück.Zwicky deutete damals weit entfern-
te „Nebelflecken“ im All treffend als Ansammlungen von Galaxien. Sei-nen Beobachtungen zufolge bewe-gen sich die einzelnen Galaxien in-nerhalb eines solchen „Haufens“ soschnell, dass sie eigentlich auseinan-der fliegen müssten, würden sienicht durch die Schwerkraft Dunkler Materie zusammengehalten. Mittler-weile wurden die astronomischenMessverfahren beträchtlich ausge-
3000 Meter hoch ist der Corno Grande, unter dem der Gran-Sasso-Tunnel verläuft.Das Massiv der Abruzzen bildet einen wirksamen Schild gegen kosmische Strahlen.
Oberirdisch liegen die Versorgungs- und Verwaltungsgebäude, die zu den Gran-Sasso-Laboratorien gehö
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 19/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 37
Unsichtbares UNIVERSU
gruppen, die den Halo unserer Gala-xis in Richtung der Großen Magel-lanschen Wolke durchmustert haben,zeigen fast unzweifelhaft, dass MA-CHOs nicht den Hauptanteil der Dunklen Materie der Milchstraßeausmachen können“, sagt Raffelt.
TROTZ MACHOS BLEIBT
DIE MASSENLÜCKE
Auch aus anderen Gründen sinddie Kosmologen davon überzeugt,dass MACHOs und andere Formen
von Materie, die aus gewöhnlichen –
wie Weiße Zwerge, Neutronensterneoder Schwarze Löcher, aber auchBraune Zwerge, deren Masse nichtausreicht, um die Fusion von Was-serstoff in Gang zu setzen. Sie wer-den unter dem Begriff „Massiveastrophysical compact halo objects“,kurz MACHOs, zusammengefasst.
MACHOs lassen sich nur mit-hilfe des „Gravitationslinsen“-Effektsnachweisen: Wenn sich in die Sicht-linie zwischen einem irdischen Be-obachter und einem weit entferntleuchtenden Stern ein MACHO
36 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
HWER punkt
hundertmal so groß ist wie die Dich-te der leuchtenden Materie.
Neuere Beobachtungen weit ent-fernter Supernovae lassen denSchluss zu, dass das Weltall im Laufeder Zeit immer schneller expandiert.Dies ließe sich damit erklären, dasses nicht nur von Dunkler Materie,sondern auch von Dunkler Energieerfüllt ist, die – im Gegensatz zur Materie – einen negativen Druck ausübt und das Weltall gleichsamauseinander treibt. In gängigen kos-mologischen Modellen tragen die
den Außenbereichen der Galaxien viel schneller bewegen als aufgrundder Massenverteilung der leuchten-den Sterne zu erwarten wäre. Die be-obachteten Geschwindigkeiten lassenden Schluss zu, dass Spiralgalaxien –unsere Milchstraße eingeschlossen –in einen riesigen Halo (einer Art Wol-ke) aus Dunkler Materie eingebettetsind.
In die gleiche Richtung weisenÜberlegungen von Kosmologen.Gemäß gängigen Theorien entstanddie Welt vor rund 15 Milliarden Jah-
weitet: Röntgenteleskope sehen, dassdie Galaxienhaufen von heißem Gaserfüllt sind, kalter Staub wird vonInfrarotkameras erkannt, und dieMasse der Sterne lässt sich aus ihrer Leuchtkraft abschätzen, wenn manihre Entfernung kennt. Und auch dieheutigen Messungen bekräftigen,dass die „dynamische“ Masse vonGalaxienhaufen deren gesamtenachweisbare Masse um ein Vielfa-ches übersteigt.
Unterstützung erhielt Zwickys The-se von der Existenz Dunkler Materie
ursprünglich erzeugte Dichte der Nu-kleonen schließen. Die Häufigkeitdieser Elemente, die zu ermittelnnicht ganz ohne Tücken ist, zeigt: Esgibt zwar weit mehr dunkle baryoni-sche Materie als leuchtende, dochgemeinsam stellen sie nur einenBruchteil der kritischen Massendich-te. Außerdem benötigen die Physiker unbekannte, exotische Materiefor-men auch, um die Ausbildung der im
Weltall beobachteten Strukturen –der Galaxien und Galaxienhaufen –zu erklären.
durch Vera Rubin und andere Astro-nomen, die in den siebziger Jahrenzahlreiche Spiralgalaxien durchmus-terten. Da sich die Wellenlängen desSternenlichts durch die Bewegungder Spiralarme verschieben (Doppler-effekt), konnten die Forscher aus der Messung bestimmter Spektralliniendie Rotationsgeschwindigkeit der Ga-laxien ableiten. Es stellte sich heraus,dass sich die Spiralarme vor allem in
ren in einer Art Urknall aus einempunktförmigen „Feuerball“ unddehnt sich seither aus. Heute ist un-ser Universum flach: Messungen der Mikrowellen-Hintergrundstrahlungbelegen, dass seine Raumgeometrieden Euklidischen Gesetzen folgt.Eine solche Geometrie entspricht ei-nem Weltall, in dem Materie undEnergie eine ganz bestimmte „kriti-sche“ Dichte besitzen, die mehr als
Dunkle Energie etwa 70 Prozent unddie Dunkle Materie etwa 30 Prozentzur kritischen Dichte des Universumsbei.
Offenbar steckt sehr viel Materieim Kosmos, die wir weder sehennoch nachweisen können. Astrono-men kennen eine Reihe von Objek-ten, die keine elektromagnetischeStrahlung aussenden und somit„dunkel“ sind: ausgebrannte Sterne
schiebt, dann lenkt er durch seineSchwerkraft die Lichtstrahlen desSterns so ab, dass zwei Bilder erzeugtwerden. Kurzfristig scheint sich da-durch die Helligkeit des Sterns zusteigern. Da dieser Vorgang extremselten auftritt, müssen für die Auf-zeichnung nur weniger „Gravitati-onslinsen“-Ereignisse Millionen vonSternen beobachtet werden. „DieMessungen mehrerer Forschungs-
das heißt aus Neutronen und Proto-nen aufgebauten – Atomen beste-hen, die Massenlücke nicht schließenkönnen. (Da Protonen und Neutro-nen in der Elementarteilchenphysik zur Klasse der Baryonen gehören,spricht man auch von „baryoni-scher“ Materie). Aus dem heutigen
Vorkommen der leichten Elemente Wasserstoff, Deuterium, Helium undLithium lässt sich nämlich auf die
Wann immer die Kosmologen insGrübeln kommen, treten Elementar-teilchenphysiker auf den Plan undbieten ihnen diverse Lösungsmög-lichkeiten an. Auch ihnen „fehlen“Teilchen – nicht, um Massenbilanzenauszugleichen, sondern um ihreTheorie vom Aufbau der Materie undder Wechselwirkung ihrer Bestand-teile zu vervollkommnen. Unter mehreren möglichen Kandidaten für
Der würfelförmige Saphirkristall – in einer Halterung aus Kupfer – vor dem Einbau in die Kühlbox.en zu sehen ist der aufgedampfte Wolframstreifen, mit dem die Temperaturänderung ausgelesen wird.
Der Kopf des Kryostaten mit den Anschlüssen für Gasversorgung, Elektronik und Vakuumerzeugu
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 20/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 39
ten Geschwindigkeiten von 200 bis300 Kilometer in der Sekunde undmüssten daher auch Laboratorien auf der Erde durchqueren. Um die be-obachtete Rotationsgeschwindigkeitder Sonne und anderer Sterne umdas galaktische Zentrum zu erklären,müsste ihre Dichte im Mittel etwa0,3 GeV pro Kubikzentimeter betra-gen. Das entspräche dann, je nach
WIMP-Masse, etwa 300 bis 15.000 WIMPs pro Kubikmeter.
Aber wie werden WIMPs fassbar?Grundsätzlich verraten sich alle Ele-
gewöhnlicher Materie: Sie geben ei-nem Atomkern, der ihnen im Wegsteht, einen ordentlichen „Schubs“ –und dieser Effekt lässt sich auf un-terschiedliche Weise messen.
Den Anstoß für die Entwicklungkryogenischer Detektoren gab LeoStodolsky, Direktor am Werner-Hei-senberg-Institut und heute Mitgliedder CRESST-Gruppe. Ursprünglichhatte er damit Neutrinos nachweisenwollen. Doch als Mitte der achtziger Jahre die Existenz Dunkler Materie
von den Astrophysikern „abgeseg-
dert einen großen technischen Auf-wand.
Zunächst muss der Detektor, der im Wesentlichen aus vier würfelför-migen Saphirkristallen – sie wiegen
jeweils 262 Gramm – besteht, auf 0,012 Kelvin abgekühlt werden, alsobis dicht über den absoluten Null-punkt. Jeder Kristallwürfel erhält alsThermometer einen Wolframstreifenaufgedampft, der bei 12 Millikelvinsupraleitend wird. Schon bei einer ganz geringen Erwärmung geht er indie normalleitende Phase über: Sein
Unsichtbares UNIVERSU
38 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
HWER punkt
den Dunklen Stoff erfreuen sich der-zeit so genannte Weakly InteractingMassive Particles, kurz WIMPs, be-sonderer Beliebtheit. Das sind, wieder Name schon sagt, relativ schwereTeilchen ohne elektrische Ladung,die nur sehr schwach mit Materie in
Wechselwirkung treten. Und der Na-me passt: Wimp hat in der amerika-nischen Umgangssprache die Bedeu-tung von „Schwächling, Feigling“.
WIMPs könnten zum einen dieastrophysikalisch ermittelte Lückezwischen dynamischer und nachweis-
mentarteilchenphysik durch Boten-teilchen übertragen. Sie wirken zwi-schen den eigentlichen Bausteinender Materie: den „Leptonen“ wie demElektron (plus seinen instabilen Fa-milienmitgliedern Myon und Tauon)und den „Quarks“, die zum BeispielProton und Neutron aufbauen. Diebei allen schwachen Prozessen auf-tretenden elektrisch neutralen Neu-trinos sind Partnerteilchen von Elek-tron, Myon und Tauon. WährendLeptonen und Quarks so genannte„Fermionen“ sind, das heißt, einen
mion. Das leichteste supersymmetri-sche Teilchen könnte das Neutralinosein. Es ist – so schätzen Theoretiker – etwa 20- bis 1000-mal so schwer wie das Wasserstoffatom und hatdemnach eine Masse zwischen 20GeV und 1000 GeV. (In der Teilchen-physik hat man sich angewöhnt,Energien und Massen, die nach Al-bert Einstein einander äquivalentsind, in Einheiten von Elektronen-
volt zu messen. Es ist die Energie, dieein Elektron nach Durchlaufen einesSpannungsgefälles von einem Volt
barer Masse schließen, zum anderendie Bildung von Strukturen nach demUrknall erklären. Teilchen mit genausolchen WIMP-Eigenschaften aber treten in den „SupersymmetrischenTheorien“ auf. Deren erklärtes Ziel istes, alle Naturkräfte – die Gravitation,die starke Kraft, die schwache und dieelektromagnetische Kraft – auf eineUrkraft zurückzuführen. Diese Kräftewerden im Standardmodell der Ele-
halbzahligen Spin (Eigendrehimpuls)besitzen, haben die Botenteilchen als„Bosonen“ einen ganzzahligen Spin.
Die oben genannte Vereinigungder Naturkräfte erfordert es, diese
Asymmetrie aufzuheben. Dies wirdin den Supersymmetrischen Theorienerreicht, indem das Spektrum der Elementarteilchen verdoppelt wird:Jedes Fermion erhält ein Boson als„Superpartner“, jedes Boson ein Fer-
hat, und entspricht 1,6 x 10-19 Watt-sekunden. Ein „GeV“ ist eine Milliar-de Elektronenvolt.)
WIMPS SIND
SCHWER ZU FASSEN
Neutralinos nachzuweisen solltenach Einschätzung der Physiker imBereich des Möglichen liegen. Denn
WIMPs durchfluten, wenn sie exis-tieren, unsere Galaxis mit vermute-
mentarteilchen nur über ihre Wech-selwirkung mit gewöhnlicher Mate-rie. Photonen und elektrisch gela-dene Teilchen wie Elektronen haben(bei ausreichender Energie) dieFähigkeit, Atome zu ionisieren, ih-nen also Elektronen zu entreißen.Neutronen treten über die starkeKraft mit Atomkernen in Wechsel-wirkung. WIMPs aber kennen nur ei-ne Form der Auseinandersetzung mit
net“ wurde, wandte man das Kon-zept auf den Nachweis von WIMPsan. Dahinter steckt die Vorstellung,dass WIMPs bei einem Zusammen-stoß einen Teil ihrer Energie aufden Atomkern übertragen. Dies führtdazu, dass sich der Kristall imKryodetektor geringfügig erwärmt,wenngleich nur um einige Mikro-kelvin. Temperaturerhöhungen dieser Größenordnung festzustellen erfor-
elektrischer Widerstand ändert sichsprunghaft. Diese Widerstandsände-rung wird mit so genannten SQUIDs(„Superconducting Quantum Interfe-rence Device“) ausgelesen, kleinenRingen aus supraleitendem Material,die an zwei Stellen von isolierenden,hauchdünnen Schichten unterbro-chen sind: Aufgrund quantenmecha-nischer Effekte spüren sie extremschwache Magnetfelder auf und
er Montage des Detektors in der Kühlbox ist viel Fingerspitzengefühl gefragt. Das dreigeschossige CRESST-Gebäude im Gran-Sasso-Tunnel. In der untersten Etage ist derDetektor aufgebaut, darüber befinden sich die Elektronik- und Kontrollräume.
Der CRESST-2-Detektor wird Krist
aus Kalziumwolframat verwenden,
die auf den Durchgang von
Teilchen nicht nur mit Erwär
mung, sondern auch mit Szintillier
reagieren. Da Kernrückstöße weitweniger Licht hervorrufen als Elek
tronrückstöße, können WIMPs dam
noch wesentlich besser von ionisie
renden Teilchen unterschieden we
den als mit dem jetzigen Aufbau.
So funktioniert das CRESST-Thermometer: Oben auf dem
Saphirkristall ist ein Wolframstreifen aufgedampft, dessen elektrischer
Widerstand sich schon bei einer kleinen Erwärmung stark ändert.
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 21/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 41
Erwärmung als auch Ionisation pro- vozieren können. CDMS ist im Prin-zip genauso empfindlich für WIMPswie DAMA. Die Amerikaner sehenzwar Signale, interpretieren sie aber als „Background“, hervorgerufendurch Neutronen, die von kosmi-schen Strahlen erzeugt wurden. Ge-genüber den europäischen Gruppen,die im Gran-Sasso-Tunnel experi-mentieren, haben die Forscher in denUSA den entscheidenden Nachteil,dass ihr Experiment nur zehn Meter tief unter der Erde liegt. Es könnte
diskutierten Massenbereich nur ein-geschränkt empfindlich.“
Klarheit können nur neue Experi-mente bringen, die noch besser
WIMPs und Störquellen voneinander unterscheiden. Deshalb arbeiten dieMünchner Physiker bereits an einemNachfolgemodell von CRESST. Dieentscheidende Neuerung wird in der
Verwendung eines szintillierenden Absorberkristalls aus Kalziumwolfra-mat bestehen. So soll nicht nur dieTemperaturerhöhung, sondern auchdas Licht gemessen werden, dasdurch den WIMP-Atomkern-Zusam-menprall hervorgerufen wird. Da beieinem Kernrückstoß achtmal weni-ger Licht erzeugt wird als bei einemElektronenrückstoß, können ionisie-
rende Teilchen aus der kosmischenStrahlung oder aus radioaktiven Ver-unreinigungen, die trotz aller Gegen-maßnahmen in den Kristall gelan-gen, noch wesentlich schärfer von
WIMPs getrennt werden.Der Messaufbau von CRESST-2
wird dem des Vorläufers im Wesent-lichen gleichen, das heißt, mittels
Wolframstreifen und SQUID soll dieminimale Temperaturerhöhung ge-messen werden, die auf den Durch-gang eines WIMPs folgt. Gleichzeitigwird das dabei entstehende Szintilla-tionslicht, das aus dem Kristall ent-weicht, mit Spiegeln gesammelt undauf einen zweiten Absorberkristallgelenkt. Dessen Erwärmung gibtdann Auskunft über die Menge deserzeugten Lichts. Das Verfahren wirdderzeit an einzelnen Kristallen getes-tet. CRESST-2 wird 30 so bestückteKalziumwolframat-Kristalle mit je-weils 300 Gramm, insgesamt alsoknapp zehn Kilogramm, enthalten.Die Kältebox des derzeitigen Auf-baus wurde von vornherein so kon-zipiert, dass sie diese Menge beher-bergen kann. Im Sommer 2002 wol-len die Physiker damit beginnen, denCRESST-2-Detektor im Gran-Sasso-Tunnel aufzubauen.
Primäres Ziel der CRESST-Gruppeist es, dem Rätsel der Dunklen Mate-rie auf die Spur zu kommen. Aber die Physiker blicken über ihr Fachge-biet hinaus. Sie planen, ihr bei der
Entwicklung von Kryodetektoren er-worbenes technisches Know-how inden Dienst anderer Wissenschaftenzu stellen. Ein potenzielles Wir-kungsfeld der Detektoren ist die Bio-logie. Stodolsky: „In der Genom-und Proteomforschung beobachtenwir, dass Probleme bei der Identifi-zierung der Bruchstücke großer Mo-leküle auftauchen.“
ASTROPHYSIKER
HELFEN BIOCHEMIKERN
Biomoleküle werden gewöhnlich inFlugzeit-Massenspektrometern iden-tifiziert. Sie werden zunächst auseiner „Matrix“ freigesetzt, durch einHochspannungsfeld beschleunigtund treffen dann auf einen Detektor.
Aus der Ankunftszeit lässt sich dieGeschwindigkeit der Moleküle unddaraus ihre Masse bestimmen.
Die derzeit verwendeten Detekto-ren, zum Beispiel Micro-Channel-Plates, weisen die Moleküle über de-ren Ionisationswirkung nach. Dieselässt aber mit steigender Masse, al-so langsameren Molekülen, immer mehr nach, wodurch das Verfahrenbei Makromolekülen wie DNA-Se-quenzen, Proteinen oder Polymerenrecht ineffizient wird. Kryodetekto-ren dagegen messen die Erwärmung,also die gesamte Energie, die durchden Aufprall eines solchen Molekülsentsteht. Der für die Messung vondunklen Teilchen entwickelte Detek-tor-Typ kann allerdings nicht ohneweiteres übernommen werden. Für den effektiven Nachweis großer Bio-moleküle wollen die Max-Planck-Physiker den Detektor an die räumli-chen und geometrischen Verhältnisseanpassen sowie hinsichtlich der Zählrate und Zeitauflösung optimie-ren. Dabei planen sie, auch mit der Industrie zusammenzuarbeiten.
Aufgrund ihrer Eigenschaft, schonsehr kleine Energien mit hoherGenauigkeit nachzuweisen, bietendie Kryodetektoren auch ein hohes
Anwendungspotenzial in der Rönt-genastronomie, das derzeit vonden großen WeltraumorganisationenNASA und ESA ausgelotet wird.
OLIVIA MEYER
Unsichtbares UNIVERSU
40 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
können kleinste Spannungs- undStromänderungen erfassen.
In jahrelanger Tüftelarbeit schaff-ten es die Physiker, mit dieser An-ordnung schon minimale Energiede-positionen von nur 500 Elektronen-
volt mit hoher Genauigkeit zu mes-sen. „Das Faszinierende dabei ist,dass ein einzelnes Elementarteilcheneine makroskopisch beobachtbare
Veränderung hervorruft“, meint Sto-dolsky.
Da der Nachweis von WIMPs nur indirekt erfolgt, ist bei der Auswer-
und in einem langen „Kühlfinger“ indie Kältebox übertragen. Der Aufbaubefindet sich in einem Reinraumhöchster Qualität. Schon ein Finger-abdruck gilt hier als mögliche Quelle
von Radioaktivität.
1400 METER FELS
ALS STRAHLENSCHUTZ
Auch kosmische Strahlen – ener-giereiche, zumeist elektrisch gela-dene Teilchen, die aus dem Weltallzur Erde gelangen – können dieMessergebnisse verfälschen. Sie sind
genaue Zahl, die wir als Grenze an-geben können, hängt von ihrer Mas-se und Wechselwirkungs-Stärke ab.“
Nun ist die CRESST-Gruppe, wieeingangs erwähnt, nicht die Einzige,die nach diesen Dunklen Teilchensucht. In einer Nachbarhalle imGran-Sasso-Laboratorium experi-mentieren Physiker seit einigen Jah-ren mit einem 100 Kilogrammschweren Detektor aus Natrium-Iodid. Dieses Material wird durch dieEnergieabgabe eines WIMPs zumLeuchten („Szintillieren“) angeregt.
HWER punkt
tung der Daten Vorsicht geboten.Denn auch der Durchgang anderer Partikel kann zur Erwärmung der Kristallwürfel und den daraus resul-tierenden Signalen führen. Störquel-len bilden zum Beispiel radioaktiveIsotope in der Umgebung. Die Kühl-box, in der sich die vier Kristalle be-finden, besteht daher aus Kupfer, dassich elektrolytisch sehr rein herstel-len lässt. Selbst die Schrauben sindaus Kupfer, weshalb bei der Montage
viel Fingerspitzengefühl gefragt ist. Als weiteren Schutz gegen Radioakti- vität umhüllen mehrere Blei- (insge-samt 24 Tonnen) und Kupferplatten(10 Tonnen) die Kältebox.
Die extrem tiefen Temperaturenwerden in einem Helium-3/Helium-4-Entmischungskryostaten erzeugt
zwar selbst interessante Forschungs-objekte der Teilchenphysiker, dochbei der Suche nach WIMPs störensie. Denn sie stoßen unter Umstän-den beim Gang durch den Kristalldie Elektronen der Atomhülle an,was dann ebenfalls zu einer gering-fügigen Erwärmung führt. ZumGlück bildet das Massiv der Abruz-zen, unter dem sich der Gran-Sasso-Tunnel in etwa 1400 Meter Tiefe be-findet, einen wirksamen natürlichenSchild gegen kosmische Strahlen.
Vor knapp zwei Jahren begann die Aufzeichnung der Daten, deren Aus-wertung zurzeit noch andauert.
„Wir können aber WIMPs oberhalbeiner Rate von mehreren Ereignissenpro Tag ausschließen“, erklärt der CRESST-Physiker Franz Pröbst. „Die
Im Frühjahr 2000 ließ die DAMA-Gruppe (für „Dark Matter“) verlau-ten, sie hätte überzeugende Indizienfür die Existenz von WIMPs im Be-reich von 44 bis 62 GeV. Ihre über mehrere Jahre gesammelten Datenweisen eine jahreszeitenabhängigeSchwankung auf, wie sie durch dieebenfalls jahreszeitlich bedingte Än-derung der Bewegung der Erde rela-tiv zur Galaxis, also zum WIMP-Fluss, erklärt werden könnte. Auf entschiedenen Widerspruch
stieß diese Interpretation der Datenbei der amerikanischen CDMS-Grup-pe („Cryogenic Dark Matter Search“).Diese hat in Stanford einen kryoge-nischen Detektor aus Germanium-und Silizium-Kristallen aufgebaut, indem durchgehende WIMPs sowohl
also sein, dass ein echtes WIMP-Er-eignis in der Flut kosmischer Strah-len untergeht. Vor kurzem legte auch die EDEL-
WEISS-Gruppe erste Ergebnisse vor.Ihr Detektor, der ähnlich wie CDMSarbeitet, steht im Fréjus-Tunnel 1700Meter unter der Erde. Auch ihre imJuli 2001 veröffentlichten Daten zei-gen kein WIMP-Signal. Sie schließen
vielmehr WIMPs im oberen Bereichder von DAMA angegebenen Massenmit hoher Wahrscheinlichkeit aus.„Wir können derzeit in die Diskussi-on zwischen den CDMS- und demDAMA-Experiment nicht eingreifen“,erklärt der Sprecher der CRESST-Gruppe, Wolfgang Seidel. Denn: „Der CRESST-Detektor ist in seiner gegen-wärtigen Form für WIMPs in dem
Auf den Spuren Dunkler Materie: die CRESST-Physiker
anz Pröbst, Wolfgang Seidel und Leo Stodolsky (von links).
Endmontage der Kältebox. Im Hintergrund
sind die Abschirmplatten zu sehen.
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 22/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 43
Unsichtbares UNIVERSU
Der Standort von GEO600 in
Ruthe bei Hannover. Nur eine unscheinbareHütte zeugt von der Hightech-Anlage.
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 43
HWER punkt
Kollisionen,die im Raum
Wellen schlagen
Theoretikern am MAX-PLANCK-INSTITUT FÜR GRAVITATIONSPHYSIK
(ALBERT-EINSTEIN-INSTITUT) in Golm bei Potsdam ist es gelungen, Form und
Intensität von Gravitationswellen zu berechnen, die zwei miteinander ve rschmelzend
Schwarze Löcher abstrahlen. Diese Ergebnisse sind von entscheidender Bedeutung
für den Erfolg des deutsch-britischen Gravitationswellen-Detektors GEO600 mit
Standort Hannover, der kürzlich seinen ersten Test bestanden hat. Mit ihm wollen
Physiker erstmals die von Einstein vorhergesagten Gravitationswellen nachweisen.
Ende Oktober schlugen im kleinen Ort Ruthe bei
Hannover die Herzen des Teams um Karsten Danz-mann vom Max-Planck-Institut für Quantenoptik höher.
Zum ersten Mal schickten die Physiker einen Laserstrahl
in ihren Gravitationswellendetektor. Mit Lichtgeschwin-
digkeit traf der Strahl zunächst auf ein optisches Ele-
ment, das ihn aufspaltete und in zwei senkrecht zueinan-
der stehende Richtungen umlenkte. Anschließend wur-
den die beiden Teilstrahlen an mehreren Spiegeln reflek-
tiert und in einem Punkt wieder zusammengeführt. Das
war alles. Vier Tage lang lief das Experiment unver-
ändert, ohne dass etwas passierte. Genau das
hatte das Team erhofft, denn es zeigte: F O T O S : M P I F Ü R
G R A V I T A T I O N S P H Y S I K
- B E N G E R
/ G E O 6 0 0
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 23/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 45
Unsichtbares UNIVERSU
44 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
HWER punkt
len breiten sich mit Lichtgeschwin-
digkeit im Raum aus. Wo sie auftau-
chen, wird der Raum für den Bruch-
teil einer Sekunde gestaucht und ge-
dehnt und nimmt dann wieder seine
ursprüngliche Form an. Diese kurz-
zeitige Raumverzerrung wollen die
Forscher mit Laser-Interferometern
wie GEO600 messen. Herz einer sol-
chen Anlage ist ein sehr stabiler,
leistungsstarker Laser. Dessen Strahl
wird an einem halb durchlässigen
Spiegel in zwei Strahlen aufgespal-
ten, die nach links und rechts von-
einander wegstreben. Am Ende der
beiden Laufstrecken hängt jeweils
ein Spiegel, der das Licht zurückre-
flektiert. Die beiden Strahlen gelan-
gen erneut auf den halb durchlässi-
gen Spiegel, der sie so umlenkt, dasssie in einem gemeinsamen Punkt zu-
sammentreffen und sich überlagern.
In diesem Punkt erzeugen die Strah-
len ein so genanntes Interferenzmus-
ter, dessen Helligkeit ein Instrument
misst.
WARTEN AUF
EIN KURZES FLIMMERN
So lange die Anordnung ungestört
ist, leuchtet das Interferenzmuster
unverändert. Rauscht aber eine Gra-
vitationswelle über sie hinweg, wird
der Raum in kurzem zeitlichen Ab-
stand in den beiden Armen des In-
terferometers gestaucht und gedehnt.
In diesem Moment durchlaufen die
beiden Laserstrahlen nicht mehr ei-
nen ebenen, sondern einen verboge-
nen Raum – so wie ein Schiff bei
Sturm über hohe Wellen kreuzen
muss. Das hat zur Folge, dass diese
Strahlen einen etwas längeren bezie-
hungsweise kürzeren Weg zurückle-
gen als zuvor. Und das äußert sich in
dem Interferenzmuster als kurzes
Flimmern.
Was sich im Prinzip einfach an-
hört, liegt an der Grenze des tech-
nisch Machbaren. Läuft der Laser-
strahl über eine Distanz von einem
Kilometer, so verändert eine Gravita-
tionswelle diese Strecke lediglich um
den milliardstel Teil eines Atom-
durchmessers, der seinerseits nur ei-
nen zehnmillionstel Millimeter misst.
Ein unglaubliches Unterfangen.
Doch jetzt wollen die Forscher damit
beginnen. Ein einzelner Gravitati-
onswellendetektor wäre jedoch noch
nicht aussagekräftig genug. Zum ei-
nen lässt sich mit ihm eine Quelle
am Himmel nicht lokalisieren. Zum
anderen wäre ein Flimmern im Inter-
ferenzmuster noch kein Beweis für
den Durchgang einer Gravitations-
welle. Es könnte auch Folge einer
Störung sein.
Aus diesem Grund entstehen der-
zeit neben GEO600 weltweit noch
weitere Instrumente dieser Art. Kurz
vor dem ersten Testlauf steht das
amerikanische LIGO mit zwei Anla-
gen jeweils in Hanford und Living-
ston (USA). Jedes dieser Interferome-
ter verfügt über vier Kilometer lange Arme. In der Nähe von Pisa entsteht
derzeit VIRGO mit drei Kilometer
langen Armen. Es wird erst in zwei
bis drei Jahren fertig sein. Schließ-
lich läuft bereits ein 300-Meter-In-
terferometer mit Namen TAMA im
japanischen Mitaka. Es ist jedoch
nicht empfindlich genug, um wirk-
lich astronomische Quellen nachwei-
sen zu können und dient vornehm-
lich dem Test neuer technischer
Komponenten.
GEO600 besitzt zwei jeweils 600
Meter lange, komplett evakuierte
Röhren und wird letztlich mit den
weltbesten optischen Komponenten
bestückt sein. Es wird gemeinsam
mit LIGO die Pionierarbeit leisten.
„Vom 28. Dezember an wollen wir
den ersten Koinzidenztest mit VIRGO
versuchen“, sagt Karsten Danzmann.
Etwa zwei Wochen lang sollen die
Anlagen dann laufen. So will man
erst einmal studieren, wie sie auf
Umwelteinflüsse – wie Sonnenaus-
brüche oder kosmische Strahlungs-
teilchen – reagieren. Die erzeugen
zwar keine Gravitationswellen, kön-
nen aber eventuell in beiden Anla-
gen die empfindliche Elektronik
stören und ein Gravitationssignal
vortäuschen. Außerdem wollen die
Physiker eine Vielzahl von Software-
Paketen testen, die nach unterschied-
lichen kosmischen Gravitationssig-
nalen suchen. ❿
GEO600 funktioniert. Was sich we-
nig spektakulär anhört, ist das Er-
gebnis jahrelanger Studien, neuer
Entwicklungen und aufwändiger Ex-
perimente (siehe auch M AXPLANCK
FORSCHUNG 3/1999, S. 14f.). Ziel der
Anstrengungen ist es, erstmals die
von Einstein vorausgesagten Gravi-
tationswellen zu messen.
Nach der Allgemeinen Relati-
vitätstheorie lässt sich die Schwer-
kraft einer Materieansammlung, wie
eines Sterns oder Planeten, als
Raumkrümmung beschreiben. Man
kann sich dies an einer Billardkugel
veranschaulichen, die auf einem
Gummituch liegt und es eindellt.
Gerät ein anderer Körper in diese
Mulde hinein, wird er scheinbar von
der Kugel angezogen und rollt auf sie zu. Bewegt sich nun ein Him-
melskörper beschleunigt, so strahlt
er Gravitationswellen ab: Die Raum-
krümmung dehnt sich wellenförmig
in alle Richtungen aus. Analog hieße
das, auf dem Gummituch würden
Wellen vom Ort der Kugel fortlaufen.
Einstein selbst glaubte nicht daran,
dass man „seine“ Gravitationswellen
je werde nachweisen können. Heute
ist der Traum in greifbare Nähe
gerückt, wenn auch nur für die ex-
tremsten Vorgänge im Universum.
Ein Zahlenbeispiel soll dies verdeut-
lichen: Die Erde strahlt bei ihrem
Umlauf um die Sonne Gravitations-
wellen mit einer Leistung von 200
Watt ab, Jupiter bringt es immerhin
schon auf 5300 Watt. Das sind je-
doch äußerst bescheidene Werte im
Vergleich zu den wahren Größen im
Universum. Zwei kompakte Neutro-
nensterne beispielsweise, die sich im
Abstand von hundert Kilometern mit
einer Periode von einer hundertstel
Sekunde umkreisen, erzeugen eine
Leistung von 1045 Watt. In dieser
Größenordnung liegt auch die in
Form von Gravitationswellen abge-
strahlte Leistung bei der Explosion
eines massereichen Sterns, einer Su-
pernova. Das sind die Ereignisse, auf
die es die Gravitationsphysiker abge-
sehen haben.
Der Nachweis funktioniert nach
folgendem Prinzip: Gravitationswel-
Computersimulationen am Max-Planck-Institut für Gravitationsphysik
zeigen die Schwingungsform einer Gravitationswelle, die beim Verschmel
von zwei Schwarzen Löchern mit zusammen zehn Sonnenmassen entsteht
Eine der 600 Meter langen Röhren. Sie sind gegen äu
Erschütterungen schwingungsgedämpft aufgehä
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 24/59
Unsichtbares UNIVERSU
merische Simulation für den Zusam-
menstoß und eine Näherungsmetho-
de aus der Störungstheorie zur Be-
rechnung der Strahlung, die das ent-
stehende Schwarze Loch abgibt.
Die Ergebnisse der Golmer For-
scher können ihren Kollegen bei
GEO600 Mut machen. Demnach sind
die Gravitationswellen nämlich deut-licher stärker als bislang vermutet.
Günstig ist auch der Frequenzbe-
reich. „Zwei Schwarze Löcher, die
zusammen 35-mal schwerer sind als
die Sonne, strahlen Gravitationswel-
len mit einer Frequenz zwischen 600
und 900 Hertz ab“, erklärt Bernd
Brügmann, ein Mitglied des Lazarus-
Teams. Dieses Frequenzband liegt
genau im Messbereich von GEO600
und den anderen Detektoren.
Zwar sind Zusammenstöße von
Schwarzen Löchern extrem selten.
Die Fachleute vermuten, dass sich
ein solches Ereignis in einer Galaxie
wie unserer Milchstraße nur etwa al-
le 100.000 Jahre einmal ereignet.
Aber es schlägt sprichwörtlich so ho-
he Wellen, dass es sich noch bis in
Entfernungen von mehreren hundert
Millionen Lichtjahren nachweisen
lässt. Da sich in diesem Umkreis um
die Erde sehr viele Galaxien befin-
den, rechnen die Astrophysiker da-
mit, alle zwei Jahre die Kollision von
zwei Schwarzen Löchern registrieren
zu können.
„Die Achse Golm-Hannover funk-
tioniert ganz hervorragend“, resü-
miert Danzmann. Und am 1. Januar
2002 wurden die Experimentatoren
und die Theoretiker auch verwal-
tungstechnisch zusammengeführt.
Dann hat das AEI offiziell zwei
Standorte in Golm und Hannover;
46 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
LIGO und GEO600 gehören der Li-
go Science Collaboration an, was be-
deutet, dass die Forscher von beiden
Anlagen stets auf alle Daten zugrei-
fen können. Später wird auch VIRGO
zu der Kollaboration gehören, und
alle vier Anlagen werden wie ein
globales Gravitationswellen-Obser-
vatorium behandelt. Erst wenn dieseGeräte etwa zur selben Zeit ein Sig-
nal registrieren, ist eine Gravitati-
onswelle als Auslöser wahrschein-
lich. Vier Instrumente haben darüber
hinaus den Vorteil, dass man mit ih-
nen auch grob feststellen kann, aus
welcher Richtung die Welle gekom-
men ist. Die Methode funktioniert
ähnlich wie die Landvermessung, bei
der man einen Punkt von verschie-
denen Orten aus anpeilt. Nach dem
Probelauf Anfang 2002 werden die
Daten ausgewertet und die vorläufi-
gen optischen Elemente in GEO600
gegen die endgültigen ausgetauscht.
Den regelmäßigen Beobachtungsbe-
trieb sollen die Anlagen in Deutsch-
land und den USA dann schließlich
gegen Ende 2002 aufnehmen.
Die astronomische Interpretation
der erhofften Messsignale wird ganz
wesentlich von der Qualität theoreti-
scher Modelle abhängen. In dieser
Hinsicht hat eine Gruppe junger
Physiker am Max-Planck-Institut für
Gravitationsphysik (Albert-Einstein-
Institut, AEI) in Golm bei Potsdam
bereits hervorragende Arbeit gelei-
stet. Das Lazarus-Team, wie sich die
Wissenschaftler nennen, hat die
Form und Intensität von Gravitati-
onswellen berechnet, die entstehen,
wenn zwei Schwarze Löcher mit-
einander verschmelzen. Ein solcher
Vorgang hat eine längere Vorge-
HWER punkt
schichte. Ausgangspunkt sind zwei
massereiche Sterne, die einander
umkreisen. Wenn sie ihren Brenn-
stoff verbraucht haben, sprengen sie
ihre äußeren Hüllen ins All ab und
erstrahlen als Supernova. Ihre Kern-
bereiche aber brechen zu Schwar-
zen Löchern zusammen. Diese um-
kreisen sich nach wie vor. Sie strah-len aber Gravitationswellen ab, wo-
durch sie Bewegungsenergie verlie-
ren und sich einander langsam
annähern. Schließlich berühren sie
sich und verschmelzen innerhalb
des Bruchteils einer Sekunde mit-
einander. Bei diesem kosmischen
Crash werden rund drei Prozent der
Masse der Schwarzen Löcher in
Energie von Gravitationswellen um-
gewandelt.
SCHWARZE LÖCHER
IM C OMPUTER
Obwohl dies das gewaltigste nur
denkbare Ereignis im Universum ist,
bleibt es gänzlich unsichtbar, denn
es werden weder Licht noch Radio-
wellen oder Röntgenwellen abge-
strahlt. Einzig Gravitationswellen
zeugen davon. Die Simulationen
sind daher unumgänglich, wenn
man von dem gemessenen Signal auf
die Natur der Quellen schließen
will. Früher simulierte Kollisionen
Schwarzer Löcher konnten jedoch
nicht den gesamten Verschmel-
zungsprozess zeigen. Es trat
grundsätzlich das Problem auf,
gleichzeitig die abgestrahlten Wellen
und das Innere des Schwarzen Lochs
zu modellieren. Den entscheidenden
Fortschritt erzielte das Potsdamer
Team, indem es zwei Methoden mit-
einander kombinierte: die volle nu-
bis dahin gehörte die Hannoveraner
Außenstelle offiziell zum Max-
Planck-Institut für Quantenoptik in
Garching bei München (vgl. Seite 109
dieser Ausgabe).
Neben verschmelzenden Schwar-
zen Löchern wollen die Forscher vor
allem noch zwei andere Arten von
Ereignissen nachweisen. Zum einenSupernovae. In einer Galaxie wie der
Milchstraße explodieren pro Jahr-
hundert etwa zwei oder drei „schwe-
re“ Sterne. Wenn man ein solches
Ereignis aber wie erhofft noch bis in
Entfernungen von einigen zehn Mil-
lionen Lichtjahren nachweisen kann,
so sollte man pro Jahr mehrere Er-
eignisse dieser Art registrieren. Noch
attraktiver sind möglicherweise ver-
schmelzende Neutronensterne. Das
sind sehr kompakte Sternüberreste
mit Durchmessern von etwa 20 Kilo-
metern, deren Materie so dicht ge-
packt ist, dass ein Teelöffel davonauf der Erde eine Milliarde Tonnen
wöge. Wenn sie sich umkreisen und
ähnlich wie die Schwarzen Löcher
miteinander verschmelzen, werden
ebenfalls sehr starke Gravitations-
wellen frei. Auch von diesen Ereig-
nissen könnte man vielleicht eines
pro Jahr registrieren.
Mit der Entdeckung von Gravitati-
onswellen würden die Astrophysiker
ein gänzlich neues Beobachtungs-
fenster zum Universum öffnen. „Dar-
über hinaus wäre der Nachweis auch
ein Meilenstein für Einsteins All-
gemeine Relativitätstheorie“, sagtBernard Schutz, Direktor am AEI
in Golm. Denn Gravitationswellen
gehören zu den wenigen von der
Relativitätstheorie vorhergesagten
Phänomen, die sich bislang nicht
nachweisen ließen. THOMAS BÜHRKE
Gravitationswellen rasen in dieser Computersimulation nach dem Zusammenprall zweier Schwarzer Löche
auf die Erde zu. Die Wellen entstehen nahe dem Zentrum der Kollision und breiten sich schalenartig aus.
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 25/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 49
Unsichtbares UNIVERSU
48 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
HWER punkt
Meter-Antenne des Max-Planck-In-stituts für Radioastronomie in Effels-berg nahe Bonn.
Dank erheblicher Fortschritte inder Beobachtungstechnik gewannendie Wissenschaftler in den vergange-nen Jahren immer feinere Einblickein kosmische Magnetfelder. Die Un-tersuchung von polarisierten (also ineiner bestimmten Ebene schwingen-den) Radiowellen und von Magnet-feldern sowohl in unserer Milch-straße als auch in anderen Galaxienist Schwerpunkt der Arbeitsgruppe„Radiokontinuum“ unter Richard
Wielebinski, Direktor am Max-Planck-Institut für Radioastronomie
in Bonn. Unsere kosmische Heimat,die Milchstraße, birgt etwa 200 Mil-liarden Sonnenmassen sichtbarer Materie; mehr als 95 Prozent davonführen die Astronomen auf Sternezurück, der Rest ist interstellare Ma-terie. Denn der Raum zwischen denSonnen ist angefüllt mit Wolken vonGas und Staub. Aus diesen Wolkenwerden noch heute Sterne geboren.
Am Ende ihres Lebens explodierenmassereiche Sterne als Supernovaeund schleudern dabei eine großeMenge ihres Materials in den inter-stellaren Raum zurück. Ein derartgewaltsamer „Tod“ setzt eine unvor-stellbar große Energie frei, die sich
Welche Rolle spielen Magnet-felder bei der Entwicklung
von Galaxien und Galaxienhaufen? Waren sie von Anfang an vorhandenoder sind sie erst im Lauf der Zeitentstanden? Welchen Einfluss habensie auf die Entstehung neuer Sterne?
Wie wirken die Stoßwellen explodie-render Sterne auf das Magnetfeld ih-rer Umgebung und der gesamtenMilchstraße? Antworten auf dieseFragen zu finden ist Sache der Ra-dioastronomie. Denn Magnetfelder lassen sich am besten mit Radio-teleskopen untersuchen, deren „Au-gen“ den langwelligen Bereich desSpektrums sehen, wie etwa die 100-
auf Gas und Staub überträgt und auf diese Weise chaotische turbulenteBewegungen im interstellaren Raumantreibt. Diese wiederum halten den„galaktischen Dynamo“ in Schwung,ohne den es keine Magnetfelder gäbe(MPG-SPIEGEL 2/1996, Seite 8 f.). Vor allem das Gas lässt sich mit
Radiowellen gut erfassen. Dabei ent-steht diese Strahlung auf zwei Arten:1. Durch freie Elektronen, die sich inder Umgebung junger Sterne imelektrischen Feld von Protonen be-wegen und dabei so genannte ther-mische Radiostrahlung aussenden.2. Durch hoch energetische Elektro-nen, die aus den Überresten explo-
Sie sind im wahrsten Sinn „All“-gegenwärtig: Ob bei
der Sonne oder dem Planeten Jupiter, ob bei Sternen,
in der Milchstraße oder in fernen Galaxien – überall im
Kosmos findet man Magnetfelder. Der folgende Bericht
fasst die neuesten Ergebnisse der ARBEITSGRUPPE
„RADIOKONTINUUM“ am Bonner MAX-PLANCK-
INSTITUT FÜR RADIOASTRONOMIE zusammen.
Radioaugen musternMagnetfelder
im Weltall
dierter Sterne herrühren und auf ih-rer Reise im interstellaren Magnetfeld„Synchrotronstrahlung“ aussenden.
Um neue Erkenntnisse über Mag-netfelder in unserem Milchstra-ßensystem (Galaxis) zu gewinnen,„scannen“ die Astronomen ausge-dehnte Himmelsbereiche bei ver-schiedenen Wellenlängen. SolcheKartierungen, so genannte Surveys,erlauben detaillierte Analysen der galaktischen Ebene. In der vom Ra-dioteleskop empfangenen Gesamt-strahlung steckt stets auch ein ge-wisser Anteil an polarisierter - ineiner Schwingungsebene ausgerich-teter - Strahlung. Dabei funktioniert
der stabförmige Dipol im Empfänger des Teleskops im Prinzip ähnlich wiedie Antenne eines Kofferradios: Nur
wenn sie exakt auf die jeweiligeSchwingungsrichtung der Radiowel-len zeigt, empfängt sie die polarisier-te Strahlung eines bestimmten Sen-ders; sonst hört man lediglich Rau-schen.
STRAHLUNG AUS
DER C YGNUS-REGION
Besonders deutlich sichtbar wirddas galaktische Gas in Richtung desSternbilds Schwan (lat. Cygnus). Hier beobachten die Astronomen sichüberlagernde Objekte in Richtungdes benachbarten Spiralarms, des„Orion-Arms“ der Milchstraße, waszu einer sehr komplexen Struktur der Radiostrahlung in diesem Bereichführt. Eine Darstellung der Cygnus-Region aus der Radiokartierungbei 11 Zentimeter Wellenlänge mitdem 100-Meter-Teleskop zeigt Abbil-dung 1. Diese Radiokarte ist übrigensdas Motiv einer der Wohlfahrts-marken zum Thema „Der Kosmos“aus dem Jahr 1999 (M AXPLANCK FOR-SCHUNG 2/2000, S. 64).
Erst vor kurzem wurde eine neueUntersuchung der Milchstraße inRichtung des Sternbilds Schwan ver-öffentlicht (A STRONOMY & A STRO-PHYSICS 371, 675, 2001). Sie ver-gleicht Radio- und Röntgenbeobach-tungen und zeigt ein kompliziertesBild aus vielen Blasen heißen Gases(„Bubbles“) sowie dazwischen lie-gendem, dichterem Material (Abb. 2).
Abb. 1: Ra diostrah lu ng aus der Ric htu ng des Stern bilds Sch wan (Cy gnus) bei 11 Zentimeter Wellenlänge. Abb. 2: Überlager ung von Radios trahlung bei 21 Zentimeter Wellenlänge(farbiges Bild) und Röntgenstrahlung (ROSAT, weiße Konturen).
A L L E A B B I L D U N G E N : M P I F Ü R
R A D I O A S T R O N O M I E
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 26/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 51
Unsichtbares UNIVERSU
50 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
HWER punkt
Arbeitsgruppe „Radiokontinuum“.Möglicherweise spielen Magnetfelder bei der Bildung der Spiralarme undder Entwicklung der Galaxien ins-gesamt eine wichtige Rolle (MPG-SPIEGEL 2/1996, S. 8 f.).
Auf den ersten Blick besteht zwi-schen den Beobachtungen von Mag-netfeldern in der Milchstraße undin anderen Galaxien eine Diskre-panz. In unserer Galaxis werden Tur-bulenzen ohne zusammenhängendegrößere Struktur sichtbar, währenddie polarisierte Radiostrahlung vonexternen Galaxien im Wesentlichengeordnet erscheint und den Verlauf der Spiralstruktur der Galaxien auf-zeigt. Dieser Widerspruch besteht je-doch nur scheinbar: Die Astronomen
führen ihn zum einen auf die unter-schiedliche räumliche Auflösung vongalaktischen und extragalaktischenMagnetfeldbeobachtungen zurück,zum anderen auf das unterschied-liche Erscheinungsbild in Abhängig-keit von der Wellenlänge (Faraday-Rotation). Denn bei den Kartierun-gen des Magnetfelds ausgedehnter Bereiche der galaktischen Ebene do-minieren die längeren Wellenlängen,bei denen der Faraday-Effekt sehr stark zuschlägt, bei den extragalakti-schen Messungen dagegen die kür-zeren Wellenlängen, mit denen auchdie räumliche Auflösung entspre-chend ansteigt.
Es ist davon auszugehen, dass bei-de Resultate miteinander vergleich-bar sind: Die Messungen der Magnet-feldstruktur von Spiralgalaxien wieNGC 6946 geben einen Eindruck da-
von, wie auch unsere Milchstraße ausgroßer Entfernung aussehen würde.Und die galaktischen Polarisations-messungen zeigen die Magnetfeld-struktur räumlich so detailliert, wiees für Galaxien in größerer Entfer-nung nicht erreicht werden kann.Erst beides zusammen liefert ein voll-ständiges Bild der Magnetfeldstruktur
von Galaxien - und beide Ansätzezur Untersuchung von Magnetfeldernin Galaxien werden in der „Kontinu-umsgruppe“ am Max-Planck-Institutfür Radioastronomie erfolgreich be-trieben. NORBERT JUNKES
xien am irdischen Firmament nur unter einem Winkel von wenigenBogenminuten. Da reicht selbst die
Winkelauflösung des 100-Meter-Ra-dioteleskops oft nicht mehr aus, umEinzelheiten in der Magnetfeldstruk-tur dieser Sternsysteme zu erfassen.
BLICK AUF
FERNE G ALAXIEN
Daher bedienen sich die Astrono-men des Max-Planck-Instituts für Radioastronomie eines Tricks: Siekombinieren Messungen mit der Ef-
40, 2001). Die Abbildung 4 zeigt diepolarisierte Radiostrahlung und die
Ausrichtung der Magnetfeldlinien indieser Galaxie bei 3,6 Zentimeter
Wellenlänge. Zu einem großen Teilfolgt die Orientierung der Magnet-feldlinien der optischen Spiralstruk-tur; das stärkste ausgerichtete Mag-netfeld liegt im Zwischenarmbereich.In der südöstlichen Region tritt aller-dings eine deutliche Abweichungauf: Hier „kreuzen“ die Magnetfeld-linien die optische Spiralstruktur.Die beobachtete Struktur des Mag-
Die polarisierte Radiostrahlungstammt von Supernova-Überrestenwie dem bekannten „Cygnus Loop“,aber auch von ausgedehnten Struk-turen nördlich und südlich dergalaktischen Ebene.
In Abbildung 3 geht der Blick des100-Meter-Radioteleskops in eineganz andere Richtung. Das darge-stellte Gebiet überdeckt die Region
wächst quadratisch mit der Wellen-länge. Daher gestatten erst Beobach-tungen bei kleineren Wellenlängen(und damit höheren Frequenzen)Rückschlüsse auf die ursprüngliche
Ausrichtung der Magnetfelder in un-serer Galaxis. Die „Sehtiefe“ für dieursprüngliche Polarisationsrichtungin der galaktischen Ebene ist bei
Wellenlängen von 21 oder 11 Zenti-
felsberger Antenne, welche die un-terliegende Struktur und die kom-plette Radiostrahlung erfasst, mitBeobachtungen mittels eines Ra-diointerferometers, wie beispielswei-se des VLA (Very Large Array) in So-corro im US-Bundesstaat New Mexi-co, das die Details in der Radiostrah-lung bei wesentlich höherer räum-licher Auflösung zeigt. Auf diese
Weise haben die Wissenschaftler dieMagnetfeldstrukturen vieler Radio-galaxien untersucht. Ergebnis dieser
Arbeiten ist der „Atlas of MagneticFields in Galaxies“. Als aktuelles Beispiel sei eine eben
erschienene Arbeit herausgegriffen, veröffentlicht von der Bonner Grup-pe gemeinsam mit Kollegen der Uni-
versität von Krakau. Sie betrifft NGC3627, eine wechselwirkende Galaxieim Leo-Triplett im Sternbild Löwe(A STRONOMY & A STROPHYSICS, Vol. 378,
netfelds in NGC 3627 erklären dieForscher durch die Überlagerungzweier Magnetfeldkomponenten –die eine das Ergebnis eines Dy-namos, die andere vermutlich dasResultat einer Wechselwirkung miteiner anderen Galaxie. Während dieeine Komponente dem optisch sicht-baren Gas und Staub folgt, „stellt“sich die andere vermutlich als Er-gebnis der Wechselwirkung „quer“. Wesentlich symmetrischer er-
scheint das Magnetfeld in der nahenSpiralgalaxie NGC 6946 (Abb. 5): DieOrientierung der Magnetfeldvektorenzeichnet sehr schön die Spiralstruk-tur nach. Allerdings verlaufen die„magnetischen Arme“ genau zwi-schen den optischen Spiralarmen.„Die Magnetfelder werden nicht ein-fach vom Gas mitgeschleppt, son-dern entfalten durchaus ihre eigeneDynamik“, sagt Rainer Beck von der
des galaktischen „Antizentrums“ bei21 Zentimeter Wellenlänge. Die Ge-samtintensität (Abb. 3, oben) zeigtgleichmäßig abfallende Emission mitzunehmender Breite, daneben aber nur wenige Schwankungen (Fluktua-tionen) auf großen Skalen. Das ent-spricht der Abnahme der turbulentenMagnetfeldstärke mit wachsendem
Abstand von der Milchstraßenebene.Die vielen Punktquellen stammen
von Objekten außerhalb der Galaxis- von fernen Quasaren und Radioga-laxien.
Ein völlig anderes Bild liefert die Verteilung der polarisierten Inten-
Abb. 3: Radiostrahlung bei 21 ZentimeterWellenlänge aus einem großen Gebiet imBereich des galaktischen Antizentrums(oben: gesamte Radiostrahlung, unten:polarisierter Anteil der Radiostrahlung).Das Bild zeigt einen Ausschnitt aus demEffelsberger „1,4 GHz Medium GalacticLatitude Survey“.
Abb. 4: Polarisierte Radiostrahlung derSpiralgalaxie NGC 3627 bei 3,6 ZentimeterWellenlänge.
sität (Abb. 3, unten). Hier brachtendie Messungen mit dem Effelsberger 100-Meter-Radioteleskop eine Über-raschung: Außer den polarisiertenEinzelquellen, wie zum Beispiel Su-pernova-Überresten, fanden die For-scher auch ausgedehnte Polarisati-onsmuster, die keine Übereinstim-mung mit der Gesamtintensität der Radiostrahlung zeigen und sicher nicht von Einzelquellen herrühren.
Was verbirgt sich dahinter?Bei der Interpretation der Polarisa-
tionsmessungen spielt die „Faraday-Drehung“ eine wesentliche Rolle: DiePolarisationsrichtung der Strahlungwird durch eine in der Sichtlinie lie-gende Wolke aus ionisiertem Gas ge-dreht, wobei das Ausmaß dieser
Drehung von physikalischen Eigen-schaften – wie Elektronendichte undMagnetfeldstärke – der Wolke ab-hängt. Laufen die Radiowellen durch
viele galaktische Wolken, werden dieSchwingungsrichtungen der Wellenunterschiedlich stark gedreht: Im Te-leskop kommt schließlich eine unge-ordnete Mischung an, die Schwin-gungsrichtungen sind chaotisch ver-teilt, die Wellen erscheinen durch dieÜberlagerung unpolarisiert und tre-ten somit als dunkle Bereiche in der polarisierten Intensität auf. „Wir er-warten aus den Daten neue Erkennt-nisse über die dreidimensionaleStruktur der galaktischen Magnetfel-der und über die Verteilung der in-terstellaren Materie in der Milch-straße“, sagt Wolfgang Reich von der
Arbeitsgruppe „Radiokontinuum“.Für die Beobachtung polarisierter
Radiostrahlung sind zwei Parameter entscheidend, nämlich Wellenlängeund Winkelauflösung, die miteinan-der gekoppelt sind und für ein gege-benes Radioteleskop in einem festen
Verhältnis stehen. Zum Beispiel kanndie 100-Meter-Antenne in Effelsbergbei einer Wellenlänge von 2,8 Zen-timetern noch Objekte im Abstand
von rund einer Bogenminute trennen– was ziemlich genau der „Sehschär-fe“ des menschlichen Auges, alsoseiner Auflösung für sichtbaresLicht, gleichkommt. Das Ausmaßder geschilderten Faraday-Drehung
metern vergleichsweise gering. Erstdeutlich unterhalb von 10 Zentime-ter Wellenlänge schauen die Astro-nomen tiefer in die Milchstraße hi-nein und erreichen bei 9 Millimeter
Wellenlänge ihren zentralen Bereichin etwa 25.000 Lichtjahre Entfer-nung.
Das macht die Kartierungen großer Gebiete in der Milchstraße sehr auf-wändig. Denn um ein und dieselbeFläche am Himmel zu „scannen“,bedarf es bei einer Halbierung der
Wellenlänge bereits der vierfachenMesszeit. Dieses Problem tritt nichtbei der Beobachtung extragalakti-scher Systeme und deren Magnetfel-der auf. Doch erscheinen ferne Gala-
Abb. 5: Polarisierte Radiostrahlung der Spiralgalaxie NGC 6946 bei 6 Zentimeter Wellen-länge (rechts: gesamte Radiostrahlung, links: polarisierter Anteil der Radiostrahlung).
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 27/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 53
UnsichtbaresUNIVERSU
52 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
HWER punkt
„A ls ich zur Schule ging, lernte ich, das Weltall
wäre zwei Milliarden Jahre alt“, sagte mein
Freund Hans-Ludwig und schaute mich spöttisch an. „Vor
zwanzig Jahren hast du mir erklärt, es wäre 20 MilliardenJahre alt. Gestern las ich, die Astronomen wären jetzt
überzeugt, dass es 12 Milliarden Jahre alt ist. Seid ihr in
eurem Geschäft zwischendurch auch manchmal sorg-
fältig?” Noch ehe ich antworten konnte, fuhr er fort:
„Da stand auch, im Weltall gäbe es wahrscheinlich zehn-
mal mehr Materie als ihr bis vor kurzem geglaubt habt.
Da betreibt ihr seit Jahrtausenden Astronomie, seit mehr
als 100 Jahren Astrophysik und du wurdest nahezu ein
halbes Jahrhundert lang dafür bezahlt: Kannst du mir
erklären, wieso ihr in eurem Weltall fast alles übersehen
habt?“
Im Grunde hatte er Recht. Unsere Vorstellungen vom
Weltall als Ganzem haben sich in den vergangenen 50
Jahren gewaltig verändert. Glücklicherweise gibt es in der
Astronomie auch Erkenntnisse, die ein für allemal richtig
sind. Die Himmelskörper bewegen sich so, wie die Astro-
nomen vorausberechnen. Unsere Vorstellungen vom in-
neren Aufbau der Sterne, vor allem der Sonne, scheinen
im Großen und Ganzen richtig zu sein. Mehr noch, die
Sonne hat uns erst kürzlich auf die Spur gebracht, eine
bis dahin unbekannte Eigenschaft eines Elementarteil-
chens, des Neutrinos, zu entdecken. Die Schwierigkeiten
beginnen erst, wenn wir Objekte in großer Entfernung be-
trachten. Es war noch recht unproblematisch, als die
Größe der Erde im 17. Jahrhundert zum ersten Mal ge-
nauer bestimmt wurde. Unser Milchstraßensystem, die
Galaxis, hat der amerikanische Astronom Harlow Shapley
erst in der Zeit des Ersten Weltkrieges richtig ausgelotet.
Dabei haben wir gelernt, dass wir nicht in der Mitte der
mit Milliarden von Sternen ausgefüllten galaktischen
Scheibe stehen, die uns das Band der Milchstraße an den
Himmel projiziert. Stattdessen kreisen wir mit der Sonne
weit draußen, Zehntausende von Lichtjahren von der Mit-
te entfernt, um das Zentrum. Um unseren Abstand von
dort zu erhalten, muss man den Durchmesser der Erde mit
einer 13stelligen Zahl multiplizieren. Diese unvorstellbar
weite Entfernung mussten die Astronomen in den letzten
90 Jahren nicht merklich korrigieren.
Wer das Weltall über große Entfernungen hin vermessen
will, muss nach Objekten Ausschau halten, deren Strah-lungsleistungen bekannt sind. Das sind zum Beispiel be-
stimmte Arten von Sternen, deren Helligkeit rhythmisch
schwankt und deren Rhythmus uns ihre Strahlungsleis-
tung verrät. Die Helligkeit, mit der wir sie am Himmel se-
hen, lässt uns dann ihre Entfernung berechnen. Diese
Sterne sind kosmische Standardkerzen, aber nicht die ein-
zigen. Eine spezielle Art von Art von Supernovae, das sind
explodierende Sterne, erreichen bei ihrem Ausbruch eine
ganz bestimmte maximale Strahlungsleistung. Deshalb
dienen sie gleichfalls als Standardkerzen. Aber auch diese
Art der Entfernungsbestimmung ist nicht ohne Probleme.
Nicht nur der große Abstand lässt ferne Sterne schwächer
erscheinen, das Licht der Standardkerzen kann auch durch
Staubschleier, die es auf dem Weg zu uns durchqueren
muss, geschwächt werden. Das macht die Entfernungs-
messung mit Hilfe von Standardkerzen unsicher. Je weiter
wir in das Weltall vordringen, umso schwieriger wird die
Entfernungsbestimmung und damit auch die Berechnung
der seit dem Urknall vergangenen Zeit.
Kosmologieund ihre
Quintessenz
Die Welt im Großen und Ganzen zu beschreiben, ist Gegen-
stand der Kosmologie. In den vergangenen Jahrzehnten wurden
immer neue Theorien über die Geschichte und den Bau des
Universums entworfen. Dennoch knirscht es noch erheblich im
Weltgebäude der Kosmologen – und deshalb plädiert RUDOLF
KIPPENHAHN mit einem Augenzwinkern für einen „kosmolo-
gischen Faktor“ bei der Einrichtung entsprechender Planstellen.
Materie, die keiner sie
„Und dabei überseht ihr gelegentlich auch mal den
größten Teil der das Weltall ausfüllenden Materie?“ Hans-
Ludwig war unerbittlich. Also erklärte ich ihm, wie es da-
zu kam. Als die Astronomen die Entfernungen und die
Geschwindigkeiten der Sterne unserer Galaxis genauer
bestimmen konnten, stellte der holländische Astronom
Jan Hendrik Oort schon in den frühen 30er Jahren des
20. Jahrhunderts fest, dass unser Milchstraßensystem sei-
ne Sterne mit einer viel stärkeren Schwerkraft an sich
bindet, als man von der Anziehungskraft der sichtbaren
Materie erwarten sollte. Auch in den Ansammlungen von
fernen Sternsystemen, in den Galaxienhaufen, scheint es
nicht ganz geheuer zu sein: Schon Alexander von Hum-
boldt hat die Ansammlung von Galaxien im Sternbild
Welteninseln am Horizont: Der Haufen
ell 902 mit den diffusen, bläulich schim-
mernden Galaxien bewegt sich – wegen
der Expansion des Universums – mit etwa
15 Prozent der LIchtgeschwindigkeit von
uns weg, also mit 47.000 Kilometer pro
Sekunde. Einige „Sterne“ auf dem Bildrscheinen auffällig rot; das sind Galaxien,
die zu einem weiter entfernten, bisher
noch unbekannten Haufen gehören.
F O T O S : M P I F Ü R
A S T R O N O M I E
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 28/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 55
UnsichtbaresUNIVERSU
54 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
HWER punkt
Virgo in seinem 1850 erschienenen „Kosmos“ erwähnt.
Im Virgo-Haufen bewegen sich Sternsysteme wie in ei-
nem Mückenschwarm umeinander und werden, wenn sie
sich zu weit vom Zentrum entfernen, von der gemeinsa-
men Schwerkraft wieder in den Schwarm zurückgezogen.
Der in den USA arbeitende Schweizer Astronom Fritz
Zwicky bemerkte in den 30er Jahren des vergangenen
Jahrhunderts, dass diese Schwerkraft sehr viel stärker sein
muss, als die sichtbare Materie der Sternsysteme im Vir-
go-Haufen erwarten lässt. Es muss auch dort unsichtbare,
aber Schwerkraft ausübende Materie geben.
Wir können es auch an der Bewegung der Sterne im
äußeren Bereich unserer Galaxis deutlich sehen: Sie
umkreisen das Zentrum der Scheibe so schnell, dass sie
eigentlich in den Raum hinausgeschleudert werden müss-
ten. Die Schwerkraft der sichtbaren Materie, also die An-
ziehungskraft der Sterne, der Gas- und Staubwolken,
würde nicht ausreichen, sie festzuhalten. Woher kommtdie zusätzliche Schwerkraft? Sie rührt von Materie her,
die wir nicht sehen, die aber Schwerkraft ausübt. Die
Astronomen nennen sie Dunkle Materie. Von diesem rät-
selhaften Stoff muss es sehr viel mehr geben als von der
sichtbaren Materie! Diese Geistermaterie ist aber nicht ir-
gendwo in den Fernen des Weltalls verborgen, wir haben
sie direkt vor der Haustür, denn sie beeinflusst auch die
Bewegung der Sterne der Milchstraße. Wir nehmen sie
aber hier an Ort und Stelle nicht direkt wahr, weil sie in
unserer unmittelbaren Umgebung recht gleichförmig ver-
teilt ist und ihre Schwerkraft uns gleichzeitig nach allen
Richtungen zieht, so dass sich hier ihre Wirkung aufhebt.
Zum Zentrum des Milchstraßensystems hin ist sie aber
dichter, deshalb macht sich ihre Schwerkraft in der Bewe-
gung der Sterne in den Außenbereichen der Milchstraße
bemerkbar.
keiten legen nahe, dass die Expansion des Weltalls früher
langsamer war als heute. Die Schwerkraft der sichtbaren
und der Dunklen Materie sollte die Expansionsbewegung
des Weltalls bremsen, stattdessen beobachten wir, dass sie
beschleunigt wird. Es muss also etwas geben, was über
weite Distanzen die Galaxien auseinander treibt, obwohl
sie sich über kleinere Distanzen hinweg gegenseitig an-
ziehen. Also existiert anscheinend noch ein Stoff, der
nicht anzieht, sondern abstößt. Diesen nennen die Astro-
nomen Dunkle Energie.“
„Wunderbar“, sagte mein Freund, „da habe ich gelernt,
dass Masse gleich Energie ist, und jetzt willst du mir
weismachen, dass Dunkle Materie anzieht und Dunkle
Energie abstößt. Heißt das: Masse = Energie gilt nur im
Lichte, doch im Dunkeln gilt das nicht?“
„Die Bezeichnung ,Dunkle Energie‘ ist schlecht gewählt.
Manche Wissenschaftler nennen die Materie mit Ab-
stoßungskraft stattdessen Quintessenz, in Anlehnung andie vier Elemente, aus denen in der Vorstellung der alten
Griechen die Welt besteht. Der abstoßend wirkende neue
Weltstoff ist dann das fünfte Element“, antwortete ich.
„... denn da, wo die Begriffe fehlen, da stellt ein Wort
zur rechten Zeit sich ein.“ Er hat immer ein passendes
Zitat bei der Hand.
Wir unterhielten uns noch weiter darüber, warum die
Kosmologie, die Wissenschaft vom Weltall als Ganzem,
immer wieder so starken Wechseln unterworfen ist: Die
Physik versucht, die Gesetze zu verstehen, der die Be-
standteile der Welt gehorchen, seien es Atome, Steine
oder Sterne. Die Kosmologie dagegen hat sich zum Ziel
gesetzt, die Regeln zu ergründen, denen das Weltall als
Ganzes unterworfen ist. Diese Regeln zu finden ist un-
gleich schwieriger. Wir können nicht mit dem Weltall
herumexperimentieren wie mit Atomen. Zwar können wir
auch keine Experimente mit Sternen machen, doch gibt
es in der Natur die verschiedensten Exemplare: Rote Rie-
sen, Weiße Zwerge, junge Sterne, alte Sterne. Wenn wir
sie miteinander vergleichen, erfahren wir etwas über Ge-
setze, denen sie unterworfen sind.
Wir kennen aber nur ein einziges Weltall, dessen Ge-
schehen vor unseren Augen abläuft. Wir können die Zeit
nicht zurückdrehen, wir können das Geschehen nicht
noch einmal mit veränderten Anfangsbedingungen ab-
spulen lassen. Wir können das Weltall nicht mit anderen
vergleichen. So muss der Kosmologe versuchen, die Re-
geln der uns bekannten Physik auf das gesamte Weltall
anzuwenden und prüfen, ob er damit beobachtbare Er-
scheinungen erklären kann. Deshalb ist die Kosmologie
ein besonders schwieriger Teil der Physik.
In unserem Gespräch fanden wir es schon überra-
schend, dass die Astronomen von all der Materie im Welt-
all bis vor kurzem nur die Spitze des berühmten Eisbergs
kannten und dass sie auch heute nicht die leiseste Ah-
nung haben, was die Dunkle Materie eigentlich ist. Sind
es nichtleuchtende planetenartige Körper? Sind es durch
den Raum fliegende Elementarteilchen? Und was, um
Gottes willen, ist die Dunkle Energie?
Wenn wir jetzt gemerkt haben, dass es in der Welt etwa
zehnmal so viel Materie gibt, als wir bisher annahmen,
gibt es für die Astronomen dann nicht zehnmal mehr zu
tun? Sollten die Direktoren der astronomischen Max-
Planck-Institute ihren Präsidenten nicht vielleicht bitten,
ihnen deshalb auch zehnmal mehr Planstellen zu be-
willigen? Die Kollegen der anderen Institute würden das
sicher einsehen.
... aber das hat mein Freund Hans-Ludwig gesagt.
bstoßende Stoff, den keiner kennt
Fast schien es, als ob ich meinen Freund beruhigt hätte.
„Wie sagt Bert Brecht?“, fragte er, „Heißt es nicht, ... und
die einen sind im Dunkeln und die andern sind im Licht,
und man siehet die im Lichte, die im Dunkeln sieht man
nicht.“ Also habt ihr jetzt Materie, die ihr nicht sehen
könnt und von der ihr nichts weiter wisst, als dass sie die
Sterne anzieht.” Ich merkte an seinem Ton, dass ein neuer
Angriff folgen würde. „Aber wenn ich es richtig gelesen
habe, dann habt ihr jetzt plötzlich auch noch andere
Materie, die ihr auch nicht seht, die aber nicht anzieht,
sondern abstößt – eine saubere Wissenschaft!“
„Das merken wir, wenn wir sehr entfernte Galaxien be-
obachten“, fuhr ich fort, „weil sich das Licht zwar mit un-
vorstellbarer, aber doch endlicher Geschwindigkeit durch
den Raum bewegt, sehen wir die fernsten Sternsysteme
so, wie sie vor Milliarden Jahren waren und wie sie sich
damals bewegten. Die Messungen ihrer Geschwindig- F O T O : H U B B L E H E R I T A G E T E A M
Wenn massereiche stellare Gasbälle am
Ende ihres Lebens explodieren, sehen wir
am Firmament als „neue“ Sterne aufblitzeSolche Supernovae wie SN 1987 A (das
rote Gebilde in der Mitte des Fotos) diene
den Astronomen als „Standardkerzen“, um
Entfernungen im Weltall zu bestimmen.
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 29/59
SZINATION Forschung
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 57
Biologische KYBERNET
56 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
Patient im Innern
eines Tomographen.
Der Rettungswagen erreicht mitBlaulicht das Krankenhaus.
Jetzt muss alles sehr schnell gehen.Der Patient wird mit Symptomen für Schlaganfall eingewiesen. Innerhalbkürzester Zeit müssen die Ärzte eineDiagnose stellen. Eine der drin-gendsten Fragen: Welche Teile desGehirns sind von der Mangeldurch-blutung oder der Blutung geschädigtworden? Anhand dieses Befundswerden erste Rehabilitationsmaß-nahmen eingeleitet. Für die Diagnosesteht den Ärzten heute an einer wachsenden Zahl von Krankenhäu-sern die fMRT, die „funktionelleMagnet-Resonanz-Tomographie“, zur
Verfügung. Innerhalb weniger Minu-ten liefert sie den Medizinern Infor-mationen darüber, ob der Patient ei-
nen Schlaganfall erlitten hat undwelche Hirnregion betroffen ist.
Die Möglichkeiten der fMRT kön-nen gar nicht hoch genug einge-schätzt werden: Je schneller die Ärz-te reagieren, umso größer ist der An-teil des Gehirns, den sie retten kön-nen. Der Schlaganfall ist nach Herz-Kreislauf-Erkrankungen und Krebsdie dritthäufigste Todesursache inden westlichen Industrieländern. ProJahr erleiden in Deutschland schät-zungsweise 250.000 Menschen einenSchlaganfall. Etwa zehn Prozent der Betroffenen sind jünger als 40 Jahre.
Was noch viel schwerer wiegt: Der Schlaganfall ist eine der Hauptursa-chen für ernsthafte Behinderungen;in Deutschland leidet jeder vierte Be-hinderte an den Folgen eines Schlag-anfalls. Mehr als eine Million Men-schen, die einen Schlaganfall über-lebt haben, sind berufsunfähig oder nicht mehr in der Lage, sich selbst zu
versorgen.Der große Vorteil der fMRT liegt
darin, dass sie keine größeren Ein-griffe in den Organismus erfordert.Die Mediziner sprechen deshalb
von einer nicht-invasiven Methode.Elektromagnetische Wellen wirkenhierbei auf den menschlichen Körper ein. Obwohl das von fMRT-Gerätenerzeugte Magnetfeld eine sehr hoheFeldstärke aufweist – es ist etwa eineMillion mal so groß wie das natür-liche Magnetfeld der Erde – können
Entwicklung der Magnet-Resonanz-
mographie (MRT) ist eine Erfolgsge-
ichte der Grundlagenforschung. Aus
medizinischen Diagnostik ist die MRT heute nicht mehr wegzudenken. Aber diese Forschung
Zeit gebraucht – mehr als ein halbes Jahrhundert ist vergangen, seit Physiker ihre e rsten
tersuchungen zur so genannten Kernspinresonanz starteten. Mit einem neuen metho-
chen Ansatz ist es NIKOS K. LOGOTHETIS und
nen Mitarbeitern vom MAX-PLANCK-INSTITUT
R BIOLOGISCHE KYBERNETIK in Tübingen
ungen, das Verständnis für die Grundlagen
funktionellen MRT maßgeblich zu
weitern und damit die kognitive
urobiologie voranzutreiben.
In die Röhre geguckt
F O T O : O K A P I A ,
M Ü N C H E N
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 30/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 59
Biologische KYBERNET
58 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
SZINATION Forschung
Schädigungen nach dem derzeitigenKenntnisstand ausgeschlossen wer-den. Das physikalische Phänomen,das der fMRT zu Grunde liegt, ist dieso genannte Kernspinresonanz. Der
Weg zu ihrer Entdeckung ist vonzahlreichen Nobelpreisen begleitet,und er beginnt bereits in der erstenHälfte des 20. Jahrhunderts mit der Beschreibung der Eigenschaften von
Atomen: Planck, Rutherford, Bohr,Schrödinger und Heisenberg sind dieNamen der Physiker, die das Atom-
der Atomkern aus zwei Arten vonPartikeln besteht: positiv geladenenProtonen und ungeladenen Neutro-nen. Um den Kern herum bewegensich die negativ geladenen Elektro-nen. Alle diese Partikel besitzen ei-nen „Spin“ oder Eigendrehimpuls,das heißt, sie drehen sich wie einkleiner Kreisel um ihre eigene Achseund erzeugen dabei ein magneti-sches Moment. Ohne ein äußeresMagnetfeld sind die Drehachsenwillkürlich verteilt, so dass sich die
Magnetisierung gegen-seitig ausgleicht. Bringtman einen Atomkern je-doch in ein äußeresMagnetfeld, so richtetsich das magnetischeMoment des Kerns in
diesem Feld aus – wiedas Dipolmoment eineskleinen Stabmagnetenmit Nord- und Südpol.Die Ausrichtung kannparallel oder antiparallelzum äußeren magneti-schen Feld erfolgen,wobei die parallele Aus-richtung mit einemniedrigen, die antiparal-lele mit einem höherenEnergieniveau einher-geht.
Rabi und seine Mitar-beiter wollen jene Be-dingungen finden, unter denen es möglich ist,das magnetische Mo-ment eines Atomkernsund somit seine Aus-richtung umzukehren.Es gelingt ihnen Endeder dreißiger Jahre, in-dem sie einen Strahl
von Lithiumchlorid-Molekülen durchein magnetisches Feld schicken unddabei Radiowellen aussetzen. Bei ei-ner bestimmten Frequenz, der so ge-nannten Resonanzfrequenz, lieferndie Radiowellen genau die Energie,die die Kerne benötigen, um auf einhöheres Energieniveau zu springenund sich im Magnetfeld neu aus-zurichten. Die dabei auftretendeSchwächung der Radiowellen liefertden Wissenschaftlern das Messsig-
nal. Rabi hat damit einen Weg ge-funden, um diesen Übergang nach-zuweisen. Die neue Technik bezeich-nen die Forscher als „molecularbeam magnetic resonance“. Rabis
Arbeitsgruppe setzt diese Technik vor allem ein, um noch völlig unbekann-te Details über die Wechselwirkun-gen von Molekülen herauszufinden.Die Forscher können jetzt quasi„sehen“, wie individuelle Atome an-einander binden und wie ihre Kernedurch benachbarte Atome beeinflusstwerden. Im Jahr 1944 erhält Rabidafür den Nobelpreis für Physik.
EINFACH WASSERSTOFF
Nach dem Zweiten Weltkrieg su-chen unabhängig voneinander diePhysiker Edward Purcell an der Har-
vard University und Felix Bloch ander Stanford University nach einer
Vereinfachung der Methode, um dieKernspinresonanz auch in Flüssig-keiten und Festkörpern messen zukönnen. Beide Wissenschaftler ent-scheiden sich für die Untersuchungdes Wasserstoffs, zum einen, weiles der einfachste Atomkern mit Spinist, und zum anderen, weil er immenschlichen Körper am häufigsten
vorkommt (der Körper besteht zu 70Prozent aus Wasser, in jedem Trop-fen Wasser befinden sich etwa 1024
Wasserstoffkerne).Nahezu zeitgleich gelingt es den
Forschergruppen, jene Bedingungenzu erzeugen, bei denen magnetischeResonanz eintritt. Ihre Experimenteliefern das Verständnis für die heuteals NMR-Spektroskopie bekannteMethode. Damit wird es unter ande-rem möglich, „Relaxationszeiten“ zumessen, also jene Zeitspanne, die einSystem benötigt, um in den Gleich-gewichtszustand zurückzukehren –und zwar im Bereich von Sekundenoder Bruchteilen von Sekunden. Pur-cell und Bloch werden 1952 eben-falls mit dem Physik-Nobelpreis aus-gezeichnet. Wurde die Kernspinresonanz in
den frühen fünfziger Jahren vorerstals physikalische Methode verstan-den, mit der sich die magnetischenEigenschaften von Kernen messenlassen, so führte die Beobachtung,
dass das NMR-Signal von der chemi-schen Umgebung beeinflusst wird,zu einer geradezu explosionsartigen
Verbreitung. Die chemische Umge-bung der Atomkerne erzeugt näm-lich eine Verschiebung der Reso-nanzfrequenz gegenüber dem freienKern (bei gleicher Frequenz erfolgtdie Resonanz des abgeschirmtenKerns bei höherem äußeren Mag-netfeld). Diese „chemische Verschie-bung“ ist eine charakteristische Grö-ße für die unterschiedlichen Gruppeneines Moleküls. Sie kann dazu be-nutzt werden, um Substanzen zucharakterisieren.
Heute ist die NMR-Spektroskopieaus der chemischen Analyse nichtmehr wegzudenken, kein Industrie-oder Universitätslabor kommt ohne
ein NMR-Gerät aus. Zu Beginn der sechziger Jahre ist die NMR-Tech-nologie allerdings noch langenicht ausgereift: Ein entscheidender Schritt nach vorne ist der Einsatz ge-pulster Radiowellen an Stelle einer einzelnen kontinuierlichen Welle.Der Puls enthält verschiedene Fre-quenzanteile. Dabei gilt: je kürzer die gepulste Radiowelle, desto breiter ihr Frequenzspektrum. Die Wissen-schaftler müssen jetzt nicht mehr mühevoll Radiowellen verschiedener
Wellenlänge testen, um die Reso-nanzfrequenz zu bestimmen. DiePulstechnik wird zum Instrument der
Wahl für Physiker und Chemiker beider Untersuchung von Atomen undMolekülen. Nach wie vor ist die Aus-wertung des Messsignals jedochaußerordentlich zeitintensiv. Um denProzess zu beschleunigen, bedarf eseines mathematischen Hilfswerk-zeugs.
Ende der sechziger Jahre ist dieEntwicklung des Computers soweitfortgeschritten, dass es möglichwird, die komplexen NMR-Spektrenim Rahmen einer für den mathemati-schen Laien immer noch komplizier-ten Rechnung (Fourier-Transformati-on genannt) auszuwerten. RichardErnst und Weston Anderson gelingtes, Pulstechnik und Rechen-Werk-zeug erfolgreich miteinander zukombinieren. Die neue Methode istnicht nur tausendmal schneller als
ihr Vorläufer, die Forscher können jetzt auch Signale beobachten, dienur noch ein Zehntel so groß sind.Für seinen Beitrag zur Weiterent-wicklung der NMR-Spektroskopie er-hält Richard Ernst im Jahr 1991 denNobelpreis in Chemie.
Die Idee, die NMR als diagnosti-sches Instrument einzusetzen, tauchtebenfalls schon in den fünfzigerJahren auf. Aber es bedarf weiterer Entwicklungen, insbesondere in der Computertechnologie, bevor die Mag-net-Resonanz-Tomographie (MRToder englisch MRI für „magnet reso-nance imaging“) Realität wird: ImJahr 1971 verbindet der britische In-genieur Godfrey Hounsfield einRöntgengerät mit einem Computer und setzt diverse algebraische Ver-
fahren ein, um einen Körper von verschiedenen Seiten optisch abzu-tasten und schließlich entsprechendeSchnittbilder herzustellen. Er legtdamit den Grundstein für die Com-putertomographie (CT). Knapp zweiJahre später entwickelt der Chemiker Paul Lauterbur ein rechnerisches
Verfahren, das es ermöglicht, mittelsKernspinresonanz Bilder zu erzeu-gen. Vorausgegangen waren Überle-gungen, wie sich das registrierteNMR-Signal innerhalb einer Probelokalisieren lässt. Wenn es gelänge,so Lauterbur, den Entstehungsortdes Signals punktgenau festzulegen,dann ließe sich eine Art „Landkarte“des Untersuchungsobjekts erstellen.In seinen Experimenten überlagerter daher das räumlich gleichförmigestatische Magnetfeld mit einemzweiten, schwächeren Magnetfeld-Gradienten.
INS B ILD GESETZT
Da die Resonanzfrequenz der Atomkerne in einem äußeren mag-netischen Feld proportional zur Stär-ke des Felds ist, liefert der Magnet-feld-Gradient für die verschiedenenTeile des Untersuchungsobjekts je-weils nur an einer Stelle die Reso-nanzbedingungen, so dass sich diePosition der Moleküle festlegen undein entsprechendes Bild konstruierenlässt (heute werden zur Erzeugung
von MR-Bildern drei elektromagneti-
sche Gradienten angelegt). Es bleibtdem Engländer Peter Mansfield undseinen Kollegen vorbehalten, 1976das erste NMR-Bild eines menschli-chen Körperteils zu veröffentlichen:eines Fingers, bei dem sowohl Kno-chen und Nerven als auch Arteriensichtbar werden.
GESPANNTER Z USTAND
Was passiert nun unter den ebenbeschriebenen Bedingungen? Wennman einen Patienten in das starkeMagnetfeld eines Kernspin- oderMagnet-Resonanz-Tomographen hi-neinfährt, richten sich die vielen klei-nen „Wasserstoffmagnete“ im Körper teilweise aus. Diese Ordnung der ausgerichteten Teilchenmagnete wird
jetzt durch einen hochfrequenten
Magnetsender beeinflusst. Aufgrunddieser „Störung“ klappen die kleinenTeilchenmagnete aus ihrer geordne-ten Position heraus. Sie befindensich jetzt in einem gespannten (ener-giereichen) Zustand, weil sie sich ei-gentlich wieder in dem großen Mag-netfeld ausrichten wollen. In demMoment, in dem die Störung abge-schaltet wird, begeben sich die Teil-chenmagnete deshalb schnell wieder in ihre Ausgangslage, den energie-armen Zustand, zurück. Dabei gebensie eine bestimmte Energiemengewieder ab. Diese entspricht einemRadiosignal bestimmter Wellenlänge(hierbei handelt es sich um die ein-gangs erwähnte Resonanzfrequenz).Durch „Spulen“ im MRT werden dieSignale der Teilchenmagnete aufge-fangen. Abhängig von der Anzahlund der näheren Umgebung der Teil-chenmagnete ist das Signal stärker oder schwächer, das Zurückklappendauert nur kurz (wenige Millisekun-den) oder länger (wenige Sekunden).Der Patient merkt von alledemnichts. Anhand des gewebsspezifi-schen Verhaltens der Teilchenmag-nete können Ärzte und Wissen-schaftler im MR-Bild schließlich dieGewebe des menschlichen Körpersunterscheiden.
Heute liefert der Tomograph nichtnur Bilder aus dem Innern unseresKörpers, wobei jede nur denkbareSchnittebene möglich ist, sondern
modell entworfen und damit dasFundament für eine der erfolgreich-sten Entwicklungen in der Grundla-genforschung bereitet haben.
MAGNETISCHE M OMENTE
Im Jahr 1929 untersuchen Isaac Isi-dor Rabi und seine Mitarbeiter ander Columbia University in den USA die magnetischen Eigenschaften von
Atomen und Molekülen. Die Physi-ker wissen zu diesem Zeitpunkt, dass
enschaftler des Max-Planck-Instituts für neurologische Forschung
ln haben MR-tomographische und spektroskopische Verfahren im
ersuch getestet. Dazu haben sie bei vier verschiedenen Versuchstieren
n 15-minütigen Herzstillstand ausgelöst und die Wiederbelebungehirns verfolgt. Die bildliche Darstellung erlaubt Aussagen über den
digungsgrad des Gehirns sowie eine genaue Analyse des Erholungs-
ufs. Bei der vorliegenden MR-Bildgebungsmethode werden die Durch-
ngsänderungen des aktivierten Hirnareals dargestellt. Die oberen
Reihen sind Beispiele für erfolgreiche und die unterste Reihe für eine
erfolgreiche Reanimation. Der Vergleich mit den Konzentrationsbil-
von ATP, Glucose und Laktat zeigt, dass die MR-Bilder tatsächlich eng
en biochemischen Veränderungen verknüpft sind. Auf der Basis sol-
Untersuchungen ist es möglich, den Verlauf eines Hirninfarktes sowie
Erfolg verschiedener therapeutischer Maßnahmen zu dokumentieren.
F O T O : M P I F Ü R
B I O L O G I S C H E K Y B E R N E T I K ,
T Ü B I N G E N
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 31/59
1976 1990 20011964 1971 19721936 1937 1945
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 61
Biologische KYBERNET
60 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
SZINATION Forschung
erlaubt auch Aussagen über denFunktionszustand bestimmter Gewe-be. Der Durchbruch für diese funk-tionelle Magnet-Resonanz-Tomogra-phie, fMRT, gelang in den achtziger Jahren, als George Radda und seineKollegen im englischen Oxford he-rausfanden, dass sich die MRT aucheignet, um Änderungen im Sauer-stoffgehalt des Bluts nachzuweisen.Das Prinzip hinter dieser als BOLD(englisch: blood oxygen level depen-dent) bezeichneten Methode war be-reits 40 Jahre zuvor von Linus Pau-ling und Charles D. Coryell beschrie-ben worden. 1936 legen sie einePublikation vor, in der sie über diemagnetischen Eigenschaften vonHämoglobin berichten, dem Sauer-stoff transportierenden Pigment, das
den roten Blutkörperchen ihre Farbe verleiht.
ROTES ODER BLAUES B LUT
Die beiden Chemiker hatten he-rausgefunden, dass sich die magneti-sche Empfindlichkeit von sauerstoff-beladenem arteriellen Blut um 20Prozent von dem sauerstoff-freien
venösen Blut unterscheidet. Im Jahr 1990 zeigt Seiji Ogawa von den
At&T Bell Laboratories in Tierver-suchsstudien, dass desoxygeniertesHämoglobin im Gegensatz zu oxyge-niertem Hämoglobin die Stärke desmagnetischen Felds, dem es ausge-setzt wird, in seiner unmittelbarenUmgebung erhöht. Regionen, die al-so viel desoxygeniertes Hämoglobinenthalten, verändern das magneti-sche Feld um die Blutgefäße herum,und dies wiederum spiegelt sich imMR-Bild wider.
Was den Einsatz der fMRT anbe-langt, gibt es mittlerweile einen re-
gelrechten Boom – und zwar über den klinischen Bereich hinaus. Ins-besondere in der neurobiologischenForschung hat diese Technik den
Wissenschaftlern neue Einblicke indas Gehirn verschafft. So ist dasfMRT ein Instrument geworden, umdie Entwicklung neuronaler Netz-werke für das Sehen, Sprechen undHören zu untersuchen. Bis auf weni-ger als einen Millimeter genau kön-nen Forscher die Aktivitätsmuster imGehirn studieren.
BEIM D ENKEN ZUGESCHAUT
Nach einer Phase der Euphoriemacht sich unter den Wissenschaft-lern allerdings Skepsis breit, wie aus-sagekräftig die „bunten Bilder“ wirk-lich sind. Mit der fMRT lassen sich
zwar Unmengen von Daten produ-zieren, vielfach fehlt es aber an Hin-tergrundinformationen oder Grund-lagen, um die Messwerte überhauptrichtig interpretieren zu können. Soklafft eine große Lücke zwischen der räumlich aufgelösten Betrachtungder Hirnaktivität mittels fMRT undden vielen auf der Basis elektrophy-siologischer Ableitungen am Tier-modell erlangten Erkenntnissen. Dieshatte bisher vor allem technische Ur-sachen: Dem zeitgleichen Einsatzbeider Untersuchungsmethoden unddamit dem Brückenschlag vom Tier-
versuch hin zu den am Menschengewonnenen Befunden stand dieInterferenz zwischen dem starkenMagnetfeld des Tomographen undden an den Elektroden gemessenenStrömen im Weg.
Dieses Hindernis konnten NikosLogothetis und seine Mitarbeiter
vom Max-Planck-Institut für biolo-gische Kybernetik in Tübingen nun
schen Reiz im visuellen Kortex vonnarkotisierten Affen zeitgleich mitdiesen drei verschiedenen Methodenuntersucht. Der Vergleich der Mess-reihen ergab, dass die fMRT-Datensignifikant mit den lokalen Feldpo-tenzialen und weniger mit den Ein-zelzell- und so genannten Multi-Unit-Ableitungen korrelieren. „Unse-re Untersuchungen deuten darauf hin, dass Änderungen des Sauer-stoffgehalts im Blut nicht unbedingtmit Ausgangssignalen, also dem,Feuern‘ der Neurone, einhergehen.
Vielmehr sehen wir beim fMRT Än-derungen des lokalen Feldpotenzialsund damit das Einlaufen von Signa-len aus anderen Hirnregionen undderen Prozessierung“, sagt Nikos Lo-gothetis. Und: „Wir haben jetzt erst-
mals die Möglichkeit, zu verstehen,was einzelne Neurone tun und wiesie ihre Aufgabe im Kontext funkti-onsspezifischer neuronaler Netzwer-ke erfüllen.“
KOMBINIERTER S CHARFBLICK
Eine wichtige Erkenntnis aus denersten experimentellen Untersu-chungen der Tübinger ist, dass dieBOLD-fMRT-Daten – wohl aufgrundder großen Variabilität der Gefäßre-aktionen – einen viel kleineren Stör-abstand (Signal-Rausch-Verhältnis)haben als die elektrophysiologischen
Ableitungen. „Dies hat zur Folge,dass bei der üblichen statistischen
Auswertung menschlicher fMRT-Da-ten die Ausdehnung der neuronalen
Aktivität im Gehirn unterschätztwird“, so Logothetis. Anders ausge-drückt: Das Fehlen eines fMRT-Sig-nals bedeutet also nicht unbedingt,dass in diesem Hirnbereich keineneuronale Informationsverarbeitung
überwinden: Mithilfe von Spezial-elektroden und einer aufwändigenDatenverarbeitung ist es ihnen nichtnur gelungen, zweifelsfrei nach-zuweisen, dass mit der BOLD-fMRTtatsächlich Veränderungen der Neu-ronenaktivität gemessen werden; dieForscher haben darüber hinaus fest-gestellt, dass das BOLD-Signal vor allem den Eingang neuronaler Infor-mation in die jeweilige Hirnregionsowie ihre dortige Verarbeitungwiderspiegelt und weniger die Aus-gangssignale, die an andere Hirnre-gionen weitergegeben werden.
Mit ihrer neuartigen experimentel-len Anordnung können die Tübinger
Wissenschaftler verschiedene Aspek-te neuronaler Aktivität untersuchenund auch zwischen den so genann-
ten Aktionspotenzialen und lokalenFeldpotenzialen unterscheiden. Akti-onspotenziale sind elektrische Im-pulse, die von einzelnen Neuronenoder einer relativ kleinen Gruppe
von Neuronen stammen; es handeltsich um Alles-oder-Nichts-Signale,die nur auftreten, wenn der aus-lösende Reiz stark genug war. Im
Wissenschaftlerjargon heißt es dann„die Neuronen feuern“. Die Aktions-potenziale spiegeln somit den Out-put, also das Ausgangssignal, wider.Registriert werden diese Signale von
Ableitelektroden, die sich in unmit-telbarer Nähe der Nervenzellen be-finden. Die lokalen Feldpotenzialesind dagegen sich langsam verän-dernde elektrische Potenziale, die dasEingangssignal an den Synapsenund seine Weiterverarbeitung in ei-ner größeren Neuronenpopulationwiedergeben.
Die Max-Planck-Forscher habennun die Antworten auf einen opti-
stattfindet – die elek-trophysiologischen Mes-sungen belehren uns ei-nes Bessren. Und darauf werden sich auch dieKognitionswissenschaft-ler in Zukunft beider Interpretation ihrerfMRT-Daten einstellenmüssen.
Der größere Beitragdes lokalen Feldpotenzi-als zum fMRT-Signal istübrigens auch konsis-tent mit Untersuchun-gen zu seinen bioener-getischen Grundlagen.Schon lange wissen dieForscher, dass die neu-ronale Aktivität und der
energetische Stoffwech-sel unmittelbar mitei-nander gekoppelt sind.Im Ruhezustand ver-braucht das menschli-che Gehirn 20 Prozentdes Sauerstoffs im Kör-per, obwohl es weniger als zwei Prozent der Körpermasse ausmacht.Ein kurzfristiger Anstieg der Hirnak-tivität (und damit des Energiebe-darfs) wird begleitet von einem ge-steigerten Blutfluss (Erhöhung der Durchflussrate) und einem ebenfallsgesteigerten Glucosebedarf. Letzterer spiegelt offensichtlich die synapti-sche Aktivität wider. Untersuchun-gen mittels NMR-Spektroskopie ha-ben nämlich gezeigt, dass sich 80 bis90 Prozent des gesamten kortikalenGlucose-Verbrauchs beim Menschenauf den Energiebedarf so genannter glutamerger Neurone zurückführenlassen – Neurone also, die sich des
Botenstoffs Glutamin bedienen. De-ren Aktivität wiederum wird bei denFeldpotenzial-Messungen erfasst.
Die Geschichte der funktionellenMagnet-Resonanz-Tomographie istnoch lange nicht zu Ende geschrie-ben. Sicher ist jedoch eines: DiefMRT ist Ergebnis jahrzehntelanger Grundlagenforschung, sie wurde im-mer wieder stimuliert durch For-scher, die über den Tellerrand ihrer eigenen Disziplin hinausgeschauthaben, und sie wäre wohl nie imRahmen bürokratischer Forschungs-planung entstanden. CHRISTINA BECK
Ein Schachbrettmuster (links) als visueller Reiz löst Neuronenaktivität
im Gehirn aus, die mit Einzelzellableitungen (vorne) bzw. funktionellerMagnet-Resonanz-Tomographie (hinten) aufgezeichnet wird. Um die ve
schiedenen Signale zeitgleich registrieren zu können, haben die Wissenschaftler des Max-Planck-Instituts für biologische Kybernetik eine ganz
neuartige experimentelle Anordnung entwickelt. Damit ist es ihnen gel
gen nachzuweisen, dass mit BOLD-fMRT tatsächlich Veränderungen de
Neuronenaktivität gemessen werden. Das BOLD-Signal spiegelt danach
vor allem den Eingang neuronaler Information in die jeweilige Hirnregi
sowie ihre dortige Verarbeitung wider und weniger die Ausgangssignale
die an andere Hirnregionen weitergegeben werden.
F O T O : M P I F Ü R
B I O L O G I S C H E K Y B E R N E T I K
1936Linus Pauling undarles D. Coryell ent-ecken, dass sich dasgnetische Verhalten
on Hämoglobin mitnem Oxygenierungs-
status ändert.
Isaac Isidor Rabi undseine Mitarbeiter entwickeln
die Grundlagen derKernspinresonanz, indem
sie Lithiumchlorid-Moleküledurch ein Magnetfeld schicken
und dabei Radiowellenaussetzen.
Unabhängig voneinandergelingt es Felix Bloch
und Edward Purcell, dasPhänomen der Kernspin-resonanz in Flüssigkeiten
und Festkörpernnachzuweisen.
Richard Ernst undWeston Anderson können
durch Einsatz der sogenannten Pulstechnik
und der Fourier-Analysedie NMR-Technologie
entscheidend vorantreiben.
Godfrey Hounsfieldbaut den ersten Computer-
Tomographen (CT) undlegt damit den Grundstein
für nahezu alle bild-gebenden Verfahren,die heute zum Einsatz
kommen.
Paul Lauterbur verknüpftdie CT-Entwicklung mit Über-legungen zur Lokalisierung des
NMR-Signals; die Idee der Über-lagerung mit einem Magnetfeld-
Gradienten liefert die Grund-bedingungen zur Erzeugung von
Bildern mittels MRT.
Peter Mansfield undseine Mitarbeiter
veröffentlichen daserste mit einem MRTerzeugte Bild eines
menschlichen Körperteils –eines Fingers.
1937 1945 1964 1971 1972 1976 1990 20011964 1971 1972 1976 1990 2001Seiji Ogawa entdeckt,
dass sich gewebsspezifische Veränderungen im Sauerstoff-gehalt im MR-Bild nachweisenlassen. Das so genannte BOLD- Verfahren ermöglicht somit
eine Auswertung des Funktions-zustands der Gewebe.
Nikos K. Logothetis und seinenMitarbeitern gelingt es mit einer
neuartigen experimentellenAnordnung, zeitgleich elektro-physiologische Messwerte und
fMRT-Daten aufzuzeichnen unddamit die funktionsspezifischenZusammenhänge aufzudecken.
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 32/59
SZINATION Forschung Bose-Einstein-KONDENSATIO
62 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
Den diesjährigen NOBELPREIS FÜR PHYSIK erhielten ein
deutscher und zwei amerikanische Physiker für Pionierarbeiten zur
„BOSE-EINSTEIN-KONDENSATION“. Die Wissenschaftler
erforschen ultrakalte Gaswolken, deren Atome den gleichen „Quantenzustand“ besetzen.
Forscher des MAX-PLANCK-INSTITUTS FÜR QUANTENOPTIK in Garching lieferten schon
mehrfach wichtige Beiträge zu diesem faszinierenden Forschungsgebiet. Wie der Laser
könnten Bose-Einstein-Kondensate die Entwicklung völlig neuer Technologien anstoßen.
Gleich takt im ultrakaltenQuanten-Orchester
F O T O S : W O L F G A N G F I L S E R
F O T O : W O L F G A N G F I L S E R
nnes Schuster (rechts) und Andreas Marte aus dertsgruppe von Gerhard Rempe bei der Justage ihres
riments zur Erzeugung von Bose-Einstein-Kondensaten.
Bildschirm zeigt in Falschfarben-Darstellung typische
orptionsaufnahmen“ von Kondensaten.
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 33/59
DER NOBELPREIS
FÜR PHYSIK 2001
Den Nobelpreis 2001 erhielten dreiPioniere der Bose-Einstein-Konden-sation: Wolfgang Ketterle vomMassachusetts Institute of Techno-logy (MIT), sowie Eric A. Cornell undCarl E. Wieman von der Universityof Colorado (Boulder). Zwei derNobelpreisträger haben enge persön-liche Beziehungen zum Max-Planck-Institut für Quantenoptik. WolfgangKetterles Doktorvater ist HerbertWalther, Direktor der Abteilung fürLaserphysik und Professor an der Lud-wig-Maximilians-Universität Mün-chen. Carl E. Wiemans Doktorarbeitbetreute Theodor W. Hänsch,während beide in den siebziger Jahrenan der Universität von Stanfordforschten.
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 65
Bose-Einstein-KONDENSATIO
64 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
SZINATION Forschung
nennen? Warum sind sie so wichtig?Eine Antwort gibt Theodor W.Hänsch. Der Direktor der AbteilungLaserspektroskopie am Max-Planck-Institut für Quantenoptik und Pro-fessor an der Ludwig-Maximilians-Universität in München ist einer der
Väter dieses jungen Forschungsge-biets (siehe auch Seite 69). Aus sei-ner Sicht bieten Bose-Einstein-Kon-densate eine wunderbare Möglich-keit, wichtige Experimente zum„Welle-Teilchen-Dualismus“ zu ma-chen. Diese janusköpfige Eigenschaftder Materie, die aus der Quantenme-chanik resultiert, muss jeder Physik-student erst einmal verdauen. Mate-rie zeigt nämlich zwei Verhaltens-weisen: Die einer Welle und zugleichdie eines Teilchens (siehe Kasten„Der Welle-Teilchen-Dualismus” auf
Seite 66). Bose-Einstein-Konden-sate erlauben es auf einzigartige
Weise, „in einem Grenzgebiet zu ex-perimentieren, wo wir entweder den
Wellen- oder den Teilchencharakter in den Vordergrund rücken“, soHänsch. Und: „Damit können wir unser Verständnis der Quantenme-chanik trainieren.“
„Bose-Einstein-Kondensate ver-danken ihre Existenz allein der Un-unterscheidbarkeit quantenmechani-
scher Teilchen“, steckt Gerhard Rem-pe das Spielfeld ab. Das Verhalten
von Atomen in einem BEC erinnertan das bestimmter Mitglieder einesSymphonieorchesters – etwa aller
Violinisten, die exakt dieselbe Melo-die spielen. Diese Musiker „schwin-gen“ im Gleichtakt. In einem BECbesetzen gleichartige Atome wie zumBeispiel Natrium gemeinsam denQuantenzustand mit der niedrigst-möglichen Energie, den „Grundzu-stand“. Hier sorgt eine „Materiewel-le“ für den Gleichtakt der Atome.Nun soll die stimmführende ersteGeigerin mit einem ihrer Kollegenden Platz tauschen. Weil die beidenMusiker hoch spezialisierte Individu-en sind, verändert das sofort den Ge-samtklang der Streichergruppe. Tau-schen hingegen zwei gleichartige
Atome ihren Platz innerhalb einesQuantenzustands, dann passiert –absolut nichts! Atomen fehlen näm-lich von Natur aus jegliche individu-ellen Eigenschaften, sie sind unun-terscheidbar.
Diese Eigenart der Quantenwelthat Konsequenzen, auf die schonMitte der zwanziger Jahre der indi-sche Physiker Satyendra Nath Bosestieß. Gemeinsam mit Albert Einsteinentwickelte er für die nach ihm be-
nannten Bosonen, zu denen auch viele Atome gehören, eine neueQuantenstatistik. Eine Konsequenzdieser Quantenstatistik war einmerkwürdiges Verhalten: Knapp über dem absoluten Temperaturnullpunkt(bei minus 273 Grad Celsius) solltengleichartige Bosonen dazu neigen,gemeinsam in einen quantenmecha-nischen Grundzustand zu „konden-sieren“.
EIN MILLIONSTEL GRAD
ÜBER DEM NULLPUNKT
Damit Atome ein BEC bilden kön-nen, müssen sie auf Temperaturenunterhalb eines millionstel Grad Cel-sius über dem Nullpunkt abgekühltwerden. Wie erreicht man eine sol-che Ultrakälte im Labor? In den sieb-ziger Jahren schlugen Theodor W.
Hänsch und andere Forscher vor,zum Kühlen der Atome Laserlichteinzusetzen. Wenn das Licht richtigpräpariert ist, übt es auf die Atomeeinen „Lichtdruck“ aus und bremstsie ab. Das Abbremsen kühlt die Ato-me, weil die Wärme ihrer Bewe-gungsenergie entspricht.
In den achtziger Jahren entstandaus dieser ersten Idee schließlich die„magnetooptische Falle“ (MOT). Ab-bildung 1 zeigt stark vereinfacht
ihren Aufbau: Sie besteht aus min-destens sechs Laserstrahlen, von de-nen je zwei einander entgegenlaufen(rote Pfeile). Die Laser sind so ange-ordnet, dass das Atom (blaue Kugel)entlang jeder Raumrichtung abge-bremst wird. Die MOT kann auf diese
Weise eine Wolke aus mehreren Mil-liarden Atomen kühlen. Außerdemproduzieren zwei elektrische Spulen(kupferfarben) ein Magnetfeld. Zu-sammen mit den Lichtkräften schiebtdieses Feld die gebremsten Atome inden Kreuzungspunkt der Laserstrah-len und hält sie dort fest (Abb. 2).Dann wird das Laserlicht abgeschal-tet und die Gaswolke in einer reinmagnetischen „Falle“ gefangen. DieIdee zum letzten Kühlschritt kamden Physikern vielleicht beim Kaf-feetrinken: Eine schwache Radio-
welle „bläst“ die heißesten Atomeder Gaswolke weg. Diese „Verdamp-fungskühlung“ sorgt dafür, dass dierestlichen Atome in der Falle in einBEC kondensieren (Abb. 3).
Bose-Einstein-Kondensate eröff-nen den Physikern neue Forschungs-möglichkeiten. Hänsch und seineMitarbeiter beschäftigen sich zumBeispiel mit einer völlig neuen Quel-le für Materiewellen – dem Atom-Laser. Er produziert einen Strahl aus
Abb. 1: Schematisch vereinfachte Darstellung
einer magnetooptischen Falle (MOT).
Abb. 2: Eine kalte Wolke aus 200 Milliarden
Rubidiumatomen leuchtet im Laserlicht einer MOT.
Abb. 4: Atomlaserstrahl in einer
„Materiedichte-Darstellung“. Der Berg
links markiert das BEC, der blaue
„Grat“ ist der Atomlaserstrahl. Er kommt
hier knapp 2 Millimeter weit.
„Eigentlich dürfte es Bose-Ein-stein-Kondensate gar nicht
geben“, scherzt Johannes Schuster.Er ist Doktorand in der Forschungs-gruppe von Gerhard Rempe, dem Ge-schäftsführenden Direktor des Max-Planck-Instituts für Quantenoptik inGarching. Schuster denkt an dieKonsequenzen der Thermodynamik,also der Wärmelehre. Bose-Einstein-Kondensate sind Ensembles ultrakal-ter Atome mit besonderen Quanten-eigenschaften. Nach den Gesetzender Thermodynamik dürften dieseultrakalten Gaswolken nicht existie-ren: Sie müssten in eine Flüssigkeitoder einen festen Körper ausfrieren.Trotzdem gelang es Wissenschaftlernim Jahr 1995 mit einer hoch ent-wickelten Technologie zum erstenMal, ein Bose-Einstein-Kondensat
herzustellen. Diese exotische Formder Materie blieb sogar für vieleSekunden stabil, bevor sie der ther-modynamische Tod ereilte.
Drei Physiker, darunter ein Deut-scher, erhielten für ihre Pionierarbeitüber Bose-Einstein-Kondensate dendiesjährigen Nobelpreis für Physik.Doch was sind Bose-Einstein-Kon-densate – oder BEC (vom englischen„Bose-Einstein-Condensate“), wie siedie abkürzungsfreudigen Physiker
Eric A. Cornell
Wolfgang Ketterle
Carl E. Wieman
F O T O : J I L A
F O T O : M I T
F O T O : J I L A
Abb. 3: „Absorptionsbilder“
zeigen die Entstehung eines
Bose-Einstein-Kondensats
(BEC). Von links nach rechts
sinkt die Temperatur und
ein spitzer „Berg“ bildet sich:Die Atome rücken immer
dichter zusammen und
kondensieren.
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 34/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 67
Bose-Einstein-KONDENSATIO
66 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
SZINATION Forschung
Atomen, dessen Eigenschaften anLaserlicht erinnern. Die wichtigstedieser Eigenschaften ist die hoheKohärenz von Laserstrahlen. Ihre
Wellenzüge sind sehr lang, sie bauensich aus vielen einander abwechseln-den Wellenbergen und Wellentälernauf. Hinzu kommt ihre scharfe Fre-quenz: Laserlicht ist einfarbig. Des-halb kann man Laserstrahlen auftei-len und mit sich selbst so überlagern,dass sie sich teilweise auslöschenoder verstärken. So entstehen bei-spielsweise Hologramme.
Beim Atomlaser übernehmen Ato-me die Rolle der Lichtquanten. Siebilden eine Materiewelle, in der die
Atome einen Quantenzustand beset-zen. Allerdings braucht ein Atomla-ser – anders als ein echter Laser – ei-nen „Vorratsbehälter“, aus dem er seine Materiewelle speisen kann.Dieses Reservoir muss Atome enthal-ten, die bereits alle in einem Quan-tenzustand präpariert sind: Genaudas bietet ein BEC.
Im Jahr 1998 stellten Hänsch undseine Mitarbeiter Immanuel Blochund Tilman Esslinger zum ersten Maleinen kontinuierlichen Atomlaser-
strahl her. Dazu bohrten sie ein BECmit einem Radiowellenpuls an.Durch das „Loch“ fielen Atome ausdem Kondensat heraus, weil sie vonder Schwerkraft der Erde angezogenwurden. Im Fallen blieben sie eine
Weile im Quantenzustand des Kon-
densats und formten so eine Mate-riewelle, die sich ausdehnt.
Das Beispiel des Geiger-Ensemblesmacht das Experiment wieder ver-ständlich. Dazu führt es eine zeit-genössische Musikperformance auf:
Während des Stücks verlassen einige Violinisten den Konzertsaal. Sie ent-fernen sich, ohne dabei das Spiel zuunterbrechen. Die beiden getrenntenMusikergruppen können sich nocheine Weile gegenseitig hören undbleiben so im Gleichtakt – also imgleichen Zustand. Mit wachsender Entfernung reißt jedoch die akusti-sche Verbindung ab und der gemein-same Zustand „zerfällt“. Das passiertauch dem Atomlaserstrahl (Abb. 4).
Physiker interessiert nun zum Bei-spiel, wie weit ein Atomlaserstrahlkommt, bevor diese Kohärenz verlo-ren geht. Dazu manipuliert das Teamum Hänsch den Strahl mit Magnet-feldern, die auf ihn wie Spiegel wir-ken. Abbildung 5 zeigt einen beson-ders faszinierenden Versuch. DieMünchner Physiker „sperrten“ einenTeil des Atomlaserstrahls in einenmagnetischen „Resonator“ ein. DieBildfolge demonstriert eindrucksvoll,
wie die Atome wie Perlen an einer Kette zwischen den zwei magneti-schen Spiegeln hin- und herlaufen.Solange ihre Messgeräte die Materie-welle verfolgen konnten, haben diePhysiker bis zu 35 Reflexionen be-obachtet.
„Schauen Sie, hier hängt es“, sagtJakob Reichel, Postdoktorand inTheodor Hänschs Quantenoptik-Gruppe an der Universität München.Reichel deutet stolz auf eine recht-eckige Glaszelle, die nur einige Zen-timeter groß ist. Darin glänzt eine et-wa briefmarkengroße, verspiegelteFläche (Abb. 6). Hinter ihr verbirgtsich ein Mikrochip (Abb. 7), an des-sen Entwicklung auch die Doktoran-den Wolfgang Hänsel und Peter Hommelhoff beteiligt waren. Der Chip stellt eine technische Revoluti-on in der Herstellung der Bose-Ein-stein-Kondensate dar: Er erzeugt einBEC viel einfacher als bisher und er-laubt es obendrein, das BEC einfachzu manipulieren.
Eine herkömmliche MOT hat zweiNachteile. Sie erzeugt ihr Magnetfeldmit Spulen, die meistens außerhalbder Probenkammer liegen. Um die
relativ weit entfernte Atomwolke zubeeinflussen, braucht sie ein unprak-tisch starkes Magnetfeld. Deshalbkann sie auch nur simple magneti-sche Fallen formen. Das beschneidetdie Möglichkeiten, das eingefangeneBEC zu manipulieren.
ATOMFALLE
AUF DEM MIKROCHIP
Der Atomchip bringt nun die Quel-le des Magnetfelds möglichst nahean die Atomwolke. Dabei überneh-men elektrische Leiterbahnen dieFunktion der Spulen; sie können beider Produktion des Chips fast belie-big gestaltet werden und auf diese
Weise sehr komplexe Magnetfelder an der Chipoberfläche erzeugen.Durch Umschalten zwischen ver-schiedenen Leiterschleifen könnendie Münchner Physiker die Form der magnetischen Falle während des Ex-periments breit variieren.
Bei der Konstruktion des Atom-chips mussten sie jedoch ein prinzi-pielles Problem lösen: Der Chip wür-de einen Teil der sechs Laserstrahlenabschirmen, die für den Atomfangnötig sind. Theodor Hänsch nimmt
einen Zettel und zeichnet: Bei ge-schickter Anordnung kann die Chip-oberfläche das Laserlicht so spiegeln,dass es eine optische Falle nahe der Chipoberfläche bildet. Das Magnet-feld des hängend eingebauten Chipszwingt dann die Atome in ein BEC,das nur wenige Mikrometer unter-halb seiner Oberfläche schwebt. DieChipoberfläche hat dabei Raumtem-peratur – aus Sicht des BEC eine Artheißer Herdplatte. Trotzdem bleibt eserfreulich stabil.
Nun probierten die Experimenta-toren aus, was in ihrem Chip steckt.
Abbildung 8 zeigt in überlagertenMomentaufnahmen die verschiede-nen Phasen eines solchen Experi-ments. Die blaue Wolke mit rotemKern ist das BEC. Im ersten Teil desExperiments transportierte ein mag-netisches Förderband das BEC vonlinks nach rechts. Im zweiten Teilschalteten die Physiker das Magnet-feld ab und ließen das Kondensatfallen. Die Wolke expandierte zwar während des Experiments, dochselbst während des Falls blieb dasKondensat lange erhalten. „Ver-dünnte Bose-Einstein-Kondensate
Abb. 5: Ein Atomlaserstrahl ist in einem magnetischen
Resonator gefangen und läuft darin hin und her.
Die elliptische Wolke in der Mitte der Bilder ist das BEC.
Abb. 6: Glaszelle mit dem
Münchner „Atomchip“
(verspiegelte Fläche). Während des
Betriebs ist die Zelle evakuiert.
DER WELLE-TEILCHEN-DUALISMUS
Im Alltag erleben wir Materie entwederals Welle oder als Teilchen, aber niemalsals beides zugleich. Schall dringt umEcken, weil er sich als räumlich ausge-dehnte Welle um Hindernisse herum„beugen“ kann. Einem Tennisball ist dasnicht möglich, weil er sich als klassisches„Teilchen“ nur so weit in den Raum aus-
dehnt, wie er groß ist. Schon wenn erknapp an der Ecke vorbeifliegt – sie alsonicht direkt berührt – spürt er sie nichtmehr. In der Quantenwelt könnenmikroskopische Teilchen nicht nur umdie Ecke fliegen, sondern andere unmög-liche Kunststücke vollbringen. Sie sindnämlich zugleich eine Welle, die sich inden Raum hinein ausdehnt. So spüren sieHindernisse schon aus der Ferne: Eine –natürlich mikroskopisch kleine – Eckekann die Flugbahn eines Teilchens ablen-ken, ohne dass es der Ecke sehr nahekommt.
Abb. 7: Herzstück des Atomchips sind
die feinen Strukturen in seinem Zentrum.
Dort wird das BEC erzeugt und manipuliert.
Abb. 8: Grafik des experimentellen Aufbaus. In sie sind
Kamerabilder des BEC in Falschfarben-Darstellung einmon-
tiert (Wolken mit rotem Kern auf der blauen Fläche). Diese
„Schnappschüsse“ zeigen den Ablauf eines Experiments.
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 35/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 69
Bose-Einstein-KONDENSATIO
68 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
SZINATION Forschung
„Es ist kaum zu glauben, dasser schon sechzig ist. Für
mich ist er immer noch the youngkid of the block“, meinte NormanRamsey am Beginn seiner Rede über Theodor Hänsch. Dabei ist aus dem
jungen „Postdoc“ aus Heidelberg
längst ein vielfach preisgekrönter Forscher, Direktor am MPQ und Phy-sikprofessor an der LMU geworden.Der 86-jährige Ramsey, einer der Träger des Nobelpreises für Physik 1989, gehörte zu der Schar promi-nenter Physiker, die der Einladungdes MPQ und der LMU nach Mün-chen gefolgt waren. Zu den Festred-nern zählten auch zwei der drei dies-
jährigen Nobel-Laureaten, WolfgangKetterle vom Massachusetts Instituteof Technology (MIT) und Carl E.
Wieman von der University of Colo-rado (Boulder, USA). Auch zwei No-belpreisträger von 1987, Claude Co-hen-Tannoudji vom Collège de Fran-ce (Paris) und Steven Chu von der Stanford University, boten eine Mi-schung aus Anekdoten und neuestenForschungsergebnissen.
Hänsch und seine Kollegen be-schäftigen sich mit der „Wechselwir-kung“ zwischen Licht und Materie.Das ist die Domäne der modernenLaserspektroskopie, die Thema desSymposiums war. Herbert Walther,ebenfalls Direktor am MPQ und Pro-fessor an der LMU, machte in seiner Begrüßungsrede deutlich, dassHänsch einer der kreativsten Köpfeder Laserszene ist. Seine wissen-schaftlichen Leistungen reichen vomLaser mit durchstimmbarer Licht-farbe über die Idee, Atome mit Laser-licht zu kühlen, die Bose-Einstein-Kondensation auf dem „Atomchip“
bis zum optischen „Frequenzkamm“.Dieses Verfahren zur genauen Be-stimmung von Lichtfrequenzen kanndie Übertragungskapazität optischer Nachrichtenleitungen erheblich ver-bessern. Hänsch wurde deswegenfür den diesjährigen Deutschen Zu-
kunftspreis nominiert.Die nachfolgenden Redner bewie-
sen, dass erfolgreiche Forscher oftüber eine gehörige Portion an Humor und Spieltrieb verfügen. Steven Chuspielte vom Tonband Klaviermusik
vor, die er über einen Teilchenbe-schleuniger als „Telefonleitung“ ge-schickt hatte: Nicht Elektronen –sondern ihre Antiteilchen, die Po-sitronen – hatten die Musik übertra-gen. Das Band rauschte gewaltig,aber das Publikum war begeistert.Schließlich passte der Sound zu Chusnicht ganz ernst gemeintem Vor-tragsmotto: „Spektroskopie mit vielRauschen und geringer Auflösung“.Das ist genau das Gegenteil dessen,was Experimentalphysiker normaler-weise anstreben. Wie die anderenRedner präsentierte auch er ernsthaf-te Forschungsergebnisse, die zeigen,wie fruchtbar das Feld der Laserphy-sik ist. Ihm gelang es 1992 zum ers-ten Mal, ein einzelnes DNS-Molekülmit zwei „Pinzetten“ aus Laserlichtzu greifen und auseinander zu zie-hen. Daraus entstanden inzwischenfaszinierende Arbeiten zum Verhal-ten einzelner Biomoleküle.
„Erfolgreiche Forscher tun Dinge,die sie lieben“, sagte Hänsch in sei-ner Dankesrede. Er riet den anwesen-den Studentinnen und Studenten,eher dieser Devise zu folgen als sich
vom „launischen Arbeitsmarkt“ irri-tieren zu lassen. ROLAND WENGENMAYR
„The young Kid
of the Block“ Zur Feier des 60. Geburtstags von
THEODOR W. HÄNSCH luden das
MAX-PLANCK-INSTITUT FÜR
QUANTENOPTIK (MPQ) und die
LUDWIG-MAXIMILIANS-UNIVERSITÄT
(LMU) zu einem Festsymposium
nach München ein. Diesem Ruf folgten
renommierte „Laser-Physiker“ aus aller
Welt. Fünf Nobelpreisträger hielten in d
voll besetzten Aula der LMU Vorträge.
sind mittlerweile gut verstanden“,resümiert Hänsch. Nun hält er BEC-
Wolken für besonders interessant,in denen die Atome sehr dicht bei-einander schweben und sich gegen-seitig stark beeinflussen. „Wenn wir das Verhalten von solchen Vielteil-chensystemen beobachten, könnenwir noch eine ganze Menge lernen.Unsere Interpretation der Quanten-mechanik wird sich möglicherweisestark verändern“, sagt der Wissen-schaftler.
INELASTISCHE STÖSSE
BESCHLEUNIGEN ATOME
Gerhard Rempe und seine Dokto-randen Johannes Schuster, AndreasMarte und Bernhard Sang „wollengerne Kondensate im hydrodynami-schen Regime präparieren“. Damitmeint Marte ein BEC, das eine ge-wisse Mindestgröße und Mindest-dichte hat. In solchen Kondensatenstoßen Atome häufiger zusammen.Dabei gibt es eine besondere Art vonStößen, die „inelastischen Stöße“. Siesetzen eine zusätzliche Energie frei,welche die beteiligten Atome heftigbeschleunigt. Wenn das BEC klein
ist, verlassen diese schnellen Atomedie Gaswolke ohne weitere Zusam-menstöße. In einem großen, dichtenBEC kann jedoch eine Art „Kettenre-aktion ablaufen – aber in der Ener-gieskala ganz, ganz unten“, so Rem-pe. Diese Kettenreaktion hat natür-lich nichts mit der Kettenreaktion zutun, die durch eine Kernspaltungausgelöst werden kann.
Die plötzlichen „Energieaus-brüche“ der inelastischen Stöße ver-ursacht das Innenleben der Atome,das aus Elektronen und Kern besteht.
Äußerlich sind die Atome – RempesGruppe arbeitet mit Rubidium – zwar ultrakalt. Doch wenn zufällig drei
Atome zusammenstoßen, können sieein Molekül bilden. Das setzt eineEnergie frei, die der „Bindungsener-gie“ des Moleküls entspricht. Siebeschleunigt die Stoßpartner auf Ge-schwindigkeiten, die der tausend-fachen Temperatur des BECs entspre-chen. Treffen diese „rasenden Ato-me“ auf genügend andere Atome, solösen sie eine „kalte Kettenreaktion“aus, die weitere Atome aus dem BECherauskickt. In einem BEC aus vielenMillionen Rubidium-Atomen identi-
fizierte Rempes Gruppe lawinenarti-ge Ereignisse, die auf solchen „kaltenKettenreaktionen“ beruhen.
BAUTEILE FÜR
DEN „QUANTENCOMPUTER“
Die ultrakalte Quantenwelt derBose-Einstein-Kondensate hält si-cher noch manche Überraschung be-reit. Als Anfang der sechziger Jahredie ersten Rubinlaser kurze Licht-blitze produzierten, spekulierten
viele über neue Strahlenwaffen. Siesind bis heute Science-fiction geblie-ben. Dafür ist der Laser zur friedli-chen Alltagstechnik geworden: Ohneihn gäbe es keine CD-Spieler undCD-Brenner, keine optische Nach-richtenübertragung oder Lasermedi-zin. Was wird uns die Bose-Einstein-Kondensation bringen? Die For-scherfantasien reichen schon vonkleinen, extrem empfindlichen Navi-gationsgeräten über tragbare Atom-uhren bis zu Bauteilen für den„Quantencomputer“. Vielleicht wer-den die ultrakalten Quanten-Ensem-bles aus dem Alltag unserer Enkelnicht mehr wegzudenken sein.
ROLAND WENGENMAYR
Theodor W. Hänsch im Kreis der Physik-Nobelpreisträge
die mit ihm feierten. Von links: Claude Cohen-Tannoudj
Wolfgang Ketterle, Theodor Hänsch, Rudolf Mößbauer,
Norman Ramsey, Carl Wieman und Steven Chu.
Sei es die Festorganisation oder das Anschneiden
der Geburtagstorte – auch links von ihm bleibt sie seine
„rechte Hand“: Rosemarie Lechner, Hänschs Sekretärin
am Max-Planck-Institut für Quantenoptik. Das Ehepaar
Ramsey (sitzend) beobachtet fasziniert die Operation.
F O T O S : W O L F G A N G F I L S E R
Gerhard Rempe erläutert den Aufbau einer magnetooptischen
Falle. Sie fängt Rubidiumatome ein und kühlt sie für die
Erzeugung von Kondensaten vor, wie in Abb. 1 und 2 gezeigt wird.
F O T O : W O L F G A N G F I L S E R
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 36/59
AtmosphärenCHEM
70 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
SZINATION Forschung AtmosphärenCHEM
Brütende Hitze, Luftfeuchtigkeit von nahezu hundert Prozent und Heerscharen
von Stechfliegen, die ständig um Kopf und Körper schwirren: Mitarbeiter des Mainzer
MAX-PLANCK-INSTITUTS FÜR CHEMIE haben für mehrere Wochen Labor und
Schreibtisch gegen einen Arbeitsplatz im Tropenwald getauscht. Ziel der Expedition war
es, die Atmosphärenchemie im brasilianischen Amazonasgebiet besser zu verstehen.
Atemtest
am Regenwald
IBAMA-Camp am Rio Machado
Die Satellitenaufnahme in Falschfarbendarstellungzeigt die Landnutzung in Süd-Rondônia. Grün:
Primärwald östlich von Rio Machado, rot: Weide-flächen, entstanden durch (Brand-)Waldrodung
insbesondere seit 1970. Die Feldexperimente desMax-Planck-Instituts für Chemie werden an denStandorten Reserva Biologica Jaru (Primärregen-
wald) und IBAMA-Camp (Sekundärwald) sowieFazenda Nossa Senhora Aparecida (Weide) durch-
geführt. Das Logistikzentrum stand in Ji-Paraná.
Welche chemischen Prozesse laufen
unberührten Tropenwald ab? verändern sich diese nach großflächBrandrodungen? Die Auswertung der gebnisse ist noch in vollem Gang. Aschon jetzt steht fest: Die mühevolle Arder Forscher hat sich gelohnt. „So schwie der Regenwald zerstört wird, bleibt nur noch wenig Zeit für Forschung“, Jürgen Kesselmeier, Gruppenleiter am MPlanck-Institut für Chemie in Mainz. Uder Botaniker weiß, warum er und viele Klegen die Strapazen einer Expedition in wegsame Urwaldregionen immer wiedersich nehmen: „Dass die Tropenwaldstörung das Weltklima beeinflusst, gilt zwischen als sehr wahrscheinlich. Abermüssen genauer untersuchen, wie klimwirksame Gase und Aerosole im Wald estehen und vor allem, welche Mengen
von gebildet werden. Nur so können Wsenschaftler zu einer nachhaltigen Nutzdes Regenwalds beitragen.“
Rund zwei Dutzend Forscher aus Mreisten deshalb im Jahr 1999 nach BrasilGeleitet wurde die Expedition von Mein
Andreae, Direktor der Abteilung Biogeomie am Max-Planck-Institut für ChemIm Rahmen des noch bis 2003 dauernForschungsprogramms „European Stuon Trace Gases and Atmospheric Chemias a Contribution to the Large Scale Bsphere-Atmosphere Experiment in Ama F
O T O S : A L T E R R A
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 37/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 73
AtmosphärenCHEM
72 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
SZINATION Forschung
nia“ (EUSTACH-LBA) unddes von der Max-Planck-Gesellschaft gefördertenProjekts „Biosphere-At-mosphere Interactions in
Amazonia“ (BAIA) wollendie Wissenschaftler unter-
suchen, welche Folgen dieZerstörung des Regen-walds und die Verwand-lung großer Flächen inFelder und Viehweiden inder Amazonasregion ha-ben. Besonders interessiertdie Forscher der Austausch
von klimawirksamen Ga-sen – wie Ozon (O3) oder Stickoxide (NOx) – und Aerosolenzwischen Pflanzen, dem Boden undder Atmosphäre.
ZOLL ERFORDERT
STARKE NERVEN
Die Vorbereitungen für das auf-wändige Projekt begannen bereitszwei Jahre vor der Abreise nach Bra-silien. Experimente mussten geplantund die Gerätschaften dafür zusam-mengetragen werden. Schließlichgalt es, vom Reagenzglas bis zumGaschromatographen alles Notwen-dige von Mainz in den brasiliani-schen Urwald zu transportieren. Dreigroße Container wurden mit Messin-strumenten, Stahlgerüsten, Labor-geräten und Computern gefüllt, 270einzelne Importlizenzen mühevollbeschafft. Bereits damals zeichnetesich ab, dass der brasilianische Zollmitunter starke Nerven fordert. „Seitich an diesem Projekt arbeite,schlucke ich Medikamente gegenBluthochdruck“, klagt Franz Meix-ner, Gruppenleiter am Max-Planck-
Institut für Chemie. Auf Besorgniserregende Höhen kletterte der Blut-druck des Forschers wohl das ersteMal nach Ankunft des Mainzer Teams in Brasilien im März 1999.Denn trotz penibler Vorbereitungweigerten sich die Behörden einenMonat lang, die Einfuhrgenehmi-gung für die technischen Geräte zuerteilen. „Wenn Sie über vier Wo-chen lang mit zehn Leuten nur Däumchen drehen können, dannsind Sie kurz vorm Wahnsinnigwer-den“, erzählt Meixner. Nachdem diekostbare Fracht aus Deutschlandschließlich doch freigegeben wordenwar, hieß es für die Forscher: Arbeitrund um die Uhr. Denn nur so konn-ten sie die verlorene Zeit aufholen.
Den ersten Messturm errichtetendie Mainzer direkt in ihrem For-schungscamp im RegenwaldreservatRebio Jaru. Das geschützte Gebietliegt im brasilianischen BundesstaatRondônia im Südwesten des Amazo-nasbeckens. Das Camp, das norma-lerweise von der Naturschutzbehörde
genutzt wird, ist von der KleinstadtJi-Paraná aus lediglich über den RioMachado zu erreichen. So musstendie Forscher zwölf Tonnen Gepäck über den Fluss mit all seinen Stei-nen, Stromschnellen und Piranhasschippern – ein Abenteuer, das nur mit erfahrenen einheimischen Füh-rern ohne größere Zwischenfälleglückte.
ZYLINDERFÖRMIGE S ÄCKE
AUS TEFLONFOLIE
Sobald das Stahlgerüst des achtMeter hohen Messturms im Campstand, begann ein Teil des Expediti-onsteams um Jürgen Kesselmeier den Gasaustausch zwischen denBlättern von Bäumen und der At-mosphäre zu messen. Dazu überzo-gen sie einzelne Zweige mit zylin-derförmigen Säcken aus dünner,lichtdurchlässiger Teflonfolie, so ge-nannten Pflanzenküvetten. WährendUmgebungsluft hindurch gepumptwurde, entnahmen die Wissenschaft-ler Gasproben. Ein Vergleich der In-
haltsstoffe mit denjenigen aus leerenReferenzküvetten sollte zeigen, wel-che Gase von den Bäumen aufge-nommen und abgegeben wurden.„Aufgrund früherer Analysen der Luftzusammensetzung in ähnlichenÖkosystemen wussten wir, dass wir
vor allem auf Essigsäure, Formalde-hyd, Isopren und Monoterpenestoßen würden“, erklärt Kesselmeier.
Isopren ist ein in der Natur weit verbreiteter gasförmiger Kohlenwas-serstoff. Monoterpene bestehen prin-zipiell aus zwei Isopren-Bausteinenund lassen sich aus Pflanzenteilenals ätherische Öle gewinnen. Limo-nen und Pinen sind beispielsweiseBestandteile vieler Koniferenöle, diedafür sorgen, dass Nadelwälder be-sonders an heißen Tagen aromatischduften. Ob und wie viel Isopren oder Monoterpene ein Baum emittiert,hängt von vielen Faktoren ab, bei-spielsweise von der Baumart, vom
Alter der Blätter, von der Temperatur und der einfallenden Lichtintensität.Klimaforscher interessieren sich für diese Kohlenwasserstoffe, weil siedie Chemie der Atmosphäre in Rein-luftgebieten beeinflussen und im Zu-sammenspiel mit anthropogenenSchadgasen die Luftverschmutzungund den Treibhauseffekt verstärkenkönnen: Nach mehrfacher chemi-scher Umsetzung führen die Kohlen-wasserstoffe unter anderem zur Er-
höhung der Konzentrationen vonOzon, Kohlenmonoxid und Aeroso-len in der Atmosphäre. Strittig ist al-lerdings, welche Mengen durchPflanzen emittiert werden und damitdie Frage, wie relevant vor allemIsopren auch für den weltweitenKohlenstoffkreislauf ist. Übrigens:Da sich auch im Tropenwald vielepflanzenphysiologische Vorgängenach Jahreszeiten richten, musstendie Mainzer Wissenschaftler 1999zweimal nach Brasilien reisen – ein-mal im März zur Regenzeit und einzweites Mal im September zur Trockenzeit.
Zur Bestimmung der Konzentratio-nen absorbierten die Forscher Iso-pren und Monoterpene zunächst auf
Aktivkohle ähnlichem Material. Ur-sprünglich sollten diese Stoffe dannstichprobenartig direkt im Urwaldla-bor analysiert werden. Aber diedafür vorgesehenen Gaschromato-graphen hielten dem feuchtheißenKlima nicht stand und fielen nachkurzer Zeit aus. „Die Geräte solltenuns zeigen, ob wir überhaupt imrichtigen Konzentrationsbereichmessen“, sagt Kesselmeier, „ohne siemussten wir uns auf Erfahrungswer-te verlassen.“ Die Vorkenntnisse der Forscher erwiesen sich zum Glück als ausreichend und die rund 2000Proben als chemisch stabil, sodasssie in Koffern nach Mainz verfrach-
tet und dort analysiert werden konn-ten. Das Ergebnis: Zwei der drei un-tersuchten Baumarten gaben Isoprenüber ihre Blätter ab. Überraschender-weise stieg die Menge des emittiertenGases während der Trockenzeit stark an, was auch zu einer deutlich er-höhten Konzentration in der Atmo-sphäre führte. Aus der genauen Aus-wertung ihrer Daten schließen dieForscher, dass die emittierten Men-gen weltweit so groß sind, dass sieim globalen Kohlenstoffkreislauf ei-ne Rolle spielen - eine Tatsache, diein Zukunft bei Klimarechnungenberücksichtigt werden muss.
BÄUME NEHMEN
AMEISENSÄURE AUF
Bei den Gasen Formaldehyd und Ameisensäure beobachteten die For-scher dagegen ganz andere Trends.
Weil in dem Bundesstaat Rondônia jedes Jahr während der Trockenzeitrund ein Fünftel des noch bestehen-den Regenwalds staatlich kontrolliertdurch Brandrodung zerstört wird,steigt die Konzentration vieler Schadstoffe in der Luft in dieser Zeitstark an - die von Formaldehyd und
Ameisensäure auf das Drei- bis Vier-fache der Werte, die während der Re-genzeit gemessen werden. Die unter-suchten Bäume reagieren darauf, in-dem sie vor allem tagsüber verstärktFormaldehyd und Ameisensäure auf-
pausen gab es für dieenschaftler meist nur währendahrt auf dem Fluss.
Inkubation eines Zweigesvon Hymenaea coubaril,eines tropischen Baumes, dzur Familie der Leguminos
gehört. Im Vordergrund sind einige junge Blätter von Apeiba tibourbou
zu sehen. Küvetten wie diese dienen zum Einschluss ganzer intakter Zweizur Untersuchung des Austausches verschiedener Spurengase zwischen
Vegetation und Atmosphäre. Gleichzeitig erfolgen Messungen von primäphysiologischen Vorgängen wie Fotosynthese und Transpiration.
Das Bild zeigt Ultraschall-Anemometer und ein schnelles Ozongerät,die über dem etwa 30 Meter hohen Kronendach an der Spitzedes 53 Meter hohen Messturms im Reserva Biologica Jaru montiertwurden, um die turbulenten Flüsse von Impuls, Wärme, Kohlenmonoxid,Wasser, Stickstoffmonoxid, Aerosolpartikeln und Ozon zu messen.
Schematische Darstellung der Untersuchungen am Messturm im Primärregenwald.
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 38/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 75
AtmosphärenCHEM
74 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
SZINATION Forschung
Senke für leicht flüchtige Verbindun-gen wie Formaldehyd und Amei-sensäure darstellen könnte. „Aller-dings hängt dies wohl stark vonden Umweltbedingungen ab. Unter Stress, beispielsweise während Dür-reperioden oder Überflutungen, wiesie im Amazonasgebiet regelmäßig
vorkommen, könnte der Wald solche Verbindungen auch abgeben.“
nehmen. „Unter den gegebenen Be-dingungen haben wir ausschließlicheine recht heftige Aufnahme der bei-den Gase beobachtet. Das ist er-staunlich, weil bisher angenommenwurde, dass Pflanzen diese Stoffeauch abgeben“, sagt Kesselmeier. Für den Botaniker steht deshalb fest,dass Regenwald – entgegen bisheri-ger Annahmen – prinzipiell eine
Während Kesselmeiers Mitarbeiter viele Daten „bequem“ im Camp sam-meln konnten, musste ein Teil vonFranz Meixners Team jeden Morgen20 Minuten per Motorboot noch wei-ter in den Tropenwald hineinfahren.Ziel war ein 53 Meter hoher Mess-turm, auf dem in acht verschiedenenHöhen unterschiedliche Gassensorenund Analysegeräte installiert waren.Die Stromversorgung dafür liefertenzwei Dieselaggregate auf einem rund400 Meter entfernten Hausboot.„Wären wir damit näher an den Turmherangegangen, hätten wir dort un-sere eigenen Abgase gemessen“, soMeixner. Dabei kostete es die For-scher viel Mühe, im Urwald eine über
mehrere Wochen stabile Energiequel-le für ihre Messgeräte zu installieren:„Im Endeffekt hatten wir aber be-stimmt die beste Stromversorgung inganz Brasilien. Bei einem anderenMessturm mussten wir dagegen los-rennen und die Geräte abschalten,sobald auch nur eine Cumulus-Wolkeam Horizont auftauchte.“
Den Meteorologen interessiertewährend dieser Expedition vor allembiogenes Stickstoffmonoxid, alsoNO-Gas, das im Tropenwald nicht
durch Brandrodung freigesetzt, son-dern von der Natur selbst produziertwird. Verantwortlich dafür sind Mik-roorganismen, die im Boden leben.Meixners Mitarbeiter ermittelten NO-Konzentrationen deshalb nicht nur entlang des hohen Messturms, son-dern auch im und direkt über demBoden. Auch bei diesem Gas geht esunter anderem darum abzuschätzen,wie viel weltweit produziert wird.Denn NO gilt als indirektes Treib-hausgas. In der Atmosphäre reagiertes vor allem mit Ozon unter Bildung
von NO2. Am Ende langer Reaktions-ketten wird dann wieder Ozon frei-gesetzt – oft in erhöhten Mengen.
All diese Gase bestimmen letztlich
die Konzentration des OH-Radikalsin der Luft. Als wichtigstes „Wasch-mittel“ der irdischen Lufthülle sorgtdieses dafür, dass viele klimarele-
vante Spurengase unschädlich ge-macht werden.
GASE GUT
DURCHMISCHT
Wie erwartet maßen die Forscher die höchsten NO-Konzentrationenam Boden, die niedrigsten über den
Wipfeln der Bäume. Die Ozonwertewaren dagegen am Boden niedrigund über den Baumkronen amhöchsten – schließlich entsteht O3
photochemisch vor allem über denBäumen. Das Erstaunliche daran:Tagsüber war die Durchmischung der beiden Gase im Tropenwald so hoch,dass das gesamte NO zu NO2 oxidiertwurde; es gelangte folglich keinbiogenes NO in die Atmosphäre.Lediglich nachts konnten die Wis-senschaftler auch über den BäumenStickstoffmonoxid nachweisen.
Um herauszufinden, wie sich diebiogene NO-Produktion verändert,wenn Tropenwald abgebrannt unddas Land in Viehweiden verwandeltwird, verglichen die Forscher dieseErgebnisse mit denen eines zweitenMessturms, der auf der Rinderfarm„Fazenda Nossa Senhora Aparecida“in der Nähe der Provinzstadt OuroPreto stand. Es stellte sich heraus,dass die NO-Bildung im Boden einer
20 Jahre alten Weide sechs- bisneunmal geringer war als im Wald.„Eine höhere NO-Produktion im
Wald bedeutet aber nicht, dass dortauch mehr NO in die Atmosphäregelangt“, sagt Franz Meixner. Diedichte Vegetation im Tropenwaldsorgt nämlich dafür, dass die GaseNO und O3 länger „in Kontakt blei-ben“ und deshalb NO effektiver zuNO2 abreagieren kann. „Dieser so ge-nannte Canopy-Reduction-Factor ist seit mehr als zehn Jahren be-kannt“, berichtet Meixner, „mitgroßem Aufwand konnten wir diebeteiligten Prozesse jetzt aber erstmals vom Boden bis über dieBaumkronen nachweisen.“ Die
Messungen der Mainzer sollendeshalb einen wesentlichenBeitrag zur Quantifizierungdes Effekts beitragen.
Zurück in Deutschland ge-lang es Meixner und seinenMitarbeitern, noch ein ande-res, bisher kaum bekanntesPhänomen in Zahlen zu fas-sen: die Abhängigkeit der bio-genen NO-Freisetzung vom
Alter der Weidefläche. Mithil-fe von Laboruntersuchungenim Regenwald und Com-putersimulationen in Mainzstellte sich heraus, dassdie NO-Produktion der Mikroorganismen in denersten Monaten nach der ersten Brandrodung im
Vergleich zur NO-Emissionin Waldböden um bis zu ei-nem Faktor fünf erhöht ist. DieErklärung: Während der Brände ent-stehen große Mengen Asche und da-mit Nährstoffe. Ohne Vegetation sinddie Mikroorganismen im Bodenzunächst alleinige Konsumenten –die NO-Produktion läuft auf Hoch-touren. Erst ab dem zweiten Jahr nach der Zerstörung des Tropen-walds klingt die NO-Emissionschnell ab; nach 20 Jahren erreichtsie etwa ein Zehntel des Werts für ei-nen gesunden Regenwald. „Brandro-dungen erhöhen also die Emissiondes indirekten Treibhausgases Stick-
stoffmonoxid, und zwar nicht nur direkt über das NO, das bei der Ver-brennung von Holz entsteht, sondernauch über eine erhöhte biogene NO-Produktion“, folgert Meixner. Nacheiner genauen Auswertung von Sa-tellitenbildern, auf denen Tropen-wald und Weideflächen erkennbar waren, errechneten die Forscher diegesamte Emission an biogenem NOfür einen 26.000 Quadratkilometer
erblick über die unter Tageslichtbedingungen (6.00 bis 18.00 Uhr) beobachteten mittlerennzentrationen verschiedener Spezies der flüchtigen organischen Verbindungen in der AtmosphäreIBAMA-Camp sowie am hohen Messturm in verschiedenen Höhen (Mittelwerte).
Tägliche Schwankungen atmosphärischer Konzentrationen von Isoprenoiden (Isopren und Monoterpene)sowie von Carbonylen (Formaldehyd und Acetaldehyd), gemessen am Standort IBAMA-Camp (8 bis 10 Meter hoch)während der Regen- und Trockenzeit. Angegeben ist das Datum des jeweiligen Monats.
(durch Satellitenbild erfassten) Teil von Rodônia mit rund 1300 Tonnen– allein für das Jahr 1999. Hätte dieProvinz zu dieser Zeit noch vollstän-dig aus unberührtem Regenwald be-standen, wären laut Meixner 40 Pro-zent weniger biogenes NO in die At-mosphäre gelangt.
Im Forschungscamp war der Me-teorologe nicht nur für wissenschaft-
Darstellung der atmosphärischen Formaldehyd-, Ozon-,Stickstoffmonoxid- und Kohlendioxid-Mischungsverhältse während der Regenzeit (Mai 1999) in verschiedenenHöhen in und über dem Regenwald. Die gestrichelte Lini
bezeichnet die mittlere Baumbestandshöhe.
M A C R =
M E T A C R O L E I N ,
M V K =
M E T H Y L V I N Y L K E T O N
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 39/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 77
AtmosphärenCHEM
76 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
SZINATION Forschung
liche Belange zuständig, sondern er organisierte auch die Kommunikati-on mit der Außenwelt – vor allemüber Satellitentelefon. „Wenn es umtechnische Probleme geht, telefoniertman allerdings schnell eine halbeStunde lang“, erinnert sich Meixner,„bei fünf US-Dollar pro Minute hätteunser Budget das auf Dauer nicht
verkraftet.“ Die Devise lautete folg-lich: auf E-Mails beschränken. Beider Frage nach den größten Schwie-rigkeiten während der Arbeiten imTropenwald muss Meixner nicht lan-ge überlegen: „Unser größter Feindwar die Feuchtigkeit. Sobald einelektronisches Gerät nicht ausrei-chend geschützt war, wuchsen im Nu
Pilze aus den Platinen.“ Nahezu 100Prozent Luftfeuchtigkeit bei Tempe-raturen von bis zu 30 Grad rund umdie Uhr – solche Bedingungen warenauch für die Wissenschaftler mitun-ter kaum erträglich. Dazu machtenMoskitos und kleine Fliegen denForschern das Leben schwer. „Auchdie Verpflegung war für manchengewöhnungsbedürftig“, erzählt Kes-selmeier, „neben Hühnerfüßen und
Ähnlichem kamen vor allem Bohnenund Reis, die Grundnahrungsmittelder Brasilianer, auf den Tisch.“
Bei den Trinkgewohnheiten be-ließen es die Wissenschaftler aller-dings ganz bei Gewohntem. „Als ichin Ji-Paraná einmal beim Zahnarztwar, wurde ich gefragt, ob ich viel
Alkohol trinke“, erinnert sich Kessel-meier, „es hatte sich anscheinend inder ganzen Stadt herumgesprochen,dass wir mehrmals eine größereMenge Bier ins Camp verfrachtethatten.“ Am meisten haben sich dieEinheimischen dort wohl gewundert,als die Fremden tagelang durch dieStadt zogen und nach Damen-Ny-lonstrümpfen fragten. Des Rätsels
Lösung: Die Wissenschaftler suchten Verpackungsmaterial für Silica-Trockengel, mit dem sie technischeGeräte gegen die Feuchtigkeit schüt-zen wollten. Während die Deutschensolch „simple“ Angelegenheitenselbst vor Ort lösen konnten, warensie bei unzähligen logistischen Prob-lemen und bei den Verhandlungenmit den staatlichen Behörden auf dieHilfe ihrer brasilianischen Forscher-
kollegen angewiesen. „Vor allemPaulo Artaxo von der UniversitätSão Paulo sind wir zu großem Dank
verpflichtet. Ohne seinen Einsatzwäre das gesamte Forschungspro-gramm gefährdet“, betont Meinrat
Andreae.
EINFLUSS AUF
DEN WASSERKREISLAUF
Dies gilt auch für Andreaes Unter-suchungen zur Entstehung und Ver-teilung von Aerosolen im Amazonas-becken. Während Aerosole in Indus-trieländern vor allem bei der Ver-brennung von Treibstoffen entstehen,entwickeln sie sich in den kaum be-siedelten Gebieten Südamerikas über-
wiegend dort, wo riesige Flächen Wald der Brandrodung zum Opfer fallen. Sie bestehen aus einer stabilenSuspension fester oder flüssiger Parti-kel in Luft, können deshalb Strahlungabsorbieren, emittieren und streuenund dienen vielfach als Reaktionsme-dium, in dem sich wichtige Prozesseder Atmosphärenchemie abspielen.Schließlich haben sie erheblichenEinfluss auf den globalen Wasser-kreislauf, da sie als Kondensations-keime für Wolken- und Nebeltröpf-chen dienen. Viele klimarelevanteFragen können deshalb nur beant-wortet werden, wenn die Rolle der
Aerosole berücksichtigt wird. Während eines Waldbrands richten
sich Zusammensetzung und Mengeder entstehenden Aerosole nach der
Art des Brennmaterials und der Effi-zienz der Verbrennung. In heißen,aufsteigenden Luftsäulen werden diechemischen Gemische aus vielentausend Substanzen in die Atmo-sphäre verfrachtet und dann über weite Entfernungen transportiert.Um die Verteilung von Aerosolen im
Amazonasgebiet zu analysieren, rüs-teten die Mainzer Forscher gemein-sam mit brasilianischen Kollegen ei-ne zweimotorige Propellermaschinemit Messgeräten aus. Die Flugrouteführte die Wissenschaftler im Sep-tember 1999 von São Paulo in meh-reren Etappen tausende Kilometer über das Amazonasbecken nach
Rondônia und wieder zurück. Dabei
überquerten sie Gebiete im Südwes-ten, in denen die jährlichen Brandro-dungen bereits begonnen hatten so-wie Flächen im Nordosten, nahe der
Amazonasmündung, wo keine Feuer brannten. Vor allem dort wollten dieForscher Aerosole messen, die der Tropenwald in geringen Mengenselbst produziert. Denn wo Pflanzenwachsen, gelangen zum BeispielSporen, Bakterien und Blattabrieb indie Luft. Außerdem emittieren Pflan-zen Spurengase, die sich in der At-mosphäre in schwer flüchtige Ver-bindungen verwandeln und teilweisezu Aerosolen kondensieren.
ANALYSEGERÄTE IN
VERSCHIEDENEN HÖHEN
Um diese biogenen Aerosole auchim Wald und über einer Weideflächeanalysieren zu können, nutzten
Andreaes Mitarbeiter auch die Mess-türme in der Nähe des Camps undauf der Rinderfarm bei Ouro Preto.
Auch sie montierten Analysegerätein verschiedenen Höhen, um die ver-tikale Verteilung der Aerosole mes-sen zu können. Bei all dem konzen-trierten sich die Mainzer auf „CloudCondensation Nuclei“ (CCN), alsoPartikel, die als Kondensationskeimefür Wolken dienen. Wie erwartet fanden die Mainzer
in der Nähe der Rodungsfeuer ex-trem hohe CCN-Werte von bis zu20.000 Partikeln pro Kubikzentime-
ter Luft. „Die Sicht beträgt dann nur
ein paar hundert Meter“, berichtet Andreae, „Flugzeuge können zumTeil nicht landen und ganze Flughä-fen müssen geschlossen werden.“Überraschend waren für die Forscher dagegen die geringen CCN-Werteüber Regionen, in denen keine Flam-men loderten. „Hier haben wir ledig-lich rund 400 Wolkenkondensations-keime pro Kubikzentimeter gemessen– das widerspricht einem zentralenDogma der Wolkenphysik“, so Mein-rat Andreae.
Denn die Experten nahmen bis-lang an, dass es lediglich zweigrundsätzlich verschiedene Szenari-en gibt, die zur Bildung von Regen-wolken führen: Zum einen marineBedingungen mit sehr wenig Kon-densationskeimen (CCN-Werte um200 pro Kubikzentimeter); hier kön-nen sich nur wenige Wassertröpf-chen bilden, die dafür schnell wach-sen und dann aus geringer Höhe ab-regnen. Zum anderen kontinentaleBedingungen mit CCN-Werten ab1000; hier entstehen viele kleine
Wolkentröpfchen, die zu leicht sindum abzuregnen. Die Wolken steigendeshalb in große Höhen, das Wasser gefriert und es bilden sich geladeneTeilchen. Die Folge sind Blitzentla-dungen und kräftige Gewitterregen.„Die biologischen Aerosol-Bildungs-mechanismen im Amazonasbeckensind aber offenbar so schwach, dasswir dort eher marine Bedingungen
Schematische Darstellung der Wechselwirkung zwischen Biosphäre und Atmosphäre über den Tropunter natürlichen Bedingungen (links) und als Folge der Waldrodung und Luftverschmutzung (rec
für die Wolkenbildung haben“, sagt
Meinrat Andreae, „der Amazonas verhält sich also quasi wie ein grü-ner Ozean.“
Das Beunruhigende an diesemFund: Sind die natürlichen CCN-
Werte extrem niedrig, die durchBrandrodung verursachten aber ex-trem hoch, bedeutet dies eine maxi-male Störung des natürlichen CCN-Haushalts und damit der Wolken-bildung über dem Amazonasgebiet.„Paradoxerweise wird es aber inSüdamerika wohl kaum mehr oder weniger regnen, sehr wahrscheinlichwerden wir aber in ganz anderenGebieten der Erde die Auswirkungender Waldverbrennungen beobach-ten“, vermutet Andreae. Denn die
Wolken über Regionen nahe des Äquators gelten quasi als Motor der Atmosphäre und damit als wesent-licher Faktor, der das weltweiteKlima bestimmt.
Wissenschaftler am Max-Planck-Institut für Meteorologie in Hamburghaben bereits berechnet, wie sich die
veränderte Wolkenphysik in denTropen auswirken könnte. Sie ver-muten, dass dadurch erzeugte El-Nino-ähnliche Phänomene die Inten-sität von Niederschlägen und Stür-men weltweit beeinflussen werden.„Letztendlich kann das bedeuten,dass die Brandrodung in den Tropenauch für mehr Stürme in Europa sor-gen wird“, sagt Meinrat Andreae.
UTE HÄNSLER
Die Emission von Stickstoffmonoxid (normiert auf Stickstoff in 10-9g/m2s) in Abhängig-keit vom Alter einer Weide, die nach der ersten Brandrodung (zwischen Jahr 0 und 1)entstanden ist, berechnet mit einem bodenökologischen Modell. Der Farbcode symbolisiertdie Landnutzungsgeschichte von Fazenda Nossa Senhora Aparecida, die bei den Modell-rechnungen als repräsentativ für ganz Rondônia betrachtet wurde. Die 1999 in ReservaBiologica Jaru (RBJ) und Fazenda Nossa Senhora Aparecida (FNS) gemessenen mittlerenNO-Emissionen sind ebenfalls eingezeichnet. Hierbei repräsentiert FNS eine Weide alsFolge einer Brandrodung vor 22 Jahren und RBJ den ungestörten Regenwald.
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 40/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 79
Klima beeinflusst hat und es in Zukunft noch stärker be-einflussen wird.
Fast rituell erschien zeitgleich mit den letzten beidenIPCC-Berichten jeweils ein Buch – von international eher unbekannten Autoren und ohne wissenschaftliche Begut-achtung –, das diesen IPCC-Befund anzweifelte, da er dieSonnenaktivität nicht hinreichend berücksichtige. Der Te-nor lautete, die beobachtete Erwärmung sei auf Variatio-nen der Sonneneinstrahlung zurückzuführen, und es habeauch früher schon Warm- und Kaltzeiten gegeben, diedas, was der Mensch verursachen könne, in den Schattenstellten.
Dieser auf den ersten Blick harmlos anmutende wissen-schaftliche Disput hat handfeste politische Konsequen-
METEOROLOG
Etwa alle fünf Jahre wird vom Intergovernmental Pa-nel on Climate Change (IPCC), einer von der Weltor-
ganisation für Meteorologie (WMO) und dem Umweltpro-gramm der Vereinten Nationen (UNEP) getragenen Orga-nisation, in einem dicken Buch der Stand des Wissensüber das Klima zusammengefasst und veröffentlicht. Zudem jetzt erschienenen dritten Bericht haben hunderte
von Wissenschaftlern aus dem In- und Ausland beigetra-gen, darunter auch Forscher verschiedener Max-Planck-Institute. Wie eine wissenschaftliche Veröffentlichungdurchläuft dieser Bericht eine Begutachtungsprozedur. Er ist im Buchhandel erhältlich und kann auch über das In-ternet gelesen werden (www.ipcc.ch). Quintessenz dieses
Werkes ist, dass der Mensch seit der Industrialisierung das
78 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
SSEN aus erster Hand
Seit kurzem liegt der dritte Bericht des Intergovernmental Panel on Climate Change vor. Und so
haben sich, wie auf die beiden ersten Berichte, wieder jene Kritiker gemeldet, die den Einfluss des Menschen
auf das Klima nicht wahrhaben wollen und die beobachtete Erwärmung auf eine veränderte Sonnen-
strahlung zurückführen. Im folgenden Beitrag erläutert ULRICH CUBASCH vom MAX-PLANCK-INSTITUT
FÜR METEOROLOGIE in Hamburg, was von dieser „Solarhypothese“ zu halten ist.
Sonne, Menschund Klima
A L L E A B B . :
M P I F Ü R M E T E O R O L O G I E - C U B A S C H
/ I L L U S T R A T I O N : R O H R E R
zen: Wenn das IPCC Recht hat, dann muss man durchgeeignete Maßnahmen den Einfluss des Menschen auf dasKlima reduzieren, um es zu stabilisieren. Liegen aber die
Vertreter der Solarhypothese richtig, dann braucht dieMenschheit nichts zu unternehmen. Vor diesem Hinter-grund ist auch die „kleine Anfrage“ an die Bundes-regierung im Frühsommer dieses Jahres zu sehen(http://dip.bundestag.de/btd/14/065/1406529.pdf).
Nun ist es nicht so, wie von den Vertretern der Solar-
hypothese vermutet, dass die anderen Klimaforscher denEffekt der Sonne aus Unwissenheit vernachlässigen oder absichtlich ignorieren. Verschiedene Forschergruppen be-schäftigen sich damit schon seit langem, und ihre Er-kenntnisse sind mit in den IPCC-Bericht eingeflossen;es wird sogar explizit auf die Kritikpunkte der Vertreter der Solarhypothese eingegangen.
Um das Dreiecksverhältnis zwischen Sonne, Menschund Klima realistisch einzuschätzen, muss man zunächstdas Klimasystem und seine Komponenten betrachten. ImLehrbuch steht: Das geographische Klima ist die für einenOrt, eine Landschaft oder einen größeren Raum typischeZusammenfassung der erdnahen und die Erdoberflächebeeinflussenden atmosphärischen Zustände und Witte-rungsvorgänge während eines längeren Zeitraums – ge-kennzeichnet durch eine charakteristische Verteilung der häufigsten, mittleren und extremen Werte. Die Atmo-sphäre ist kein isoliertes System, sondern steht mit der Hydrosphäre (Ozean und Wasserkreislauf), der Kryosphäre(Eis und Schnee), der Biosphäre (Pflanzen und Tiere), der Pedosphäre (Boden) und der Lithosphäre (Gestein) in
Wechselwirkung. Diese „Sphären“ bilden die Subsystemedes Klimasystems.
Die unterschiedlichen Zeitskalen, in denen die Klima-subsysteme schwanken, bestimmen die Dynamik des Kli-masystems. Die Schwankungen des Subsystems Atmo-sphäre beispielsweise sind gemeinhin als „Wetter“ be-kannt: Wolken und Luftdruckgebiete verändern sich in-nerhalb weniger Stunden und Tage. Die Tiefenströmungs-systeme der Ozeane oder die Zustände großer Eismassendagegen wandeln sich in Zeitskalen von Jahrhundertenbis Jahrtausenden. Die Schwankungen innerhalb der Sphären sowie die gegenseitige Beeinflussung der Klima-subsysteme bezeichnet man als „Klimarauschen“. Im Kli-masystem können kleine interne Störungen durch nicht-lineare Wechselwirkungen potenziell große Wirkungenhervorrufen.
Außerdem spielen auch externe Anregungsfaktorenmit. Dazu gehören Veränderungen in der Sonneneinstrah-lung, bedingt dadurch, dass sich die Bahn der Erde um dieSonne sowie die Lage der Erdachse mit der Zeit ändern.
Auch ist die Sonneneinstrahlung zeitlich nicht konstant,sondern unterliegt Schwankungen. Und schließlich zähltder Vulkanismus zu den externen Antrieben, die in der aktuellen Klimadebatte den anthropogenen Faktoren – al-so dem zusätzlichen Treibhauseffekt und der Schadstoff-
belastung der Atmosphäre – gegenübergestellt werden.Doch wird dabei oft vergessen, die einschlägigen Zeitska-len zu berücksichtigen – und das bringt allerlei Verwir-rung in die Schlussfolgerungen.
FLECKEN IM 11-JAHRES-RHYTHMUS
Die Bahnparameter und die Lage der Erdachse unter-liegen den Gesetzen der Physik, sie bergen keine Über-raschungen. Anders die veränderliche Sonnenintensität:Schon seit dem Mittelalter weiß man, dass Sonnenfleckenin einem 11-Jahres-Rhythmus auftreten. Zahl und Größeder Flecken wurden seit dem 17. Jahrhundert regelmäßigan vielen Sternwarten aufgezeichnet. Doch zeigten erst Sa-tellitenmessungen, dass die Sonnenflecken mit der Inten-sität der Sonneneinstrahlung zu tun haben: Mit der Fleckenzahl steigt auch die Strahlungsintensität der Sonne.
Direkte Messungen der Sonnenstrahlung liefern seit et-wa 20 Jahren verschiedene Satelliten – und das unabhän-gig von Fehlern, die durch Absorption in der Atmosphäreentstehen. Schon früher hatten Aufzeichnungen der Son-nenflecken gezeigt, dass es neben dem 11-Jahres-Zyklus(Schwalbe-Zyklus) auch eine etwa 80-jährige Periodizität– den Gleissberg-Zyklus – gibt, den man auch bei son-nenähnlichen Sternen beobachtet hat. Der 11-Jahres-Zyk-lus macht eine Schwankungsbreite von etwa 0,10 Prozentder Solarkonstante aus, der Gleissberg-Zyklus etwa 0,24bis 0,30 Prozent. Und es gibt noch eine Reihe weiterer Zyklen, die man in Daten für die Solarintensität – in 14Cund 10Be-Schwankungen in Baumringen und Eisbohrker-nen – sowie bei sonnenähnlichen Sternen findet. Verschiedene Forschergruppen bemühen sich, aus den
Sonnenflecken und weiteren Parametern – etwa der Län-ge des Sonnenfleckenzyklus, der Anzahl der Sonnen-flecken, des veränderlichen Durchmessers der Sonne so-wie aus dem Vergleich mit sonnenähnlichen Sternen –und mittels solar-dynamischer Modelle die historischeund zukünftige Schwankung der Sonnenstrahlung zu
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 41/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 81
Die Sonnenstrahlungsvariationen des 80-jährigenGleissberg-Zyklus führen zu einer Variabilität der an der Erdoberfläche absorbierten Sonneneinstrahlung von 0,50bis 0,75 Watt/m2. Diese Zahl muss man im Vergleich zuder Abschätzung des Strahlungsantriebs durch das An-wachsen der anthropogenen Treibhausgase von der vor-industriellen Zeit (1850) bis heute sehen – der ungefähr 2,4 Watt/m2 (Abb. 2) ausmacht.
Berechnungen mit Klimamodellen zeigen, dass Ände-rungen im solaren Strahlungsantrieb die Oberflächen-temperatur der Erde in der Größenordnung von einigenzehntel Grad beeinflussen können. Allerdings machendiese Rechnungen auch deutlich, dass die von der Sonneausgelösten Änderungen nicht ausreichen, die beobach-tete Erwärmung des vergangenen Jahrhunderts zu repro-duzieren, sondern sie nur zu etwa 20 bis 30 Prozent er-klären. Den besten Erfolg hat man, wenn man Sonnenva-riabilität, Vulkanismus und den anthropogenen Einflussgleichermaßen berücksichtigt (Abb. 3). Eine weitere Mög-lichkeit festzustellen, inwieweit die beobachtete Klima-
METEOROLOG
sicherte wissenschaftliche Grundlage besteht. Es gibt je-doch Pläne, diese Hypothese bei CERN im Strahlenlabor zu überprüfen (Projekt CLOUD, im Internet unter:http://xxx.lanl.gov/abs/physics/0104048).
Bei den Modellierern wuchs das Interesse an der Rolleder Sonneneinstrahlung im Zusammenhang mit der Fragedes anthropogenen Einflusses auf das Klima. Man möchteüberprüfen, ob die beobachtete Klimaänderung durch die(natürlichen) Solarschwankungen oder durch menschli-che Aktivitäten hervorgerufen wurde. Diese Veränderun-gen spielen sich auf Zeitskalen ab, die länger als der 11-Jahres-Zyklus sind. Die Amplitude des 11-Jahres-Zyklus(etwa ein Drittel des 80-jährigen Gleissberg-Zyklus) sowiesein UV-Anteil (davon sieben Prozent) sind klein gegen-über den Unsicherheiten, die entstehen, wenn man dieSolarvariabilität aus Isotopen-Zeitserien des Berylliumsund Kohlenstoffs sowie den Sonnenflecken herleitet (Abb.1). Deshalb, und auch aus ökonomischen Gründen, wer-den die im vorhergehenden Abschnitt genannten Effektenicht explizit „in Rechnung gestellt“.
80 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
bestimmen. Abbildung 1 zeigt entsprechende Ergebnisse verschiedener Forschergruppen für die letzten 1000 Jahre.Sie weisen, je weiter es in der Zeit zurückgeht, deutlicheUnterschiede und sogar unterschiedliche Vorzeichen auf.
Mit diesen Solardaten kann man die Klimamodelle „an-treiben“ und die Rechnungen mit Beobachtungen verglei-chen, um sich ein Bild zu machen, wie gut die Simulatio-nen sind. Der Übersichtlichkeit halber betrachtet man je-weils die Ergebnisse für verschiedene Zeiträume.
Für die Zeit von 1980 bis 2000 liegen Satellitenmes-sungen vor, die gesicherte direkte Informationen über dieSolarvariabilität liefern, und es gibt Beobachtungen, dieeinen Effekt der Solarvariabilität auf die Zirkulation der hohen Atmosphäre beschreiben. So fand man, dass in al-len Monaten des Jahres in der geopotenziellen Höhen-fläche der unteren Stratosphäre – in der Schicht von 16bis 30 Kilometer Höhe – südlich von ungefähr 50 GradNord ein konsistentes Muster auftritt, das sich im 11-Jah-res-Zyklus der Sonnenflecken hebt und senkt. Dieses
Muster verschiebt sich mit den Jahreszeiten in Richtungder Meridiane, also der Längenkreise. Die Stratosphärereagiert auf die schwankende Sonnenstrahlung in Ab-hängigkeit von der Phasenlage der QBO (quasi-biannualoscillation: einer Windumkehrung in der Stratosphäre miteiner annähernd zweijährigen Periode) unterschiedlichstark. In der östlichen Phase der QBO ist der Effekt stärker als in der westlichen Phase.
Am Boden lässt sich eine Temperaturvariation mit dem11-Jahres-Zyklus nicht sicher nachweisen; doch gibt es
Anzeichen, dass die geänderte Stratosphäre die Tropo-sphäre beeinflusst. Auch im Ozean finden sich Hinweiseauf eine Wirkung des 11-jährigen Sonnenflecken-Zyklus.
Um diese Effekte wirklichkeitsnah „nachzuspielen“,muss man die Klimamodelle mit einer hoch auflösendenDarstellung der Stratosphäre versehen. Derartige Modelle,die jüngst auch die QBO simulieren, wurden in den ver-gangenen Jahren entwickelt. Sie stellen extreme Anforde-
SSEN aus erster Hand
rungen an die Großrechner, sodass man bisher nur Ein-zelfälle durchrechnen konnte.
Eine positive Rückkopplung und damit eine Verstär-kung des solaren Signals wird derzeit in der Fachliteratur diskutiert, und dazu liegen erste Modellergebnisse vor: InZeiten mit überdurchschnittlicher Sonneneinstrahlung
verschiebt sich das Spektrum des Sonnenlichts in denUV-Bereich. Das führt zu einer deutlichen Erwärmung der Stratosphäre infolge der verstärkten Absorption der UV-Strahlung durch das stratosphärische Ozon. Gleichzeitigentsteht zu Zeiten erhöhter UV-Strahlung auch mehr Ozon, das wiederum mehr Sonnenstrahlung absorbiert.Insgesamt verändert dieser Effekt die Vertikalstrukur der
Atmosphäre und beeinflusst damit nicht nur die strato-sphärische, sondern auch die troposphärische Zirkulation,was für längerfristige Wetterprognosen von Bedeutungsein kann.
INTERAKTIVES C HEMIEMODELL
Um diesen Effekt vollständig zu erfassen, muss man eininteraktives Chemiemodell und eine spektral hoch auflö-sende Strahlungsparameterisierung an die Klimamodelleankoppeln. Das wird derzeit in einigen Forschungslaborsdurchgeführt und vom Bundesforschungsministerium imProgramm AFO 2000 unterstützt.
Ein heftig diskutiertes Problem stellt der Einfluss voninterstellaren Teilchenströmen dar, die von der Son-nenaktivität abhängen. Einige Veröffentlichungen zeigen,dass diese Teilchenströme auf die Bewölkung wirken unddamit das Klima beträchtlich – mit etwa 1,5 Watt/m2 –beeinflussen könnten. Andere Publikationen stellen dieseHypothese in Frage, denn der dahinter vermutete physi-kalische Mechanismus konnte bisher nicht nachgewiesenwerden. Auch ist die Korrelation zwischen Temperaturän-derung und Sonnenzyklus in den vergangenen fünf Jah-ren schwächer geworden. Der Teilcheneffekt wird zurzeitnicht in Modellen berücksichtigt, da dafür noch keine ge-
Abb. 1: Beispiel für Rekonstruktionen der solaren Variabilität (Abweichung vom Mittelwert), die auf Messungen von Isotopen des Kohlen-stoffs und des Berylliums beruhen. Sie werden ab Mitte des 17. Jahrhunderts durch die Rekonstruktionen aus Beobachtungen der Sonnen-flecken und in den vergangenen 20 Jahren durch direkte Satellitenmessungen ergänzt. Man sieht deutlich, dass die Rekonstruktionenumso weiter auseinander laufen, je weiter man in der Zeit zurückgeht, und dass sogar Unterschiede in den Vorzeichen auftreten.
Abb. 2: Die Strahlungsantriebe des Klimasystems für das Jahr 2000, relativ zum Jahr 1750: Änderungen in den Strahlungsantrieben rührenvon Änderungen in der Zusammensetzung der Atmosphäre, in der Landnutzung und der Sonneneinstrahlung her. Menschliche Aktivitätenbeeinflussen jeden dieser Faktoren – mit Ausnahme der Sonnenaktivität. Die Balken geben den Beitrag der einzelnen Faktoren zum Antrieban: Einige bewirken eine Erwärmung, einige eine Abkühlung. Änderungen des Antriebs durch Vulkanismus sind nur episodisch, erzeugen alsoeine nur wenige Jahre dauernde Abkühlung und werden deshalb hier nicht gezeigt. Die vertikale Linie an jedem Balken zeigt die Unsicher-heit der Abschätzung. Der wissenschaftliche Erkenntnisstand für die verschiedenen Antriebsfaktoren ist unterschiedlich hoch.
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 42/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 83
METEOROLOG
82 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
SSEN aus erster Hand
änderung anthropogenen oder solaren Ursprungs ist, bie-tet die „Fingerabdruck-Methode“. Sie bedient sich des Um-stands, dass der Treibhauseffekt ein etwas anderes Erwär-mungsmuster in der Horizontalen und der Vertikalen er-zeugt als eine vermehrte Sonneneinstrahlung. Und auchhier zeigt sich deutlich, dass in den vergangenen Jahr-zehnten das anthropogene Muster überwog.
So kommt das IPCC zu der Schlussfolgerung: „The ba-lance of evidence suggests a discernible human influenceon global climate.“ Und weiter: „In the light of new evi-dence and taking into account the remaining uncertain-ties, most of the observed warming over the last 50 yearsis likely to have been due to the increase in greenhousegas concentrations.“
Mittlerweile sind die Rechenanlagen so schnell gewor-den, dass man die Modelle, mit denen man vor fünf Jah-ren die 100-jährigen Klimahochrechnungen durchgeführthat, auch für die Simulation des Klimageschehens der letzten 1000 Jahre einsetzen kann. Man geht davon aus,
dass zu Beginn dieses Zeitraums der Einfluss des Men-schen, global gesehen, gering war. Zwar gibt es keine
direkten Temperaturmessungen, doch eine Vielfalt von Aufzeichnungen (Ernteerträge, Deichreparaturkosten, Se-gelzeiten von Schiffen) sowie Proxy-Daten (also etwaBaumringe oder Sedimentbohrkerne), aus denen man dashistorische Klima rekonstruieren kann. Eine in diesemJahr erschienene Arbeit präsentiert eine Berechnung desKlimas der vergangenen 1000 Jahre mit einem eindimen-sionalen Klima-Modell, wobei die Sonnenaktivität undder Vulkanismus, beide aus Proxy-Daten hergeleitet, als
Antrieb vorgeschrieben werden. Mit diesem Modell istman in der Lage, die globale Temperaturentwicklung zusimulieren (Abb. 4).
DREIDIMENSIONALE S IMULATIONEN
Diese Antriebsdaten werden in dem Projekt KIHZ(Klimaänderungen in historischen Zeiten) der Helmholtz-Gesellschaft unter Federführung des GKSS-Forschungs-zentrums und mit Beteiligung des Max-Planck-Institutsfür Meteorologie genutzt, um ein volles dreidimensiona-
les Klima-Modell anzutreiben. Das gestattet unter ande-rem, die europäische Temperaturverteilung am Ende des
Maunder-Minimums realistisch zusimulieren. Eine wesentliche Ursa-che dieser kleinen Eiszeit scheintim Wechselspiel zwischen Solar-
variabilität, Vulkanismus und At-mosphäre-Ozean-Meereis-Kopp-lung zu liegen.
Derartige dreidimensionale Si-mulationen bieten eine Möglich-keit, vereinzelte Proxy-Daten zu-sammenzufassen und globale Kli-mazusammenhänge in zeitlicher
Abfolge darzustellen. Sie sind da-mit nicht nur für die Klimafor-
scher und Geologen, sondern auch für die Geschichtswis-senschaftler interessant.
Rechnet man noch weiter in die Erdgeschichte zurück,so muss man auch die Änderung der Erdbahnparameter sowie die Kontinentaldrift berücksichtigen. Und es gehtum die Frage, welche Rückkopplungsmechanismen zu-sammenspielen müssen, um aus den Strahlungsänderun-gen große Klimaschwankungen wie zum Beispiel Eiszei-ten zu erzeugen. Bisher hat man mit den vollen komple-xen Modellen nur Episoden (zum Beispiel 1000 JahreEem, also die letzte Warmzeit vor 130.000 Jahren) rech-nen können; mit weniger komplexen Modellen lässt sichwegen fehlender Prozesse der Klimaablauf nicht vollstän-dig nachbilden. Auch hier stellt sich das Problem vonpunktuellen Proxy-Messdaten, die man gerne mit einemdreidimensionalen Modell zusammenfassen möchte. Der Rechenaufwand ist erheblich, andererseits aber vergleich-bar mit Aufwendungen für geologische Messkampagnen.Eine Überlegung ist, durch Modell-Rechnungen die geo-logische Datenerfassung zu optimieren. Häufig wird inder Diskussion über den Klimawandel derzeitiges und
zukünftiges Klima verwechselt. Um die zukünftige Klima-entwicklung zu berechnen, wurden so genannte Szenari-en entworfen, die das Bevölkerungswachstum, die Indust-rialisierung sowie den Energieverbrauch und Energiemixder nächsten 100 Jahre prognostizieren. Diese Abschät-zungen rechnet man in Änderungen von Treibhausgas-konzentrationen um, mit denen man dann die Klimamo-delle „füttert“. Die derzeit gültigen, von einer UN-Tochter-organisation herausgegebenen Szenarien liefern je nachihren unterschiedlichen Vorgaben Temperaturprojektio-nen von 1,4 bis 5,8 Grad Celsius über dem derzeitigenNiveau (Abb. 4). Der Maximalwert dieser Projektionenliegt um fast eine Größenordnung höher als das, was die
Vertreter der Solarhypothese für die solaren Effekte der vergangenen 100 Jahre veranschlagen (etwa 0,6 GradCelsius), und er übersteigt auch das, was man für die
Warmzeit im Mittelalter rekonstruiert hat. Man kann alsoaus den Unsicherheiten in der Berücksichtigung der Son-nenintensität kein Argument dagegen ableiten, Maßnah-men zur Stabilisierung der Treibhausgase zu ergreifen.
Im Rahmen der Forschungen zur anthropogenen Kli-mabeeinflussung zeigte sich schon vor Jahren, dass manauch mehr über die Sonnenvariabilität und ihre Auswir-kungen auf das Klima wissen muss. Es wurden deshalbForschungsinitiativen entwickelt, um den Schwankungender Solarintensität auf die Spur zu kommen, so etwadurch weitere Satelliten-Messungen, durch verbesserteSonnen- und Klimamodelle sowie durch vermehrteSammlung von Proxy-Daten.
Dank des vom BMBF finanzierten Ausbaus des Deut-schen Klimarechenzentrums wächst inzwischen auch dieLeistung der Rechner. Das macht es möglich, die Strato-sphäre in Modellen feiner aufzulösen, die Chemie interak-
DR. HABIL. ULRICH CUBASCH leitet die Gruppe
„Modelle und Daten“ am Max-Planck-Institut
für Meteorologie in Hamburg. Sein Interesse gilt
der Aufgabenstellung, historische und aktuelle
Klimaschwankungen mittels dreidimensionaler
Modelle des Klimasystems möglichst realistisch
zu berechnen und diese Modelle dazu zu nutzen,
um Hochrechnungen für die zukünftige Klima-
entwicklung durchzuführen. Cubasch war feder-
führend an der Erstellung der IPCC-Berichte der Arbeitsgruppe I –
„The scientific basis of climate change“ beteiligt – und ist Mitautor
des Buchs „Anthropogener Klimawandel“. Die Gruppe „Modelle
und Daten“ ist ein vom BMBF gefördertes Projekt zur Unterstützung
der Klimaforschung in Deutschland.
Abb. 3: Man kann Klimamodelle nutzen, um getrennt die Tem-peraturänderungen zu berechnen, die durch natürliche oder anthro-
pogene Ursachen hervorgerufen werden. Abb. 3a zeigt nur die na-türlichen Antriebe, also die solare Variabilität und den Vulkanismus.
Abb. 3b weist die anthropogenen Anteile (Treibhausgase und Sul-fat-Aerosole) aus. Abb. 3c stellt sowohl natürliche als auch anthro-pogene Faktoren dar. Das blaue Band gibt die Modellhochrechnun-
gen einschließlich einer Abschätzung ihrer Unsicherheiten wieder,die rote Kurve den beobachteten Klimaverlauf. Man erhält die beste
Annäherung an die Beobachtungskurve, wenn man sowohl anthro-pogene als auch natürliche Antriebsfaktoren berücksichtigt.
Abb. 4: Die Änderung der global gemittelten bodennahenLufttemperatur in Bezug auf das Jahr 1990. Vom Jahr 1000bis zum Jahr 1860 wurde nur die Nordhemisphäre gemittelt,da für die Südhemisphäre keine Daten vorliegen. Die Datenfür diesen Zeitraum wurden aus Baumringen, Korallen, Eis-
bohrkernen und historischen Überlieferungen abgeleitet.Die rote Linie zeigt das 50-Jahres-Mittel, das graue Band das
95-Prozent-Vertrauensintervall der Jahresdaten. Von 1860bis 2000 sieht man die mit Instrumenten gemessenen Werte,die rote Linie zeigt das 10-Jahres-Mittel. Vom Jahr 1990 biszum Jahr 2100 wird die Temperaturhochrechnung für sechs
Standard-SRES-Szenarien sowie das IS92a-Szenarium desvorletzten IPCC-Berichts gezeigt, die auf einem Modell
mittlerer Klimasensitivität beruhen. Das graue Band mit derBezeichnung „alle Szenarien, alle Modelle“ zeigt die
Ergebnisbandbreite, wenn man alle 35 SRES-Szenarien undalle unterschiedlichen Modelle in Betracht zieht. Ebenfalls
eingezeichnet: Das Ergebnis zweier Simulationen mit einemEnergiebilanzmodell (blaue und beige Kurve), die verschiedene
Abschätzungen (14C, 10Be) für solare Schwankungen und Vulkanismus sowie die beobachtete CO2-Konzentration alsEingangsparameter nutzen. Man erkennt deutlich die durch
Vulkanismus ausgelösten kurzzeitigen negativen Temperatur-abweichungen sowie den Anstieg Ende des 20. Jahrhunderts.
tiv zu errechnen und längere Simulationen durchzu-führen. Verschiedene BMBF-Projekte (AFO 2000, DE-KLIM), ferner EU-Projekte sowie das HGF-Projekt KIHZbringen die Modellierer und Geologen zusammen undschaffen damit die Voraussetzungen, die Klimaproblema-tik interdisziplinär anzugehen. Außerdem werden Projek-te geplant, die das Zusammenspiel des interstellaren Teil-chenflusses mit dem Klima ergründen wollen.
Es werden noch einige Jahre vergehen, ehe zu allenFragen in Sachen Klima, Sonne und Mensch gesicherte
Antworten vorliegen. Auch auf diesem Forschungsfeld,wie in jeder Wissenschaft, müssen immer wieder Einzel-ergebnisse und Arbeitshypothesen hinterfragt werden.Die naive – oder bewusste? – Missinterpretation solcher kritischer Forschung sowie die Verwechslung von „Hypo-thesen“ mit „Fakten“ hat in letzter Zeit zu einiger Verwir-rung geführt und den falschen Eindruck erweckt, die Kli-maforschung und ihre Erkenntnisse seien als Ganzes inFrage zu stellen.
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 43/59
ONGRESSbericht
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 85
PsychoLINGUIST
84 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
„Computer, sag’ mir alles überden Planeten Erde!“ In der
Fernsehserie „Raumschiff Enterprise“erteilt Captain Kirk seinen Bordgerä-ten Befehle per Zuruf. Maus und Tas-tatur sind überflüssig. IntelligenteComputer, die unsere Sprache verste-hen und mit Menschen problemlossprechen können, haben nicht nur Fernsehproduzenten und Filmema-cher wie Stanley Kubrick in Bann ge-schlagen, dessen legendäre Denkma-schine „HAL“ in „2001: Odyssee im
Weltraum“ den Menschen von denLippen lesen konnte und zum Leid-wesen der Astronauten bald auch einEigenleben entwickelte.
Was lange Zeit als kühne Visiongalt, beginnt allmählich Wirklichkeitzu werden. Für die automatischeSpracherkennung und für dieSprachsynthese, also die künstlicheSpracherzeugung, interessieren sichneben den Forschern auch Wirt-schaftsunternehmen. Die Erwartun-gen an neue Technologien sind groß:Spracherkennung sei „die Zukunftdes Computers“ hat Microsoft-Grün-der Bill Gates unlängst verkündet.Doch bei aller Euphorie über Wachs-tumschancen und Wissensgewinnmüssen sich die Wissenschaftler ein-gestehen: Von menschlicher Sprach-
kompetenz sind die Maschinen nochein gutes Stück entfernt.
Solange es keinen intelligenten, verständigen Computer wie „HAL“gibt, müssen die Maschinen bei denMenschen in die Lehre gehen. DasErstaunliche dabei ist: Sie müssengenau die Sprachsysteme lernen, diesich kleine Kinder im Alter von we-nigen Monaten scheinbar mühelosaneignen. Das erste, was Kleinkinder
verstehen lernen, sind Sprachlaute,die einfache Wörter wie „Mama“oder „Papa“ bilden. Schon bald er-kennen Kinder unbewusst, dass die
Aussprache dieser ganz elementaren Äußerungen auf bestimmten Sprach-mustern beruht. Auch wenn es nichtdie Mutter ist, die ein Wort aus-spricht, sondern ein Fremder, kön-nen Kinder das Wort „Mama“ erken-nen – ganz egal, wer das Wort aus-spricht. Ein solches Muster („M-a-m-a”) muss zu allen möglichen Aus-sprachevarianten passen, egal, obder Sprecher nun einen sächsischen,schwäbischen oder bayerischen Dia-lekt hat – solange die Dialekte nichtzu extrem sind. Andernfalls kann dieÜbersetzung der akustischen Signalein sinnvolle Wort- und Satzeinheitennicht funktionieren.
Schon ein so scheinbar einfacher Befund stellt die Wissenschaftler, diesich mit automatischer Spracherken-nung befassen, vor erhebliche Prob-leme. Im Zeitalter der globalisierten
Welt verändert sich unsere Sprachetäglich; gleichzeitig wird es immer wichtiger, rasch miteinander zukommunizieren und Sprachbarrierenzu überwinden. Menschliche undmaschinelle Spracherkennung spieltdabei eine erhebliche Rolle, wennwir wissen wollen, wie Spracherken-nung eigentlich funktioniert. Erst-mals haben deshalb rund 40 Wis-senschaftler ganz unterschiedlicher Fachrichtung auf Einladung desMax-Planck-Instituts für Psycholin-guistik im niederländischen Nijme-gen drei Tage lang über das Thema„Spracherkennung als Klassifizie-
rung von Mustern“ diskutiert. Diespannende Frage vor Beginn der Konferenz war: Gibt es überhauptGemeinsamkeiten zwischen Linguis-ten, Psychologen, Ingenieuren, Tech-nikern und Computerspezialisten, diesich allesamt mit Teilaspekten der Spracherkennung beschäftigen?
ALLE LERNEN
VONEINANDER
Das Ergebnis der Konferenz in Nij-megen ist ermutigend. Wissenschaft-ler, die sich ausschließlich mit auto-matischer Spracherkennung beschäf-tigen, können von ihren Kollegen,die auf menschliche Hörer speziali-siert sind, eine Menge lernen. Umge-kehrt lässt sich das Gleiche feststel-len. Der Psycholinguist Roel Smits,der am Max-Planck-Institut in Nij-megen forscht und das Treffen mit-organisiert hat, fasst ein Ergebnis der Tagung zusammen: „Seit den achtzi-ger Jahren gab es einen hohen Gradder Spezialisierung in der Spracher-kennungsforschung. Jetzt ist die Dis-kussion zwischen den Fachbereichenwieder in Gang gekommen.”
In Nijmegen wurde deutlich, dassdie Wissenschaftler eine gemeinsameBasis haben. Die Forscher stimmendarin überein, dass Sprache nur funktioniert, wenn es bestimmte
Wahrscheinlichkeiten und Regelngibt, die Sprecher und Hörer glei-chermaßen verstehen. Erst mithilfe
ache funktioniert nur, weil es bestimmte Wahrscheinlichkeiten und Regeln gibt, die Sprecher und
rer gleichermaßen verstehen. Erst mithilfe dieser grundlegenden Muster kann der Mensch einzelne
te zu Wörtern zusammensetzen und den Sinn erkennen. So lautet die zentrale These der rund
Wissenschaftler, die sich auf Einladung des MAX-PLANCK-INSTITUTS FÜR PSYCHOLINGUISTIK
holländischen Nijmegen zum Workshop „Spracherkennung als Klassifizierung von Mustern“ trafen.
Wenn der Computer
aufs Wort gehorcht
F O T O : D E F D - M O V I E S
Mann und Maschine, insGespräch vertieft: Was inStanley Kubricks Science-
Fiction-Film „2001: Odyssee imWeltraum“ noch ein Gedanken-spiel war, wird nun Wirklichkeit.
Computer, die menschlicheKommunikation immer besser
verstehen, sollen in dennächsten Jahren auf den Markt
kommen. Linguisten habenentdeckt, dass maschinelle
Spracherkennung nach dengleichen Mustern wie beim
Menschen funktioniert.
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 44/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 87
PsychoLINGUIST
86 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
ONGRESSbericht
dieser Regeln kann der Empfänger
einer sprachlichen Äußerung einzel-ne Laute zu Wörtern zusammenset-zen und den Sinn erkennen. Der Schritt vom Muster zu einer Katego-rie ist für jeden, der sich eine Spra-che aneignet, das Ergebnis vielerErfahrungswerte. Das gilt für Men-schen wie für Maschinen. KleineKinder etwa müssen akustische Sig-nale immer wieder hören, bis sie
Worte und später ganze Sätze verste-hen und irgendwann eigenständigbilden können: Sie lernen, einzelneMuster („b“, „a“, „l“) einer bestimm-ten Kategorie („Ball“) zuzuordnen.Grundlage sind Wahrscheinlichkei-ten, nach denen schon Kinder lernen,Kategorien zu bilden. „Menschensind geborene Statistiker“, sagt RoelSmits.
COMPUTER
WERDEN GEFÜTTERT
Etwas ganz Ähnliches macht einSpracherkennungscomputer. Damiteine Maschine sprachliche Muster und Kategorien erkennen kann, musssie mit einer gewissen Datenmenge„gefüttert“ worden sein. Viele hun-dert Stunden an Aufnahmen sindnötig; dabei müssen sprachliche
Äußerungen unterschiedlicher Spre-cher abgespeichert werden. Die Ma-schine soll schließlich in der Lagesein, genau das zu leisten, was einMensch täglich leistet: Etwa imStimmengewirr eines Kaufhauses
einen bestimmten Sprecher heraus-
zufiltern. Oder einen nuschelndenGesprächspartner zu verstehen. Undwas ist mit einer im Flüsterton ge-haltenen Liebeserklärung? Auch die-se muss der Sprachcomputer erken-nen, wenn er es mit den Menschenaufnehmen will. Im Wettlauf zwi-schen Mensch und Maschine sindErstere noch immer klar im Vorteil:
„Hörer passen sich schnell an eine veränderte Umwelt an. Maschinenreagieren dagegen sensibel auf einenSprecherwechsel oder ein veränder-tes Sprechtempo. Sie lassen sich zusehr durch Hintergrundgeräuscheablenken“, sagt der Linguist Smits.
Maschinen, die den natürlichenRedefluss verstehen und sprachlicheEigenheiten wie Akzente oder Dia-lekte erkennen, sind schon verfüg-bar, aber noch stark verbesserungs-fähig. Der Markt für solche Pro-gramme ist zweifellos vorhanden:
Amerikanische Unternehmen versu-chen bereits, mittels automatischer
Spracherkennung Kosten zu kürzenund Personal zu sparen. Wenn solche
Voice-Systeme einmal reibungslosfunktionieren, werden teure Call-Center der Vergangenheit angehören,und die Telefonistin, zu Beginn des20. Jahrhunderts ein Symbol deskommunikativen Fortschritts, wäreendgültig Geschichte. Stattdessen
würden Sprachcomputer detaillierteKundenwünsche bearbeiten, Bestel-lungen aufnehmen, Fragen beant-worten, Beschwerden abwickeln –und dabei nie die Geduld verlieren.
Schon jetzt gibt es erste Systeme,die auf automatischer Spracherken-nung basieren: Wer etwa in denNiederlanden eine Zugverbindungbuchen will, spricht mit einer Ma-schine, die mit freundlicher Stimmedie Bestellung entgegennimmt. Nur wenn die automatische Bestellungauch beim zweiten Versuch nichtgeklappt hat, greift ein Mitarbeiter zum Hörer. Offenbar funktioniert der
Dialog zwischen Mensch und Ma-schine nur in sehr engen sprachli-chen Bahnen.
DIE KONKURRENZ
DER WÖRTER
Noch ist es notwendig, sich mitGrundlagenforschung zu beschäfti-gen, wie bei der Tagung in Nijmegendeutlich wurde. Denn von der Flexi-bilität menschlicher Hörer könnendie Maschinen viel lernen. Ein Bei-spiel dafür lieferte der Sprachwissen-schaftler Gareth Gaskell von der University of York. Gaskell be-schrieb, wie Erwachsene neue Wörter in ihr Vokabular einfügen. Folgt manseinen Annahmen, dann funktioniertSpracherkennung beim Menschenfast so wie bei einem digitalen Lexi-kon, das mit einer Suchmaschine ar-beitet. Wenn ein Hörer nur den An-fang eines Worts wahrnimmt, wer-den gleichzeitig alle Wörter, die mitdiesem Laut beginnen, aktiviert – siekonkurrieren in diesem frühen Stadi-um miteinander. Die Silbe „spek“ ak-tiviert etwa die Wörter „Spektakel“,„Spektrum“, „Spekulant“ oder „Spe-kulatius“. Diese Wörter werden erstdeaktiviert, wenn der Input nichtmehr zur gespeicherten Form passt.Folgt nach der Silbe „spek“ ein „u“,so bleiben nur noch „Spekulant“ und„Spekulatius“ übrig. Dies alles läuftim Gehirn des Hörers in Sekunden-bruchteilen ab. Der Kreis der mögli-
chen Wörter wird immer enger, bisdas richtige Wort identifiziert ist.
Ähnlich arbeiten im Prinzip auchSprachcomputer: Sie berechnen beider Worterkennung die Wahrschein-lichkeit, dass eine bestimmte Laut-folge ein Wort ergibt. Eine Vielzahllexikalischer Varianten wird dabeiständig als unwahrscheinlich ver-worfen und ausgeschlossen. Wie aber werden nun neue Wörter
in diesen lexikalischen „Wettbewerb“eingeführt? Was geschieht, wenn einneues Wort mit denselben Lauten be-ginnt wie ein bereits existierendes?Gareth Gaskell fand heraus, dass eszunächst einmal keine Konkurrenzgibt, sofern der Hörer das neue Wortnicht mehrere Tage hintereinander hört. Der vorhandene Wortschatzpasst sich nur allmählich an neueEingaben an – wahrscheinlich, umzuvor gelernte Wörter gegen eineübermäßige Beeinträchtigung zuschützen. James McQueen und AnneCutler vom Max-Planck-Institut für Psycholinguistik fanden andererseitsBeweise dafür, dass Hörer ihre Krite-rien für die Identifizierung vonSprachlauten immer wieder flexibelanpassen, wenn die Umstände daserfordern.
Eine Testreihe im Sprachlabor brachte Gewissheit: Die Hälfte der Probanden hörte einen Laut, der
Es gibt ihn nicht, den perfekten Spracherkennungscomputer – aber mit viel Übung sinktdie Fehlerquote kontinuierlich. Nach dieser von Anne Cutler und Roger Moore erstelltenBerechnung müsste das Programm zehn Millionen Stunden lang mit Daten gefüttert werdenum bei der Spracherkennung eine Fehlerquote unter einem Prozent zu erreichen. Die obereLinie zeigt den Versuchsverlauf mit ungefilterten Daten aus der Alltagskommunikation, beieinem weiteren Test war das Trainingsmaterial selektiert, die Fehlerquote daher geringer.
zweideutig zwischen „s“ und „f“ amEnde einer Reihe von Lauten wie„kara-“ vorkam, was dem niederlän-dischen Wort „karaf“ (Karaffe)ähnelt. Sie hörten auch eindeutige„s“-Laute am Ende von Wörtern wie„karkas“ (Kadaver). Die andere Hälfteder Versuchspersonen hörte das Ge-genteil: ein eindeutiges „f“ in Wör-tern, die mit „f“ enden wie „karaf“ –und den zweideutigen Laut am Endeder Reihe wie „karka-“. Der Kontrastzwischen den zweideutigen Lauten„s“ oder „f“ und die Kenntnis nieder-ländischer Wörter bei den Hörern
veranlasste die erste „f“ zu hören,während die zweite Gruppe ein „s“
vernahm.
HÖRER SIND TOLERANT
UND FLEXIBEL
Das Ergebnis zeigt: Eine radikale Veränderung in der Aussprache einesSprachlauts, der ein Wort von einemanderen unterscheidet, stellt den Hö-rer vor keine Schwierigkeiten, soferner genug Informationen bekommt,um den Laut in ein bestehendes Worteinzureihen. Hörer – das wurde inNijmegen in mehreren Vorträgenklar – tolerieren unterschiedliche
Aussprachen von existierenden Wör-tern und sie passen sich an neueSprachäußerungen an. Sie habenschon so viele verschiedene Aus-
Linguisten vom Max-Planck-Institut für Psycholinguistik haben dieFehlerquoten bei verschiedenen Textsorten verglichen und herausgefunden,dass menschliche Hörer den Maschinen noch immer weit überlegen sind,selbst bei realitv einfachen Aufgaben wie dem Erkennen von Zahlenreihen.
Sprachcomputer zeichnen menschliche Äußerungen spektrografisch auf. Die drei Wörter„votes or something“ sind an ihrer Frequenz erkennbar, die dunklen Stellen weisen aufdie Vokale hin. Der Sprecher – das zeigt das Spektrogramm – hat allerdings die Worte nurkryptisch ausgesprochen: „votes ‘r som’ing“. Solche Verschleifungen stellen Spracherken-nungsprogramme vor riesige Herausforderungen. Empfindlich reagiert der Computerauch auf unregelmäßige Sprechpausen.
Zeit
v o tes (o)r s o m(eth)i ng
F r e q u e n z
A B B . :
M P I F Ü R
P S Y C H O L I N G U I S T I K
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 45/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 89
PsychoLINGUIST
88 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
ONGRESSbericht
sprachen gehört, dass sie leicht undschnell eine neue Verbindung zwi-schen einem Signalmuster und einer gespeicherten Kategorie herstellenkönnen.
Um mehr über das Wesen der Spracherkennung zu erfahren, müs-sen die Wissenschaftler das Systemin ihrer Entstehungsphase beleuch-ten. Schon sehr kleine Kinder lernen,Sprachsignale nach Muster und Ka-tegorien zu ordnen. Linguisten kön-nen die Reaktion von Babys testen,indem sie das Saugverhalten der Probanden beobachten. Dazu wirddas Kind im Sprachlabor verschiede-
nen Lauten ausgesetzt. Wenn dasBaby etwa den Wechsel in der Abfol-ge „da da da“ und „pa pa pa“ ver-standen hat, saugt es automatischschneller. Über komplizierte Ver-suchsanordnungen lassen sich diekindlichen Reaktionen elektronischmessen. Bei einem anderen Versuch
sitzen die Kinder vor Bildschirmen,auf denen Begriffe wie „Blume“ oder „Ball“ auftauchen. Wird das passen-de Wort von einem Sprecher artiku-liert, können die Forscher an der Blickrichtung der Kinder sehen, obsie die Worte verstehen oder nicht.
VERTRAUTHEIT
STEUERT LERNEN
Im Alter von sechs bis zwölf Mo-naten werden Kinder für unter-schiedliche Laute empfänglich. Siekönnen den Klang der Wörter verste-hen – vorausgesetzt, der Sprecher istihnen vertraut. Schwierigkeiten tra-
ten im Versuch immer dann auf,wenn die Wörter von unterschiedli-chen Personen gesprochen wurden.
Wird ein bereits bekanntes Wort so-fort von einem zweiten Sprecher wiederholt, dann können es bereitssieben Monate alte Kinder verstehen.Der Wiederholungseffekt hat funk-
tioniert. Experimente zeigen aber auch: Liegt zwischen den Äußerun-gen desselben Worts ein Tag, kanndas Kind dieses Wort nicht mehr er-kennen, weil es den zweiten Spre-cher nicht kennt. Es ist auf eine ganzbestimmte Stimmfrequenz gepolt.
Menschen lernen also in der frühen Kindheit, Sprachsignale zuentschlüsseln und diese Signale zueinem sinnvollen Ganzen zusam-menzusetzen. Bis das Puzzle gelöstist, vergehen einige Jahre. AuchSprachcomputer benötigen eine sol-che Lernphase. Um eine Maschinedazuzubringen, erst Laute, dann
ganze Wörter und Sätze und zuletztTexte zu erkennen, müssen die Wis-senschaftler Algorithmen entwerfen– das sind komplizierte Zeichenrei-hen, die nach einer mathematischenLogik funktionieren. Das Sprachsig-nal wird dabei digitalisiert und in ei-ne Form gebracht, die ein Computer
verarbeiten kann. Aus jedem Lautmuss die Maschine ein Referenzmus-ter erzeugen, sie muss akustischeEinheiten bilden. Diese Lautsignalewerden in einem weiteren Schrittin Worte umgewandelt. Technischfunktioniert das, vereinfacht gesagt,indem der Computer bereits beste-hende Frequenzdiagramme ständigmit den gerade erkannten akusti-schen Signalen abgleicht.
Übung macht den Meister – dasgilt auch für die Sprachmaschine. Jebesser ein Erkennungssystem trai-niert ist, desto weniger Fehler passie-ren. Viele der bisher auf dem Markt
erschienenen Programme basierenallerdings meist auf einem relativ bescheidenen Wortschatz. Sie kön-nen nur ganz bestimmte Arten vonInformationen verstehen – etwa ein-fache Bestellungen. „Wenn Sie reser-
vieren wollen, dann sagen Sie bitte„eins“, wenn Sie einen Mitarbeiter sprechen wollen, sagen Sie „neun“:Nach diesem Muster funktioniert diederzeit gängige Form der Spracher-kennungsprogramme, die man alsKommando-Empfänger bezeichnenkönnte. Wesentlich größer ist der
Wortschatz von automatischen Dik-tiergeräten, die allerdings einen ent-scheidenden Nachteil haben: Sie sindfast immer auf einen individuellenSprecher eingestellt und reagierenäußerst empfindlich, wenn dieStimmfrequenz plötzlich wechselt.Um unbekannte Sprecher zu verste-hen, muss die Maschine ein Vielfa-ches an Trainingseinheiten absolvie-ren. „Automatische Spracherken-nung basiert auf Statistik“, sagt RoelSmits, „je mehr Daten, desto genauer das Verständnis.“
Menschen sind offenbar besser inder Lage, die sprachlichen Nuanceneines Alltagsgesprächs zu erkennenund phonetischen Fallstricken ausdem Weg zu gehen. Gerade die deut-sche Sprache ist voller Mehrdeutig-keiten. Homophone – also gleichklingende Wörter – sind häufig, wasFremdsprachler vor große Probleme
stellt. Um die Unterscheidung zwi-schen dem Adjektiv „viel“ und dem
Verb „fiel“ zu verstehen, muss der Computer den Kontext begreifen.
Ähnliche Schwierigkeiten machenDoppelpaare wie „Meer/mehr“,„wieder/wider“ oder „Lerche/Lärche“.Selbst Muttersprachler sind da oft ir-ritiert, Spracherkennungsprogrammeerst recht.
Es gibt aber auch Bereiche, in de-nen Maschinen den Menschen schonheute überlegen sind. Bei der bloßenIdentifizierung von unbekanntenSprechern können Computer be-stimmte Signale sehr präzise ent-
schlüsseln. Die Gefahr, sich vonStimmenimitationen überrumpeln zulassen, ist bei ihnen fast ausge-schlossen: Die Frequenzdiagrammesprechen eine klare Sprache. Kein
Wunder, dass automatische Sprach-erkennung und vor allem Sprech-erkennung in der Kriminologie eineimmer wichtigere Rolle spielen.
THEORIE IST
DER P RAXIS VORAUS
Doch was das Erkennen kompli-zierter Sprecheinheiten angeht, müs-sen die Sprachcomputer noch stark
verbessert werden. Wie lange es dau-ern würde, bis eine Maschine eineIrrtumsrate von nahezu null Prozenterreichen würde, haben Anne Cutler
vom Max-Planck-Institut und Roger Moore von der englischen Firma20/20 Speech in England modellhaftausgerechnet: Zwischen zwei bisneun Millionen Übungsstundenwären theoretisch nötig, um einenComputer so zu schulen, dass er dieKapazität eines nahezu perfektenmenschlichen Hörers erreicht. VonPerfektion kann bei der jetzigen Ge-neration der Computerprogrammenoch keine Rede sein. Doch die Kon-zerne – etwa IBM mit seinem System
ViaVoice – arbeiten mit Hochdruck daran, Spracherkennung verlässli-cher zu machen. Noch nutzen weni-ger als ein Prozent der Bevölkerungautomatische Spracherkennung –
Im Alter von wenigen Monaten lernen Kleinkinder, einfache Sprachmuster zu unterscheidenund nach Wahrscheinlichkeiten zu kategorisieren. Besonders leicht lernen Kinder neue Worte,wenn ihnen die Stimme vertraut ist.
doch das dürfte sich bald ändern.In einigen Jahrzehnten, glaubt der Psycholinguist Roel Smits, werdenMikrochips in Haushaltsgerätenmenschliche Befehle erkennen undan intelligente Maschinen weiter-leiten. Fernbedienungen werdenebenso auf Zuruf funktionieren wiePCs. Mobiltelefone verfügen bereitsüber Chips mit Spracherkennungs-technologie. Erhebliche Fortschrittesind außerdem bei automatischenHörhilfen zu erwarten.
Wie so oft ist die Theorie der Pra-xis weit voraus, und bei der Sprach-erkennung gilt das besonders. Hynek
Hermansky, der an der OregonHealth and Sciences University inPortland lehrt, stellte in Nijmegenein Erkennungssystem vor, das auf der Struktur des menschlichenGehörs basiert. Dieses System ver-wendet Intervalle von einer SekundeSprechdauer, die bis zu 15 Sprach-laute enthalten. Eine solch differen-zierte automatische Spracherken-nung wäre weit weniger anfälliggegenüber Hintergrundgeräuschenoder Verzerrungen als bisherige Sys-teme, die Energiemengen in Inter-
vallen von der Länge eines einzigenSprachlauts aufweisen.
Wann also werden wir künftig mitSprachcomputern so kommunizie-ren, wie es Captain Kirk im Raum-schiff Enterprise vorgemacht hat?
Auf dem Workshop in Nijmegenging es weniger um konkrete An-wendungen und auch nicht um vi-sionäre Projekte, die den Bereich der künstlichen Intelligenz streifen. Die
Wissenschaftler wollten vielmehr den Stand der Grundlagenforschungdarstellen. Denn ohne einen Wis-senstransfer zwischen menschlicher und automatischer Spracherkennungwird es keine wesentlichen Fort-schritte bei den neuen Technologiengeben, glaubt Roel Smits. „Wir stoßen an eine Grenze – auch wennes gelingt, die Datenkapazität der Computer weiter zu steigern.“
CHRISTIAN MAYER
F O T O : C O R B I S - S T O C K M A R K E T
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 46/59
PsychoLINGUIST
90 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
ONGRESSbericht
sekunden (je nach Rahmenbedingun-gen). Dieser „semantische Verzöge-rungseffekt“ trat in einer Vielzahl
von Experimenten auf.Der Zeitverlauf der Lemma-Selek-
tion wurde außerdem gemeinsam mit Wissenschaftlern am Max-Planck-Institut für neuropsychologischeForschung in Leipzig mittels derMagnetenzephalographie (MEG) ge-messen – und bestätigt. Hierbei fan-den die Forscher außerdem heraus,dass bei der Lemma-Auswahl Regio-nen im linken lateralen temporalenLobus aktiv sind.
Nach der Lemma-Selektion erfolgtder zweite Schritt, die Wortformpla-nung oder Wortformen-Codierung.Dazu muss zuerst der phonologische
Code abgerufen werden; er bestehtaus einer Reihe phonologischer Seg-mente oder Phoneme, zum Beispiel„p, f, e, r, d“. Bei geläufigen Wörternwird der phonologische Code schnel-ler (bis zu 40 Millisekunden) abgeru-fen als bei selten benutzten Wörtern.
schrittweise Zusammenstellen der Silben dauert etwa 25 Millisekundenpro Phonem. Sind mehrsilbige Wörter zu bilden, verändert sich die Reakti-onszeit: Testpersonen brauchten beimBenennen für mehrsilbige Wörter länger als für einsilbige.
Die letzte Stufe der Wortformen-Codierung ist das phonetische Codie-ren, das Abrufen eines artikulato-risch-motorischen Programms für
jede neugebildete Silbe. Die Max-Planck-Wissenschaftler nehmen an,dass dazu ein mentaler Silbenvorratexistiert, gleichsam ein Lager anGesten oder motorischen Program-men für häufig benutzte Silben. Die
Vermutung liegt nahe, dass beimSpeichern häufig gebrauchter Silben
Hirnareale wie der prämotorischeCortex und das Broca-Zentrum be-teiligt sind. Die faktische Aus-führung der aufeinander folgendenSilbenprogramme vom Artikulati-onssystem generiert letztendlich dasgesprochene Wort.
Bei der Bildbenennung kann derZugriff dadurch erleichtert werden,dass der Versuchsperson zeitgleichphonologisch verwandte Wörter prä-sentiert werden. Probanden nennen„Pferd“ schneller, wenn sie währendder Bildanbietung das phonologisch
verwandte Wort „Pfeil“ hören als dasphonologisch unterschiedliche Wort„Stuhl“. Auch den Zeitverlauf dieser phonologischen Suche konnten die
Wissenschaftler mit dem Computer-modell „WEAVER++“ exakt voraus-sagen.
Ist das Abrufen des Codes aus demmentalen Lexikon abgeschlossen, er-folgt die Silbenbildung. Diese wirdPhonem für Phonem zusammenge-stellt, aus „p, f, e, r, d“ zum Beispiel
wird „pfert“. Wird das Zielwort jedochim Plural benötigt (wenn zwei Pferdeauf dem Bild zu sehen sind), werdennacheinander zwei Silben – „pfer“-de“ – gebildet. Anders gesagt: Obdie Silbe „pfert“ oder „pfer“ gebildetwird, ist situationsbedingt. Das
Wortsuche
im MillisekundentaktSprachproduktion ist das Ergebnis zweier sehr schnell ablaufender
Vorgänge im Gehirn: dem Abruf geeigneter Einträge aus einem „mentalen
Lexikon“ sowie der Vorbereitung dieser „Einträge“ für das eigentliche Sprechen.
Das berichten Wissenschaftler des MAX-PLANCK-INSTITUTS FÜR P SYCHO-
LINGUISTIK im niederländischen Nijmegen in der renommierten US-Fachzeit-
schrift PROCEEDINGS OF THE NATIONAL ACADEMY OF SCIENCES (6. November 2001).
Jeder Mensch lernt sprechen, unddas bedeutet vor allem: Wörter
zu produzieren. Wächst er in der westlichen Kultur auf, hat er als Er-wachsener bereits bis zu 50 Millio-nen Wörter gesprochen. Es gibtkaum eine andere Tätigkeit, die wir so oft praktizieren. Bei einer Unter-haltung liegt die durchschnittlicheSprechgeschwindigkeit bei zwei bis
vier Wörtern pro Sekunde. Die Wör-ter dazu werden fortlaufend aus un-serem mentalen Lexikon abgerufen,das mehrere zehntausend Einträgeenthält. Bei diesem Vorgang machenwir erstaunlich wenig Fehler (undsagen zum Beispiel „links“ statt„rechts“). Durchschnittlich passiertuns das nicht mehr als einmal protausend Wörter. Doch wie ist dieser so robuste und schnelle Sprachme-chanismus organisiert?
Wissenschaftler erklären dieSprachproduktion als ein Systemzweier aufeinander folgender Verar-beitungsschritte. Zunächst erfolgt die
Wortauswahl: Erhält das Gehirn ei-nen bestimmten inhaltlichen Reiz,zum Beispiel von den visuellen Zent-ren, wählt es einen dazu passendenlexikalischen Eintrag aus dem men-talen Lexikon. Der zweite Schritt be-handelt die Formenkodierung undberechnet die artikulatorischen Ges-ten, die für die Aussprache des Ziel-
worts benötigt werden. Es ist der Forschergruppe um Willem Levelt,
Antje Meyer und Ardi Roelofs inlangjähriger Teamarbeit gelungen,das Modell experimentell zu be-stätigen. Roelofs konnte diese Theo-rie in einem umfassenden Com-puterprogramm mit dem Namen„WEAVER++“ umsetzen.
Ein wichtiges experimentelles Ver-fahren zur Erforschung des lexikali-schen Zugriffs im Gehirn ist das Be-nennen von Bildern. Auf dem Moni-tor erscheint ein Bild, zum Beispiel
von einem Pferd, das die Versuchs-person so schnell wie möglich be-nennen soll. Hierbei wird die Reakti-onszeit, also die Zeit zwischen demErscheinen des Bilds und dem Be-ginn des Sprechens, exakt gemessen.Diese liegt normalerweise bei 600Millisekunden (tausendstel Sekun-den, ms). Für die Auswahl und Aus-sprache eines Worts brauchen wiralso weniger als zwei Drittel einer Sekunde. Die Wortauswahl selbst er-folgt in zwei Stufen: Zuerst wird dasBild erkannt und ein Zielkonzept für die Benennungsaufgabe ausgewählt.Die Tests können so gesteuert wer-den, dass die Versuchspersonen ent-weder „Pferd“, „Tier“ oder „Hengst“selektieren, um das Bild zu benen-nen. In der zweiten Stufe – der sogenannten Lemma-Selektion – wird
der hiermit übereinstimmende Ein-trag gewählt, also zum Beispiel nur „Pferd“. Diesen Eintrag nennt man„Lemma“, was soviel bedeutet wie„syntaktisches Wort“; dieses enthältalle syntaktischen Eigenschaften wie
Wortklasse (Substantiv, Verb) undsyntaktische Merkmale (Geschlechtbei Substantiven, transitive Beschaf-fenheit bei Verben). Diese Wortaus-wahl erfolgt in Konkurrenz zu an-deren Wörtern.
Die Max-Planck-Wissenschaftler konnten messen, dass semantisch
verwandte Wörter, wie „Tier“ oder „Hengst“, bei diesem Schritt ebenfallsaktiviert werden. Mit Hilfe der quan-titativen Computertheorie wird dieReaktionszeit für eine Wortauswahlunter Konkurrenz vorausgesagt.Überprüft werden diese Voraussagenin spezifischen Bildbenennungsexpe-rimenten: Dabei werden den Ver-suchspersonen beim Bildbenennen –
visuell oder akustisch – andere Wör-ter präsentiert. Diesen Ablenkungs-reiz müssen sie ignorieren. Ist bei-spielsweise „Pferd“ das Zielwort, rea-giert die Versuchsperson beim Hörendes damit nicht verwandten Wortes„Stuhl“ etwas langsamer. Hört die
Versuchsperson jedoch das seman-tisch verwandte Wort „Kuh“, wird ei-ne viel stärkere Verzögerung gemes-sen, zusätzlich etwa 50 bis 100 Milli- A
B B . :
M P I F Ü R
P S Y C H O L I N G U I S T I K
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 47/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 93
Islamisches STRAFREC
92 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
RSCHUNG & Gesellschaft
Der Terroranschlag auf das World Trade
Center am 11. September hat zum Krieg
in Afghanistan geführt und die islami-
sche Gedankenwelt in den Blickpunkt des Interesses gerückt. Buchhandlungen
melden steigende Umsätze bei Werken,
die über die jüngste der großen Welt-
religionen informieren. Viele wollen mehr
erfahren über Ethik und Politik des Islam,
beschränkt sich die Kenntnis darüber
doch meist auf Berichte über Delikte, die
mit grausamen Strafen bedroht sind:
Handabhacken für Diebstahl, Steinigung
für Ehebruch, Auspeitschen für Alkohol-
genuss. Am MAX-PLANCK-INSTITUT
FÜR AUSLÄNDISCHES UND INTER-
NATIONALES STRAFRECHT in Freiburg
untersucht SILVIA T ELLENBACH
die unterschiedlichen Rechtsordnungenislamischer Staaten. Sie arbeitet an
einer Monografie, die zu einem differen-
zierteren Bild vom islamischen Straf-
recht in der modernen Welt und seiner
häufig bestrittenen Entwicklungs-
fähigkeit beitragen möchte als es bis-
her westlichen Lesern zugänglich ist.
Mitarbeiter der ausländischen Hilfsorganisation„Shelter Now“ wurden im August in Afghanistan
wegen des Vorwurfs der Missionierung festgenommenund ein Strafverfahren gegen sie eingeleitet. Es dauerte
Wochen, bis ein Anwalt Kontakt zu ihnen aufnehmendurfte. Widersprüchliche Meldungen kursierten in der Presse, welche Strafe sie möglicherweise zu gewärtigenhätten. Von der Todesstrafe bis zur Abschiebung schienalles denkbar. Auch über Gericht und Ablauf des Verfah-rens blieben viele Unklarheiten. Nur eines hörte man im-mer wieder: die Berufung auf islamisches Recht.
Die Vielfalt derRechtsmeinungen gilt
dem Islam als Gnade
Das islamische Kernstrafrecht besteht aus den hadd-De-likten (oder im Plural hudud-Delikten), die im Prinzipmitsamt ihren Strafen im Koran festgelegt sind. Dazuzählen Diebstahl, Straßenraub, unerlaubter Geschlechts-
verkehr, üble Nachrede mit dem Inhalt unerlaubten Ge-schlechtsverkehrs und Alkoholgenuss, nach einigen auchder Abfall vom Glauben, die so genannte Apostasie undRebellion. Neben den hadd-Delikten stehen die qisas-De-likte, Tötungs- und Körperverletzungsdelikte, die schon
vor dem Islam nach dem Prinzip „Auge um Auge, Zahnum Zahn“ bestraft wurden und die im Koran auf Vorsatz-
F O T O S : D P A
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 48/59
94 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
RSCHUNG & Gesellschaft
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 95
Islamisches STRAFREC
taten und auf den Täter selbst – nicht mehr auf seine Sip-pe – beschränkt werden. Alle anderen Straftaten sollenals ta‘zir-Straftaten oder Züchtigungsstraftaten von der
jeweiligen Obrigkeit je nach den Bedürfnissen von Ortund Zeit bestraft werden, mit der Maßgabe, dass diesesich im Rahmen der allgemeinen islamischen Prinzipienzu halten haben. Jede dieser Gruppen hat ihre eigenendogmatischen Regeln. Einen gleichsam vor die Klammer gezogenen allgemeinen Teil des Strafrechts, der für alleDelikte gilt, gibt es nicht.
Die Geschichte zeigt, dass sich aber schon früh in der is-lamischen Welt ein Strafrecht neben dem islamischenKernstrafrecht herausbildete, das zunehmend die Grenzen
der islamischen Prinzipien überschritt und eher die Staats-räson zur Richtschnur hatte. Auch lokale Rechte undStammesrechte blieben von Bedeutung. Als seit dem 19.Jahrhundert viele muslimische Staaten unter europäischenEinfluss gerieten, übernahmen fast alle europäische Straf-und Strafprozessrechtsnormen. Das heutige Saudi-Arabienblieb eine der wenigen Regionen, wo weiterhin islami-sches Strafrecht galt und im Prinzip bis heute gilt.
Nach dem Arabisch-Israelischen Krieg von 1967(Sechstagekrieg) entstand die häufig als Re-Islamisierungbezeichnete Bewegung. Ihren Anhängern ging und gehtes darum, dem Islam in Staat und Gesellschaft wieder denherrschenden Stellenwert zu verschaffen. Eine Kernforde-rung war darum die Wiedereinführung des islamischenRechts. Dabei scheint gerade dem islamischen Strafrechtein besonderer Bekenntniswert zuzukommen. Das führtedazu, dass seit den siebziger Jahren einige Länder – vor allem Iran, Sudan, Pakistan, Jemen, Li byen und Maureta-
nien, zuletzt auch Afghanistan – das islamische Straf-recht wieder zur Gesetzesgrundlage machten. Dabei sind
jedoch aus Libyen und Mauretanien Fälle, in denen diedrastischen islamischen Strafen tatsächlich angewendetwurden, bisher nicht bekannt geworden. Und manchesspricht dafür, dass mit der offiziellen Wiedereinführungdes islamischen Strafrechts – ebenso wie mit Entwürfeneines islamischen Strafrechts in Ägypten, die jedoch imParlament versandet sind – letztlich von Staatsseite das
Anliegen verfolgt wurde, islamistische Bewegungen ab-zufangen, nicht aber tatsächlich das islamische Strafrechtwieder anzuwenden.
Für das islamische Recht ist der Koran zwar die vor-nehmste Quelle, dem Umfang nachaber ist seine Bedeutung begrenzt.Mit dem Strafrecht befassen sich un-gefähr 30 Verse. Der größte Teil des
islamischen Rechts ergibt sich alsoaus anderen Quellen. Das ist zunächstdie Überlieferung über das Handeln,Sagen und Dulden des ProphetenMuhammad, die Sunna. Sehr baldnach seinem Tode setzte eine intensi-
ve Sammler-, aber auch Fälscher-tätigkeit ein, und die Prüfung der Glaubwürdigkeit einer Propheten-überlieferung begründete eine ganze
Wissenschaft. Tatsache ist aber, dasswir vom historischen Muhammad
viel mehr wissen als vom historischenJesus. Die dritte Rechtsquelle ist der Konsens der Rechtsgelehrten, wobeischon streitig geblieben ist, wie dieser Kreis zu verstehen ist. Die vierteRechtsquelle ist für die Sunniten die
Analogie, für die Schiiten der Ver-stand. Zu diesen Hauptrechtsquellen kommen noch eineReihe von Rechtsprinzipien und Verfahrensweisen. Bereitsdie Art dieser Quellen deutet darauf hin, dass sie zu höchstunterschiedlichen Interpretationen führen können.
Darüber hinaus gibt es im Islam nicht nur die Teilungin Sunniten (rund 90 Prozent der Muslime) und Schiiten,sondern innerhalb dieser Konfessionen noch verschiedeneRichtungen, die so genannten Rechtsschulen. Bei diesensind heute bei den Schiiten die _a‘faritische Rechts-schule und bei den Sunniten die vier Rechtsschulen der Hanefiten, Schafiiten, Hanbaliten und Malekiten diebedeutendsten. Aber auch innerhalb einer Rechtsschulesind die Meinungen nicht immer gleich. Eine Instanz, dieeine Frage unfehlbar und damit ein für alle Mal entschei-den könnte, gibt es nicht, auch wenn die Stellung, die
Ayatollah Khomeini vor seinem Tod innehatte, von fernetwas anderes nahe zu legen scheint. Einigkeit bestehtaber über ein Prophetenwort, das man mit „in der Unter-
schiedlichkeit der Meinungen liegt eine Gnade“ wiederge-ben könnte.
Ein Gelehrter des islamischen Rechts muss die Rechts-quellen und den Umgang mit ihnen viele Jahre studieren,ehe er das Recht hat, eine Stellungnahme zu einer Fragedes islamischen Rechts, eine Fetwa, abzugeben. Eine Fet-wa ist also ein Gutachten, das ein gläubiger Muslim zu ei-ner Frage des islamischen Rechts von dem Gelehrten er-bittet, kein vollstreckbares Urteil. Wenn dem Gläubigendas Gutachten des einen Gelehrten nicht behagt, so ist er frei, einen Gelehrten zu suchen, der eine Stellungnahmeabgibt, die eher nach seinem Sinn ist. Und es kann durch-aus sein, dass beide Gelehrte nach bestem Wissen undGewissen ihre Fetwa erstellen und dennoch zu entge-gengesetzten Ergebnissen kommen. Bereits diese kurzeSkizze zeigt, dass islamisches Recht, selbst islamischesStrafrecht, dynamischer sein kann als man gemeinhin
vermutet.Gewiss trifft es zu, dass ein Satz, der im Koran steht, als
solcher ewig und unveränderlich ist und nicht von einemGesetzgeber gestrichen werden kann, wenn er nicht mehr zeitgemäß erscheint. So heißt es in Vers 38der 5. Sure: „Der Dieb und die Diebin, hacktihnen die Hände ab.“ Daran ist nicht zurütteln. Aber was ist ein Diebstahl im Sinnedieser koranischen hadd-Strafe? Hier tut sichdas weite Feld von Interpretation und Auslegung auf,durch die die islamische Rechtswissenschaft bereits seitJahrhunderten das Verständnis von Texten beeinflussenkonnte.
So hat sie zum Beispiel den Begriff des Diebstahls mehr und mehr eingeengt: Sicher, eine fremde, beweglicheSache muss heimlich weggenommen worden sein. DieseSache muss aber einen nicht geringen Mindestwert ge-habt haben: Damit fallen Bagatelldiebstähle aus dem Tat-bestand heraus. Die gestohlene Sache muss außerdemdurch ein Behältnis, und zwar ein angemessenes, gesi-chert gewesen sein. Hochwertige Ware, die in einem Ba-sar oder einem Kaufhaus offen ausgelegt wird, erfüllt die-ses Merkmal nicht. Schmuck gehört in einen Schmuck-kasten, nicht in eine leicht zu öffnende Truhe. Der Diebdarf den gestohlenen Gegenstand auch nicht etwanachträglich durch Kauf oder Schenkung erworben ha-ben. Das sind nur einige der einschränkenden Merkmale.Insgesamt kann man jedoch sagen, dass ein Diebstahl imSinne des Korans nur bei einer Tat vorliegt, die erheblichekriminelle Energie erfordert. Die Diebstähle, die unterdieser Schwelle bleiben, sind aber nicht etwa erlaubt,sondern werden als ta‘zir-Delikt mit leichteren Strafen,zum Beispiel Freiheitsentzug, belegt. Aber auch heute haben sich verschiedene Möglichkei-
ten der Weiterentwicklung des islamischen Rechts he-rausgebildet. So der „talfiq“, was man mit „patchwork“wiedergeben könnte: Für eine Rechtsmeinung ist der Ge-
lehrte nicht an eine einzige Rechtsschule gebunden, son-dern er kann aus allen Rechtsschulen die Argumentatio-nen zusammenführen, die ihm für den Fall besonders ge-eignet erscheinen. Während sich die Forderungen der Fundamentalisten
auf Wiedereinführung des islamischen Strafrechts meistauf wenige plakative Sätze beschränken, müssen es dieLänder, die es in ihrem Recht verankert haben, tatsächlichim Alltag anwenden und sich mit Problemen des moder-nen Lebens auseinander setzen. Es stellen sich Fragen, diegebieterisch eine Antwort verlangen und zwar eine prak-tikable – immer im Rahmen des islamischen Strafrechts.Das sei als Beispiel an den Tötungsdelikten gezeigt.
Nach dem klassischen Recht sind bei Tötungsdelikten vorsätzliche, quasivorsätzliche und fahrlässige Taten zuunterscheiden. Auf vorsätzliche Taten steht die so ge-nannte Wiedervergeltung, die bedeutet, dass dem Täter
genau das gleiche angetan wird wie dessen Opfer. Diesgilt jedoch nur dann, wenn Täter und Opfer einander gleichwertig sind, insbesondere nach Geschlecht und Re-ligion. Sonst ist nur ein Blutgeld zu zahlen. Auch in an-
deren Fällen sind Täter und Bluträcher frei, sich anstelleder Vergeltung auf ein Blutgeld zu einigen, Bluträcher können aber auch verzeihen. Das Prinzip des Blutgeldesgilt auch bei quasivorsätzlichen und fahrlässigen Tötun-gen, auch hier können die Bluträcher aber auf einen Teiloder gar das gesamte Blutgeld verzichten.
Nach diesem Modell wird also die Bestrafung einer Tö-tung in private Hand gelegt, der Staat ist nur insofern be-teiligt, als er dem Bluträcher durch richterliches Urteil dasRecht bestätigt, eine bestimmte Person als Täter anzuse-hen und mit ihr entsprechend zu verfahren. Das wirdheute insofern als nicht mehr hinnehmbar angesehen, alses theoretisch möglich ist, dass eine Tat ungesühnt bleibt,wenn die Bluträcher verzeihen. Länder mit islamischemStrafrecht haben heute meist einen staatlichen Strafan-spruch nachgeschaltet, der für den Fall eines Verzichtsder Bluträcher auf die Vergeltungsstrafe oder auf eineStrafe überhaupt zur Verurteilung des Täters zu einer lan-gen Freiheitsstrafe (nicht aber der Todesstrafe!) führt. Auch das Erfordernis, dass Täter und Opfer gleichwertig
zu sein haben, wird verschiedentlich vorsichtig aufge-weicht. Es bedeutet ursprünglich, dass ein Mann nichtwegen der Tötung einer Frau, ein Muslim nicht wegen der Tötung eines Nichtmuslim getötet werden kann und dassein Blutgeld in diesen Fällen nur die Hälfte beträgt. Dasiranische Strafrecht bleibt zwar beim Prinzip, legt aber an
versteckter Stelle, aber doch ausdrücklich fest, dass eszulässig ist, für eine Frau ein Blutgeld im Verhandlungs-
„Eine Instanz, die eine Frage unfehlbar und damit
ein für alle Mal entscheiden könnte, gibt es nicht.“
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 49/59
96 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
RSCHUNG & Gesellschaft
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 97
Islamisches STRAFREC
wege festzulegen, welches das gesetzliche Blutgeld über-steigt. Eine Obergrenze ist nicht festgelegt; es wäre alsomöglich, für eine getötete Frau ein höheres Blutgeld aus-zuhandeln als für einen getöteten Mann. Das jemenitischeStrafrecht erklärt, dass Vergeltung oder Blutgeld dann ge-schuldet werden, wenn eine geschützte (ma‘sum) Persongetötet wird. An anderer Stelle wird der Geschützte defi-niert als ein jemenitischer Staatsangehöriger gleich wel-chen Glaubens und ein Muslim gleich welcher Staatsan-gehörigkeit. Es ist also durchaus möglich, dass ein Mus-lim wegen des Mordes an einem jüdischen, jemenitischenSilberschmied mit dem Tode bestraft wird.
Das Blutgeld ist bei vorsätzlicher Tat von dem Täter zuzahlen, bei quasivorsätzlicher und fahrlässiger Tat vonseiner „‘aqila“, einem Haftungsverband der männlichenFamilienangehörigen. Dieser Haftungsverband wird heute
verschiedentlich über die Familien hinaus ausgeweitet: So
gilt im Sudan der Autohaftpflichtversicherer ebenfalls alsMitglied der ‘aqila, denn der typische Fall einer fahrlässi-gen Tötung ist auch in den Ländern mit islamischenStrafrecht heute der Tod bei einem Verkehrsunfall. Selbst
der Arbeitgeber ist bei Arbeitsunfällen Mitglied der ‘aqila.Im iranischen Strafgesetzbuch heißt es abstrakter, im Er-gebnis aber ähnlich, dass Mitglied der ‘aqila ist, wer eineentsprechende Haftung vertraglich übernommen hat.
Ein anderer Streitpunkt rückte in den letzten Jahren inIran bei Körperverletzungen in den Blickpunkt, bei denenähnlich wie bei Tötungsdelikten Vergeltungsstrafen undBlutgeldzahlungen möglich sind. Angenommen, bei ei-nem Verkehrsunfall wird ein Mensch schwer verletzt, dieHeilung dauert Monate und kostet ein Vermögen, das Ge-schäft des Verletzten geht derweilen ein, kurz, der materi-elle Schaden geht weit über das Blutgeld hinaus, das ihmnach islamischem Strafrecht zusteht: Kann er dann nebendem Blutgeld noch einen Schadenersatz verlangen? Ur-sprünglich sollte das Blutgeld sehr wohl eine abschlie-ßende und befriedende Regelung sein, und es ist nochnicht lange her, dass der Oberste Gerichtshof trotz desBlutgeldes einen Schadenersatzanspruch anerkannt hat.
Auch beim unerlaubten Geschlechtsverkehr werden Ver-änderungen in der rechtlichen Behandlung deutlich. Der Grundtatbestand ist der Geschlechtsverkehr zwischen Un-
verheirateten, der mit Auspeitschung bedroht ist. Der Ehe-bruch ist ein qualifizierendes Merkmal, das zur Strafe der Steinigung führt, und zwar gleichermaßen für Frauen undMänner – die Besserstellung des Mannes bei derartigenDelikten stammt aus dem europäischen Recht. Die Steini-gungsstrafe kann aber nur verhängt werden, wenn die Tatmit den vorgeschriebenen Beweismitteln bewiesen wurde.
Diese sind klassischerweise vier Geständnisse in vier Ge-richtssitzungen oder vier Zeugen, die unbescholten, musli-misch und männlich sein müssen. Besonders im sunniti-schen Recht wird heute argumentiert, das Beibringen von
vier Zeugen, die alle diese Voraussetzungen erfüllen, seipraktisch unmöglich. Das zeige, dass Gott von vornhereineine Anwendung dieser Strafe nicht gewollt habe, sondernsie nur gleichsam symbolisch angedroht habe. Auch bei den Schiiten gelten Geständnis und Zeugen
als Beweismittel. Darüber hinaus wird aber von einigennoch ein weiteres Beweismittel anerkannt; die Sunnitenlehnen es zwar ab, es birgt aber eine gewaltige Spreng-kraft für das gesamte islamische Beweissystem in sich:nämlich das Wissen des Richters (‘ilm al-qadi), das er auf „allgemein üblichen“ Wegen erlangt hat. Die – allerdingsnoch umstrittene – Anerkennung des Wissens des Rich-ters als Beweismittel hat teilweise an versteckter Stelle
Eingang ins iranische Strafgesetzbuch gefunden und er-laubt in Iran künftig die Einbeziehung aller modernenBeweismittel von der Spurensicherung bis zum geneti-schen Fingerabdruck, denn der Richter kann ja dann sei-
ne Erkenntnisse über die Tat aus diesenQuellen schöpfen und sie auch offen undnachvollziehbar darlegen. Die klassischenBeweismittel Geständnis oder vier Zeugenwürden damit an Bedeutung erheblich ver-
lieren. Das sunnitische Argument, die Ehebruchsvor-schrift sei bedeutungslos, weil die Tat tatsächlich nicht zubeweisen sei, sticht hier nicht mehr.
Das iranische Recht hat aber auch andere Wege ge-sucht, die Steinigungsstrafe nicht anzuwenden und auf diese Weise zurückzudrängen. Aufbauend auf dem reli-giösen Gebot, eine Sünde aus Barmherzigkeit möglichstmit Schweigen zu bedecken und kein Zeugnis gegen ei-nen Sünder abzulegen, schränkt die neue iranische Straf-prozessordnung die Zulässigkeit von Ermittlungen von
vornherein in derartigen Fällen stark ein.Ein Umdenken hat sich auch bei der Apostasie, dem Ab-
fall vom Islam, eingesetzt. Sie ist verboten. Nach klassi-schem Recht waren zumindest Männer mit dem Tode zubestrafen, wenn sie nicht nach einer einzuräumenden Be-denkzeit zum Islam zurückfanden. Was Abfall vom Islambedeutet, ist zwar eindeutig, wenn sich der Abtrünnige of-fen zu einer anderen Religion bekehrt, sonst aber schwer zu fassen. So ist abtrünnig, wer die verpflichtende Wir-kung der wichtigsten Glaubensprinzipien leugnet. Welchedas aber sind, ist wiederum der Interpretation offen undkann leicht zu einem politischen Missbrauch führen. Imselben Atemzug wird von Vertretern des islamischenStrafrechts aber die Gewissensfreiheit im Islam behauptet.Der Abfall vom Islam sei kein Ausdruck der Gewissens-freiheit, sondern ein hochverratsähnlicher Angriff auf dieislamische Staats- und Gesellschaftsordnung. Diese Ausle-gung bietet aber gleichzeitig das stärkste innerislamische
Argument, um die Strafbarkeit der Apostasie zurückzu-drängen: Liegt der Strafgrund in dem Angriff auf Staatund Gesellschaft des Islam, so soll der Tatbestand nur er-füllt sein, wenn die Glaubensabkehr tatsächlich diesesRechtsgut gefährdet. Der Abfall vom Islam, dessen Folgensich nur auf den privaten Lebensbereich des Abtrünnigenbeschränken, soll demzufolge den Tatbestand nicht erfül-len; damit wäre die weitaus größte Zahl aller Fälle von
Apostasie nicht mehr strafbar. Aus der Strafbarkeit des Abfalls vom Islam erklärt sich auch das Missionsverbot.Missionierung ist die Anstiftung zu einer Straftat. Da imBereich der hadd-Delikte die Rechtsfigur der Anstiftungnicht entwickelt ist, ist sie nur über eine eigenständigeStraftat, ein ta‘zir-Delikt, zu erfassen. Wie bereits erwähnt, hat bei ta‘zir-
Delikten die Obrigkeit eine große Frei-heit. Im Idealfall ist es der gerechte
und gelehrte Richter, der als Vertreter des Herrschers weiß, welches Tun wiezu bestrafen ist. In der Praxis habenheute die Staaten mit islamischemStrafrecht im Bereich der ta‘zir-Straftaten sehr wohl auch niederge-schriebene Gesetze. Das Nulla-poena-sine-lege-Prinzip (also keine Strafeohne Gesetz), wird häufig als festeNorm des islamischen Rechts postu-liert und hat zum Beispiel in Iran Ver-fassungsrang, wo es allerdings gleich-zeitig eine zweideutige Verfassungs-norm gibt, die nach einer Interpreta-tion eine richterliche Rechtsschöpfungzuzulassen scheint. So ist bis heuteein Spannungsverhältnis zwischenden ta‘zir-Straftaten und dem Nulla-poena-Satz unverkennbar.
In Iran gab es nach der islamischen Revolution starkeStrömungen, die eine gesetzliche Festlegung von ta‘zir-Straftaten ablehnten und dem Richter überlassen wollten.Die Gegenseite argumentierte, die Richter in Iran seienkurz nach der Revolution noch zu wenig im islamischenRecht bewandert, um danach richten zu können; manmüsse ihnen daher Gesetze mit Straftatbeständen undStrafrahmen an die Hand geben. Es war Khomeini, der diesen Streit entschied, indem er den Erlass eines ta‘zir-Gesetzes verfügte. Die Möglichkeit der richterlichenSchöpfung von Straftatbeständen und Strafen ist aber auch in Iran noch an einer Stelle ausdrücklich verblieben:im Gesetz über die Sondergerichte für die Geistlichkeit.
Der große Spielraum bei den ta‘zir-Gesetzen erklärt,warum auch in den Verfahren gegen die „Shelter Now“-Mitarbeiter solche Unsicherheit herrschte. Der religiöseFührer kann Dekrete erlassen und abändern. Dabei mussman zu den Taliban und ihrer Führung wissen, dass hinter
ihrer Interpretation des islamischen Rechts nicht die Ge-lehrsamkeit steht, die in den großen theologischen Hoch-schulen Irans, Ägyptens oder Pakistans vermittelt wird.Die afghanischen Taliban haben ihre theologische Bildungmeist aus pakistanischen Lehreinrichtungen für Dorfmul-lahs bezogen, wo auch das islamische Recht nur noch inhöchst dürftiger und vergröberter Form gelehrt wird. DasPashtunwali, der Ehrenkodex der Paschtunen, spielt bisheute eine weit größere Rolle im Denken der Taliban alsdas Wissen um das hoch entwickelte islamische Recht.
Die Bestrebungen nach einer Weiterentwicklung des is-lamischen Strafrechts und einer weit gehenden Neuschaf-fung eines islamischen Strafprozessrechts finden sich an-
derswo, vor allem in Iran. Der Rückgriff auf allgemeinePrinzipien wie Gerechtigkeit oder Gemeinwohl, die Aus-arbeitung einer Lehre vom Unveränderlichen und Verän-derlichen im islamischen Recht unter Heranziehung ganzneuer Gesichtspunkte gewinnen zunehmend an Bedeu-tung. Ayatollah Khomeini, der weitaus nüchterner undpragmatischer war als im Westen oft wahrgenommen, er-ließ kurz vor seinem Tod eine Direktive, dass bestimmteNormen des islamischen Rechts außer Kraft gesetzt wer-den können, wenn es für den Bestand des islamischenStaates notwendig ist. Die Folgen dieser Direktive sind bisheute noch nicht ausgelotet. Sie scheinen aber den Wegzu einem Strafrecht zu erleichtern, das danach strebt, is-lamische Prinzipien unter Wahrung ihres Wesenskerns ineiner Weise zu interpretieren, dass sie das für die Gestal-tung des heutigen Lebens Nützliche erlauben. Eine weite-re Beobachtung der Entwicklung des islamischen Straf-rechts bleibt spannend. SILVIA TELLENBACH
„Der Rückgriff auf allgemeine Prinzipien wie Gerechtigkeit
oder Gemeinwohl gewinnt zunehmend an Bedeutung.“
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 50/59
Richard Wielebinski
98 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1 4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 99
RadioASTRONOMPERSON
Richard Wielebinski
Den Beweis, dass er sich schon
früh für die Wirkung magneti-
scher Felder im Weltall interessiert
hat, trägt Richard Wielebinski immer
bei sich. Manchmal zeigt er ihn: Er
zückt während des Gesprächs ganz
unvermittelt seine Geldbörse und
entnimmt ihr eine australische 50-
Dollar-Note. „Sehen Sie sich mal die
Schmalseiten an, auf einer ist eine
Messkurve abgebildet – das Signal
des ersten Pulsars, der 1968 von
Australien aus am Südhimmel ent-
deckt wurde.“ Und zwar von ihm.
So konnte er, als bald nach seiner
Rückkehr die Pulsararbeit in der
Zeitschrift N ATURE publiziert wurde,
das Radioteleskop des Parkes Obser-
vatoriums mit derartigen Empfän-
gern ausrüsten und erstmals auch
von Australien aus Pulsare auf-
spüren. Diese Beobachtung, deren
Messkurve die 50-Dollar-Note ziert,
führte zu einer wahren Jagd nach
solch rotierenden Objekten. Wiele-
binski selbst entdeckte binnen kurzer
Zeit mit seinen Empfängern 25 Pul-
sare am Südhimmel.
NAZIS DEZIMIERTEN
FÜHRUNGSSCHICHT
Doch warum ist der gebürtige Pole
Wielebinski überhaupt nach Austra-
lien gekommen und dort auf die
noch junge Radioastronomie ge-
stoßen? Richard Wielebinski wurde
am 12. Februar 1936 im polnischen
Pleszew, Provinz Posen, geboren. Am
1. September 1939 überfielen die
Deutschen das Land. Ein Teil des er-
oberten Territoriums wurde als War-
thegau dem Reich einverleibt und
der Rest Polens, sofern nicht von der
Sowjetunion oder Litauen bean-
sprucht, zum Generalgouvernement
erklärt. Da im Warthegau „Volks-
deutsche“ angesiedelt werden soll-
ten, dezimierten die Nazis ganz ge-
zielt die polnische Führungsschicht
durch Deportationen und Erschie-
ßungen.
Zu den damals ins Generalgouver-
nement Vertriebenen gehörten die
Wielebinskis – der Vater hatte an ei-
ner Berufsschule Mathematik und
Buchführung unterrichtet, die Mutter
war Grundschullehrerin. Der Familie
stand eine zehnjährige Lagerzeit be-
vor, die in der Nähe von Krakau be-gann und nach Kriegsende bei Lipp-
stadt in einem Camp für „displaced
persons“ in der britischen Zone en-
dete. 1949 wanderte die Familie
nach Australien aus. Per Vertrag
musste sich damals jeder Einwande-
rer verpflichten, zunächst zwei Jahre
in dem Bundesstaat zu arbeiten, in
dem die Familie eine Wohnung be-
kommen konnte und wo es Arbeit
gab. Damit fielen zwei der ursprüng-
lich anvisierten Städte weg, nämlich
Sydney in New South Wales und
Melbourne in Victoria: „In beiden
bestand nur bis zum 14. Lebensjahr
Schulpflicht und ich hätte sofort
nach unserer Ankunft einen Job an-
nehmen müssen”, erzählt Wielebinski.
Die Eltern bemühten sich deshalb,
Arbeit auf der im Süden des australi-
schen Kontinents gelegenen Insel
Tasmanien zu finden, denn hier war
Schulbesuch bis zum 16. Lebensjahr
Pflicht. Es gelang ihnen, und so
konnte Richard Wielebinski in Ho-
bart, der Hauptstadt von Tasmanien,
als 14-Jähriger endlich eingeschult
werden. Damit war die erste Voraus-
setzung für ein späteres Universitäts-
Richard Wielebinski hat
im Jahr 1968 den ersten
Pulsar am Südhimmel
entdeckt. Das Signal des
Objekts ziert die austra-
lische 50-Dollar-Note.
Seit vier Jahrzehnten untersucht
RICHARD W IELEBINSKI , Direktor am
MAX-PLANCK-INSTITUT FÜR
ADIOASTRONOMIE in Bonn, kosmische
Magnetfelder. Seine Arbeitsgruppe
nimmt eine weltweit führende Position
auf diesem Gebiet ein.
F O T O S : W O L F G A
N G F I L S E R
sterbender Sterne – gedeutet werden.
Durch die Volumenverminderung
beim Zusammenstürzen eines Sterns
erhöht sich dessen Umdrehungsge-
schwindigkeit und sein Magnetfeld
verdichtet sich. Unter der Wirkung
des verstärkten Feldes kommt es zu
einer Bündelung der elektrisch gela-
denen Partikel, die vom Neutronen-
stern weggeschleudert werden. Da-
durch entstehen an beiden Magnet-
polen Strahlkegel; bei jeder Umdre-
hung des Neutronensterns überstrei-
chen sie die Erde – wie das Leucht-feuer eines Leuchtturms.
Wielebinski, damals als Senior
Lecturer (C3-Professor) an der Uni-
versität von Sydney tätig, war
1966/67 von Otto Hachenberg einge-
laden worden, während eines „Sab-
baticals“ als Gastprofessor an das
Astronomische Institut der Univer-
sität Bonn zu kommen. In dieser Zeit
besuchte er seine Alma mater in
Cambridge und hörte dort von einer
wichtigen neuen Beobachtung: der
zu jener Zeit noch nicht veröffent-
lichten Pulsarentdeckung. In Sydney
hatte Wielebinski hoch empfindliche
Empfänger entwickelt, die sich auch
für Pulsarmessungen eignen sollten.
Leider, so flachst er, gebe es „keine
Lizenzgebühren“ für diesen Abdruck.
Wenige Monate zuvor hatte die
Doktorandin Jocelyn Bell in Cam-
bridge bei der Durchsicht von Mess-
streifen, die bei der Suche nach Ra-
diosignalen aus dem All angefallen
waren, eine Entdeckung gemacht: Ihr
war aufgefallen, dass verschiedene
kosmische Objekte regelmäßig wie-
derkehrende Impulse aussenden. Die-
se Pulsare, wie man die Objekte spä-
ter nannte, konnten als rotierende
Neutronensterne – kollabierte Reste
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 51/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 101
RadioASTRONOM
100 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
PERSON
studium – dem großen Traum seiner
Eltern – erfüllt. Vier Jahre später be-
stand er an der Hobart State High-
school das Abitur, und zwar mit der
neuntbesten Note in ganz Tasmani-
en. Da den zehn besten Schülern die
Studiengebühren erlassen und für
die ersten Semester ein kleines Sti-
pendium gewährt wurde, war es
Wielebinski möglich, ein Ingenieur-
studium an der University of Tasma-
nia zu beginnen. 1958 legte er hier
sein Bachelorexamen ab.
Den zweiten Studienabschnitt bis
zur Masterprüfung finanzierte Wie-
lebinski, indem er sich bei der
australischen Post verdingte. „Es
herrschte damals ein Mangel an In-
genieuren, und das Unternehmen verpflichtete deshalb seinen Nach-
wuchs schon während des Studiums.“
Er unterschrieb einen Ausbildungs-
vertrag und übte in der vorlesungs-
freien Zeit alle Tätigkeiten eines
Postlers aus – „vom Briefmarkenver-
kauf bis zur Telefoninstallation“.
Bei der australischen Post trat der
frischgebackene „Master of Enginee-
ring Science“ auch seine erste Stelle
an: Als Fernmeldeingenieur wurde er
1959 mit dem Bau eines Fernsehsen-
ders betraut. Während dieser Tätig-
keit lernte er zufällig einen Pionier
der Radioastronomie kennen, den
amerikanischen Ingenieur Grote Re-
ber. Der hatte 1937 eine spezielle
Antenne für kosmische Radiowellen
gebaut: eine parabolförmige Metall-
schüssel von zehn Meter Durchmes-
ser. Der Spiegel konzentrierte die aus
dem All kommende Strahlung im
Brennpunkt, wo ein Dipol ange-
bracht war, der die Radiowellen auf-
nahm und an einen Empfänger wei-
terleitete. Mit dieser Antenne gelang
es Reber, eine erste Radio-Himmels-
karte aufzunehmen; sie wurde 1940
veröffentlicht und gab die Intensität
der kosmischen Radiostrahlung bei
1,9 Meter Wellenlänge wieder; das
entspricht einer Frequenz von 162
Megahertz, also kosmischer Ultra-
kurzwelle.
Nach Tasmanien war Reber ge-
kommen, weil sich die Insel in der
Nähe des in der Antarktis gelegenen
Magnetpols der Erde befindet. Diese
bevorzugte Lage wollte er nutzen,
um von hier aus die niederfrequente
Radiostrahlung zu messen, die über
diesem Pol durch die Ionosphäre
tritt. Wielebinski half ihm beim Auf-
hängen einer 600 Meter langen An-
tenne, die auf einem vulkanischen
Hügel installiert wurde – sein erster
Kontakt mit der Radioastronomie.
PROMOTION
IN CAMBRIDGE
Das hatte Konsequenzen: Noch
während er Fernsehsender für die
Post baute, bewarb sich Wielebinski
um ein Stipendium. Und er hatte Er-
folg. Denn die University of Cam-
bridge, die ein Stipendium landes-
weit ausgeschrieben hatte, wählte
ihn aus und bot ihm die Möglichkeit,
an der britischen Traditionsuniver-
sität eine Doktorarbeit zu beginnen.
In Cambridge lehrte Martin Ryle, der
Gründer und Direktor des Mullard
Radioastronomischen Observatori-
ums. Ihm war es gelungen, durch das
Zusammenschalten mehrerer Radio-
teleskope deren Auflösungsvermö-
gen entscheidend zu verbessern.
Wielebinski fragte bei Ryle nach ei-
nem Promotionsthema und bekam
prompt eine Aufgabe gestellt: Er soll-
te die Struktur der Magnetfelder in
unserer Milchstraße bestimmen.
Was haben Magnetfelder mit Ra-
dioastronomie zu tun? Die galak-
tische Kontinuumsstrahlung im Ra-
diowellenbereich besteht aus zwei
Komponenten. Zum einen aus der so
genannten thermischen Radiostrah-
lung. Sie bildet sich, wenn das inter-
stellare Gas der Milchstraße von
heißen Sternen extrem aufgeheizt
wird. Dadurch verlieren die Atome
ihre Elektronen, die sich nun frei und
mit großer Geschwindigkeit durch
den Raum bewegen können. Aller-
dings stoßen sie hier immer wieder
mit Atomen zusammen und werden
dabei abgebremst. Jeder Bremsvor-
gang aber führt zum Aussenden von
Strahlungsquanten. Die Wellenlänge
dieser Strahlung, die keinerlei Infor-
mation über Magnetfelder enthält,
liegt im Zentimeterbereich.
Interessanter für Radioastronomen
ist die zweite Komponente, die nicht-
thermische Strahlung. Sie entsteht,
wenn fast lichtschnelle Elektronen
aus der kosmischen Höhenstrahlung
das interstellare Magnetfeld durch-
fliegen. Als elektrisch geladene Par-
tikel bekommen sie die magneti-
schen Kräfte zu spüren: Die Elektro-
nen werden auf Spiralbahnen um die
Magnetfeldlinien gezwungen. Auf
solch gekrümmten Wegen strahlen
sie Energie in Form von Radiowellen
ab. Diese Strahlung wird Syn-
chrotronstrahlung genannt, nach
den Synchrotron-Teilchenbeschleu-
nigern, an denen sie erstmals be-
obachtet werden konnte. Sie hat ihr
Maximum im Dezimeter-Wellenlän-
genbereich. Gerade diese – 1932 von
Karl Jansky in den USA entdeckte –
Strahlung war es, die zur Geburt der
Radioastronomie geführt hatte.
Die kosmische Synchrotronstrah-
lung ist polarisiert. Das heißt, sie
besitzt eine bevorzugte Schwin-
gungsrichtung und gilt deshalb als
wichtigste Informationsquelle für in-
terstellare Magnetfelder. Aus ihrer
wurde er mit dieser Arbeit promo-
viert.
Anschließend kehrte Richard Wie-
lebinski an die Universität von
Sydney zurück und wurde an der
dortigen School of Electrical En-
gineering zunächst Lecturer, 1966
Senior Lecturer. Als im selben Jahr
die Wissenschaftler Otto Hachenberg
und Wolfgang Priester vom Astro-
nomischen Institut der Universität
Bonn Australien besuchten, über-
nahm Wielebinski deren Betreuung.
Diese Bekanntschaft führte später
zu der erwähnten Einladung nach
Bonn, die er 1966/67 wahrnahm.
Damit wären wir wieder am Anfang
unserer Geschichte.
Institut errichtete bei Effelsberg in
der Eifel ein voll bewegliches Radio-
teleskop von 100 Meter Durchmesser.
Für dieses neue Instrument wurde
ein Experte für die Entwicklung
neuer Empfänger gesucht – und in
diesem Ruf stand Wielebinski seit
langem.
RADIOKARTE
DES SÜDLICHEN HIMMELS
Wielebinski kam nach Bonn, ver-
handelte, sagte zu und wurde zum
Direktor des Instituts und zum Wis-
senschaftlichen Mitglied berufen. Als
Einstiegsgeschenke brachte er eine
Radiokarte des südlichen Himmels
mit, die mit dem 64-Meter-Parkes-
Radioteleskop in Australien aufge-nommen worden war, und Pläne für
neue Polarisationsmessgeräte (Pola-
rimeter), die später in Effelsberg er-
folgreich zum Einsatz kamen.
An dem neuen Radioteleskop, das
heute, 30 Jahre später, immer noch
das weltweit größte voll bewegliche
Teleskop dieser Art ist, wurde An-
fang 1971 mit der Erprobung begon-
nen. Nach diversen Optimierungs-
arbeiten konnte eineinhalb Jahre
später der volle Betrieb aufgenom-
men werden. Bereits im Dezember
desselben Jahres erschien die erste
Veröffentlichung über die schwachen
Signale eines Pulsars mit der höchs-
ten bis dahin gemessenen Radio-
frequenz. Solche schwachen Signale
sind von großer Bedeutung für die
Interpretation der Emissionsmecha-
nismen von Pulsaren und werden
deshalb weiterhin in Effelsberg er-
forscht. Dagegen überlässt man die
aufwändige Suche nach neuen
Pulsaren eher Einrichtungen mit
Teleskopen, die über viel freie Be-
obachtungszeit verfügen. Denn in
Effelsberg, so Wielebinski, „sind viele
Projekte institutseigener und auswär-
tiger Arbeitsgruppen anhängig, mit
der Folge, dass die Beobachtungszeit
nach wie vor sehr knapp ist.“
Richard Wielebinski widmete sich
in Effelsberg wieder intensiv der Er-
forschung von Magnetfeldern und
zwar vor allem in fernen Galaxien.
Mit dem Werkzeug der Radioastronomen – Antennen, hoch empfindlichen
Empfängern und Verstärkern – ist Richard Wielebinski bestens vertraut.
Intensität lässt sich die Stärke und
aus ihrer Polarisationsrichtung die
Orientierung des Magnetfelds in der
Himmelsebene bestimmen. Wiele-
binski musste für die Radioteleskope
also Empfänger entwickeln, die es
ermöglichten, die Polarisation der
Synchrotronstrahlung zu messen.
Eine schwierige Aufgabe, die er je-
doch nach drei Jahren gelöst hatte:
Er konnte 1962 nachweisen, dass die
Strahlung und damit auch das Mag-
netfeld ungefähr entlang der galakti-
schen Ebene ausgerichtet sind. 1963
Doch sie geht weiter: „Zwei Tage
vor meinem 33. Geburtstag, also am
10. Februar 1969“, so erinnert sich
Wielebinski, „wurde ich in Sydney
überrascht durch einen Brief des
damaligen Präsidenten der Max-
Planck-Gesellschaft, Adolf Bute-
nandt.“ Er fragte an, ob Wielebinski
nicht zu Berufungsverhandlungen
nach Deutschland kommen wolle.
In Bonn war 1965 ein Max-Planck-
Institut für Radioastronomie gegrün-
det worden, mit Otto Hachenberg als
Geschäftsführendem Direktor. Das
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 52/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 103
RadioASTRONOM
102 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
PERSON
räumliche Auflösung des VLA als
auch die hohe Empfindlichkeit des
Einzelteleskops in der Eifel zur Gel-
tung.
Um auch die Linienstrahlung
astrophysikalisch interessanter Mo-
leküle – etwa die des Kohlendioxids
bei 2,6 Millimeter Wellenlänge – un-
tersuchen zu können, wurde bereits
1972 der Bau eines weiteren Radio-
teleskops für Beobachtungen im Mil-
limeterbereich diskutiert. Die Pla-
nung lief schließlich auf ein In-
strument mit 30 Meter Durchmesser
hinaus, das bis zu einer unteren
Wellenlänge von 0,8 Millimetern
brauchbar sein sollte. Da die Milli-
meter-Radiostrahlung von Wasser-
Denn über Magnetfelder in unserer
Milchstraße können die Radioastro-
nomen nach wie vor nur wenig aus-
sagen. Da die Sichtlinie hier viele
Magnetfelder kreuzt und es zu
Feldüberlagerungen kommt, „sieht
man den Wald vor Bäumen nicht”,
so der Wissenschaftler. Bei anderen
Galaxien hingegen gibt es eine klare
Sicht auf das gesamte Magnetfeld.
Deshalb „wissen wir mehr über frem-
de Galaxien als über die eigene
Milchstraße“. Die zentrale Fragestel-
lung lautet: Welchen Einfluss haben
die Magnetfelder auf die Entstehung
der Galaxien?
Als Beobachtungsgerät steht dem
Wissenschaftler und seinen Mit-
arbeitern vor allem das voll beweg-liche 100-Meter-Radioteleskop zur
Verfügung. Es erfüllt Wielebinski mit
Stolz, dass aus Polarisationsmessun-
gen mit diesem Gerät bei 11 und 6
Zentimeter Wellenlänge schon früh
erstmals Struktur, Richtung und
Größe (einige Millionstel Gauß) des
Magnetfelds der nächsten großen
Spiralgalaxie – des Andromeda-
nebels – ermittelt werden konnten.
Ursprünglich war das Effelsberger
Radioteleskop nur für den Empfang
solcher Zentimeterwellen konzipiert,
doch hat sich inzwischen gezeigt,
dass es dank seiner hohen Reflektor-
genauigkeit bis zu einer kürzesten
Wellenlänge von sechs Millimetern
zu nutzen ist. Zusammen mit den am
Institut entwickelten Hochleistungs-
empfängern gilt das Effelsberger Te-
leskop deshalb auch heute noch als
das beste Instrument zum Nachweis
polarisierter Radiostrahlung.
EINE ANLAGE AUS27 PARABOLANTENNEN
Die Aussagekraft der mit diesem
Instrument gewonnenen Daten lässt
sich allerdings noch steigern: Wenn
man die in Effelsberg gemachten Be-
obachtungen mit denen des Very
Large Array (VLA) im amerikani-
schen New Mexico – einer Anlage
aus 27 verschiebbaren Parabolanten-
nen von je 25 Meter Durchmesser –
verknüpft, kommen sowohl die gute
französische Centre National de la
Recherche Scientifique (CNRS) ein
gemeinsames Institut für Radio-
Astronomie im Millimeterbereich
(IRAM) mit Sitz in Grenoble.
IRAM betreibt das in der spani-
schen Sierra Nevada am Pico Veleta
in 2800 Meter Höhe errichtete 30-
Meter-Teleskop und dazu eine auf
dem fast gleich hohen Plateau de
Bure südlich von Grenoble installier-
te Anlage, die heute fünf 15-Meter-
Parabolantennen umfasst. Ein weite-
res Teleskop, das Heinrich-Hertz-Te-
leskop von 10 Meter Durchmesser,
das über eine äußerst präzise Ober-
fläche verfügt und sich daher für
Untersuchungen im Submillimeter-
Emissionslinien im Radiowellenbe-
reich angeregt. Da die Häufigkeit
solcher Stöße von der Anzahl der
Wasserstoffmoleküle pro Kubikzenti-
meter und von der Temperatur ab-
hängt, kann man aus der Intensität
dieser Spektrallinien beide Werte ab-
schätzen.
Auf diese Weise wird es also
möglich, über die Spektroskopie auf
die in den dichten Molekülwolken
vorhandene Masse und damit auf
die Gesamtmasse der Galaxie zu
schließen. Da aus den Polarisations-
messungen außerdem Struktur, Rich-
tung und Stärke der interstellaren
Magnetfelder bekannt sind, hat man
zwei Parameter zur Verfügung, um
das immer noch ungelöste Problemanzugehen: Wie koppeln die Mag-
netfelder mit den Molekülwolken?
Denn das ist die entscheidende Frage
für Wielebinski: „Folgt das Magnet-
feld den Gasbewegungen einer sich
selbst organisierenden Galaxie? Oder
wirken die Magnetfelder wie Spiral-
federn und nehmen die Materie
mit?“ Seine Magnetfeld-Forscher-
gruppe, die nahezu alle Galaxien in
unserer Nachbarschaft untersucht
hat und von Gutachtern als „world
leading group“ auf diesem Gebiet
eingestuft wurde, bringt die besten
Voraussetzungen mit, diese Frage
eines Tages zu beantworten.
Aber auch die Anziehungskraft,
die kosmische Magnetfelder seit fast
vier Jahrzehnten auf Wielebinski
ausüben, spricht dafür, dass das Rät-
sel irgendwann gelöst wird. In letzter
Zeit ist der Radioastronom zur Un-
tersuchung von Magnetfeldern der
Milchstraße zurückgekehrt. Die Fas-
zination, die er bei der ersten Ent-
deckung solcher magnetischer Felder
in unserer Galaxis verspürte, zeigt
offensichtlich nach wie vor Wirkung,
und so greift er nun die immer noch
attraktiven Originalthemen seiner
Doktorarbeit wieder auf. „Es ist selt-
sam“, sagt er, „wenn man sich ein-
mal intensiv mit einem Thema aus-
einander gesetzt hat, kehrt man
irgendwann offenbar unweigerlich
zu ihm zurück.“ MICHAEL GLOBIG
Spiralarme ausgerichtetes Magnet-
feld.“ Die Magnetfelder erweckten
den Eindruck, als ob sie „in der gas-
förmigen Materie eingefroren sind
und den Spiralarmen folgen.“ Es
sieht so aus, als machten sie nahezu
jede Bewegung mit und würden da-
bei beträchtlich verbogen. Eine ähn-
liche Beobachtung gelang den Bon-
ner Radioastronomen bei ihren vor
wenigen Jahren begonnenen Unter-
suchungen so genannter Balkengala-
xien; das sind Milchstraßensysteme
mit einer balkenförmigen Sternan-
ordnung. Das in den Balken stürzen-
de Gas wird gestaut und dadurch um
fast 90 Grad abgelenkt. Eine derartig
abrupte Richtungsänderung ist auch
beim Magnetfeld zu beobachten.
Folgt das Feld der Materieströmung?
Oder ist es umgekehrt: Hängen Spi-
ralarme oder Balken an den Magnet-
feldern?
Neben der Kontinuumsstrahlung
analysieren die Bonner Astronomen
auch Spektrallinien im Radiobereich,
vor allem mit den IRAM-Teleskopen
und mit dem Heinrich-Hertz-Tele-
skop auf dem Mount Graham. Solche
Messungen liefern Informationen
über die interstellare Materie, den
„Stoff“, aus dem die Sterne werden.
Die Sternbildung geschieht in dich-
ten Wolken aus interstellarer, zwi-
schen den Sternen befindlicher Ma-
terie. In unserer Milchstraße besteht
der größte Teil dieses Mediums aus
atomarem Wasserstoff. Die 21-Zenti-
meter-Linie der Wasserstoffatome
war schon 1951 entdeckt worden
und hatte die Hoffnung geweckt,
über sie die Verteilung der interstel-
laren Materie ermitteln und den Pro-
zess der Sternentstehung verstehen
zu können. Doch diese Erwartung er-
füllte sich nicht: Die gemessene Kon-
zentration der Wasserstoffatome war
zu gering, als dass es sich dabei um
dichte Wolken hätte handeln können.
UNSICHTBARE
WASSERSTOFFMOLEKÜLE
In den dichten Wolken wandelt
sich der atomare Wasserstoff an der
Oberfläche von winzigen, mit dem
Gas vermischten Staubpartikeln in
Wasserstoffmoleküle um. Sie aber
haben keine beobachtbaren Spekt-
rallinien im Radiowellenbereich, sind
also für Radioteleskope unsichtbar.
Später stellte sich jedoch heraus,
dass außer den Wasserstoffmole-
külen in geringen Mengen auch eini-
ge Dutzend andere Moleküle entste-
hen, zum Beispiel Kohlenmonoxid
(CO). Die CO-Moleküle werden durch
Zusammenstöße mit den Wasser-
stoffmolekülen zum Aussenden von
Bis Richard Wielebinski Karten von kosmischen Magnetfeldern
in Händen halten kann, ist viel Computerarbeit notwendig.
dampf in der irdischen Atmosphäre
stark vermindert wird, muss ein
solches Radioteleskop allerdings an
einem Ort errichtet werden, der nicht
nur viele klare Nächte aufweist, son-
dern auch einen geringen Wasser-
dampfgehalt. Dieser Standort ist in
Deutschland nicht zu finden. Der
Betrieb eines Teleskops im Ausland
hätte aber das Budget des Bonner
Max-Planck-Instituts überzogen. So
gründeten die Max-Planck-Gesell-
schaft und das ebenfalls an einem
solchen Radioteleskop interessierte
Wellenbereich eignet, wurde gemein-
sam mit der University of Arizona
auf dem 3400 Meter hohen Mount
Graham errichtet. Damit haben die
Bonner Radioastronomen Zugriff auf
eine breite Palette von Teleskopen.
Die genauesten Radiokarten naher
Galaxien werden durch die erwähnte
Verknüpfung von Polarisationsmes-
sungen in Effelsberg und New Mexi-
co mit dem VLA gewonnen. Bei Spi-
ralgalaxien, so Wielebinski, zeigten
sie meist „ein hochgradig geordne-
tes, entlang der optisch sichtbaren
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 53/59
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 105
NEU erschie
Platz hat? Dass es auf dem Mond irr-lichtert? „Ich hoffe, die Texte brin-gen etwas von dem Spaß, den mir das Schreiben bereitete, zu den Le-sern hinüber“, heißt es im Vorwort.Die Hoffnung hat sich erfüllt: DasBuch ist ein echter „Kippenhahn“ ge-worden, ein Stück originelle Wissen-schaftsprosa mit Humor und Hinter-grund – eine leider allzu selteneKombination. HELMUT HORNUNG
Der Brief des
Edwin Hubble
Thomas Bührke, STERNSTUNDEN DER
ASTRONOMIE, Von Kopernikus bis
Oppenheimer, 220 Seiten, 24 Abbildungen,
Verlag C.H. Beck, München, 9,90 Euro.
Wissenschaft wird von Men-schen gemacht! Diese Fest-
stellung mag banal klingen. Sichdessen bewusst zu sein erscheintaber notwendig, wenn Forschungnicht Gefahr laufen soll, in den Ruf zu geraten, im luftleeren Raum jen-seits der Gesellschaft zu agieren. Wiewichtig diese Bodenhaftung ist, be-weist die Gentechnik-Diskussion. Während sich der Mensch also
heute anschickt, seinen biologischenBauplan zu entziffern, rang er Jahr-hunderte lang um seine eigene Stel-lung im Kosmos. Hier setzt das Buch
von Thomas Bührke an. Der Autor,promovierter Astrophysiker und
Wissenschaftsjournalist, beschreibtdie Geschichte vom Werden unseres
Weltbilds nicht chronologisch mitFakten, sondern exemplarisch an-hand von Personen: Nikolaus Ko-pernikus, Johannes Kepler, GalileoGalilei, Friedrich Wilhelm Herschel,Friedrich Wilhelm Bessel, Urbain Jo-seph Leverrier, John Couch Adams,Edwin Powell Hubble, Julius RobertOppenheimer.
Die Porträtgalerie beginnt natür-lich mit Kopernikus, der die Erde ausdem Zentrum des Universums ver-bannt und das heliozentrische Sys-tem erstmals in mathematisch ge-schlossener Form darstellt – wenn-gleich er noch viele Hilfskonstrukte
104 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
U erschienen
machen, ebenso. Hat man einmal dieeinleitenden Kapitel gelesen, kannman also je nach Laune und Interes-se durchaus von einer Anekdote zur nächsten springen und sich die Un-terkapitel herauspicken, deren Über-schriften sozusagen am meisten Ap-petit machen. SUSANNE BEER
Die Nägel des
Kopernikus
Rudolf Kippenhahn, AMOR UND DER
ABSTAND ZUR SONNE, Geschichten aus
meinem Kosmos, 186 Seiten mit etwa
80 Abbildungen, Piper Verlag, München,
Zürich, 17,90 Euro.
Nur wenige Wissenschaftler ver-
stehen es, verständlich, span-nend und zugleich präzise über For-schung zu schreiben. Rudolf Kippen-hahn, von 1975 bis 1991 Direktor amMax-Planck-Institut für Astrophysik,beherrscht dieses schwierige Geschäftwie kaum ein Zweiter. Hunderte Vor-träge hat er gehalten und zehn po-pulärwissenschaftliche Bücher veröf-fentlicht. Der vor rund zwanzig Jah-ren erschienene Titel „Hundert Milli-arden Sonnen“ zählt mittlerweile zuden Klassikern dieses Genres. Kip-penhahns Vortrags- und Schreibstilist neben dem großem Fachwissengeprägt von Anekdoten und Apercus.Diese Kunst des „amüsierenden Be-lehrens“ zelebriert er besonders inseinem neuesten Buch Amor und der
Abstand zur Sonne. Darin begibt sichder Autor auf Spurensuche durch 500Jahre Astronomie.
Nicht die großen Geschichten sindes, die Kippenhahn reizen, sonderndie „Geschichtchen“ drumherum. Ei-nem Archäologen gleich, hebt Kip-penhahn so manchen (kunst)histori-schen Schatz. Und das ist gelegent-lich wörtlich zu nehmen. Da ist zumBeispiel die „Himmelfahrt Mariae“des Ludovico Cigoli in der Paulini-schen Kapelle von Santa Maria Mag-giore in Rom. Die Madonna nämlich,so erfährt der Leser, steht deshalb auf einer kraterübersäten Mondsichel,weil der Maler die 1610 erschienene
Abhandlung Sidereus Nuncius seines
Das Zahngold
der Etrusker
Dierk Raabe, MORDE, MACHT,
MONETEN, Metalle zwischen Mythos und
High-Tech, 235 Seiten, Abbildungen,
Wiley-VCH Verlag, Weinheim, 24,90 Euro.
Lehrende an der Hochschule ken-nen das: Mitten in der Vorle-
sung stehen immer mal wieder ein-zelne Studenten auf und verlassenden Hörsaal – ob aus wichtigen Ter-mingründen oder weil sie sich lang-weilen, wer weiß das schon. Dierk Raabe hat ein Rezept dagegen gefun-den. Der Wissenschaftler bemerkte,dass sich die mittlere Verweildauer
von Studierenden in einer Vorlesungüber Metalle steigern lässt, wenn
man die Zuhörerschaft mit Hinter-grundanekdoten unterhält. Warumsollte, was bei Studenten funktio-
niert, nicht auch für interes-sierte Laien gelten? Aus seiner Sammlung solcher Geschich-ten stellte der 36-Jährige, der als Direktor am Max-Planck-Institut für Eisenforschung inDüsseldorf arbeitet, ein Buchzusammen. Es soll dem Leser die Welt der Metalle zwischenMythos und Hochtechnologienäher bringen und einen Ein-
blick in ihre kulturgeschichtlicheund technische Bedeutung als uralteBegleiter des Menschen geben.
Um es vorweg zu nehmen: DasUnterhalten funktioniert wirklichauch bei interessierten Laien. Mandenke sich einen schönen Titel ausund schon ist das Interesse für die
Wissenschaft zwischen den Buch-klappen geweckt – zumindest wennman keine Abneigung gegen Allite-rationen hat. Denn das Werk heißt„Morde, Macht, Moneten“. Und dasPaperback-Päckchen (!), das der Ver-lag in seiner Reihe Erlebnis Wissen-schaft anbietet, hält, was der Titel
verspricht.Dabei ist es logisch, dass das Buch
eine enorme Bandbreite geheimnis- voller, fesselnder und informativer Geschichten liefert. Denn, so lernenwir, von den mehr als 100 Elementenim Periodensystem gehören etwa 80
zu den Metallen. Da kann man sichgut vorstellen, dass es kaum ein Pro-dukt, einen Stoff auf der Welt gibt,in dem nicht irgendeines davon ver-steckt wäre. Staunend liest man, dassMetalle sogar schäumen können,dass sie ein Erinnerungsvermögenbesitzen, dass unter anderem Geister
Anteil an der Namensgebung be-stimmter Metalle hatten und Goldnicht das wertvollste Metall ist. Manerfährt, warum der Stahl des Titanic-Schiffsrumpfes aus heutiger Sicht
von schlechter Qualität war, wie dieKonservendose entstand und dassetruskische Zahnärzte bereits 600Jahre vor unserer Zeitrechnung Goldals Zahnersatz verwendeten.
Metalle sind mehr als chemischeElemente. Sie sind Namensgeber ge-
schichtlicher Epochen, Werkzeugefür und bisweilen sogar Anlass vonInvasion und Krieg, Basis großer Kunstwerke und als Schmuck sinnli-che Begleiter des Körpers. Vor allemGold hat immer wieder Menschen inseinen Bann gezogen, selbst gestan-dene Wissenschaftler wurden biswei-len vom Goldrausch erfasst – zumBeispiel Fritz Haber. Im Jahr 1925segelte er auf Wunsch der deutschenRegierung streng geheim an Borddes Forschungsschiffes „Meteor“ mitin Richtung Südatlantik, um demMeer ein Vermögen abzutrotzen.Man wusste aus Arbeiten zum Me-tallgehalt des Meerwassers, dassauch Gold darin vorkommt. DochHabers Annahme, jeder Kubikkilo-meter könne mehrere Kilo des Edel-metalls enthalten, stellte sich bei denUntersuchungen als viel zu optimis-tisch heraus. Tatsächlich war es nur etwa ein Tausendstel der erwartetenMenge – zu wenig, um damit sovielzu gewinnen, wie es die Reparations-leistungen nach dem verlorenen Ers-ten Weltkrieg erfordert hätten. Denngenau das war das eigentliche Zieldieser Mission gewesen.
Die Aufzählung könnte lange soweitergehen. Der Anspruch des Au-tors, etwas über Metalle zumSchmökern anzubieten, ist mehr alserfüllt, der Wunsch, auf die Querver-bindungen zwischen Geschichte undNaturwissenschaften aufmerksam zu
Freundes Galileo Galilei kannte, der darin den Erdbegleiter mit vielenKratern zeichnet, die er kurz zuvor inseinem Fernrohr entdeckt hat. Apropos Teleskop: Friedrich Wil-
helm (William) Herschel war einer der besten Beobachter seiner Zeit. Er begründete die „Stellarstatistik“ undentdeckte im März 1781 den PlanetenUranus. Soweit die Geschichte, wieman sie im Lexikon nachlesen kann.
Aber kennen Sie William J. Herschel?Er war der Enkel des berühmten
Astronomen, hatte mit Sternen aber nichts am Hut. Als Kolonialbeamter in Rangoon in Indien gehörte es zuseinen Pflichten, den pensioniertenindischen Beamten monatlich ihrePension auszuzahlen. Das war schwierig, den die Männer sahen sich
– für europäische Augen jedenfalls –recht ähnlich und hatten oftmals so-gar denselben Namen. Herschel war
aufgefallen, dass sich inden Abdrücken schmut-ziger Finger für jedenMenschen charakteristi-sche Muster zeigen. Da-her mussten die Pen-sionäre die Auszahlungmit Fingerabdrückenquittieren – William J.Herschel wurde so ganznebenbei zum Erfinder
einer der wichtigsten kriminalisti-schen Methoden.
Der Satz „... und das weiß kaumein Astronom“, mit dem das Kapitelüber den Detektiv endet, könnte pro-grammatisch über dem gesamtenBuch und seinen vier Abschnitten(„Geschichten aus der Geschichte“,„Finstere Geschichten“, „Geschichten
von heute“ und „Geschichten vom Weltall“) stehen. Was selbst Fach-leute erstaunt, überrascht Laien erstrecht. Oder hätten Sie gewusst, dassSie das Fenster zu Kippenhahnsehemaligem Arbeitszimmer in derGöttinger Sternwarte oft mit sichherumgetragen haben – auf einemZehnmarkschein? Dass Karl Fried-rich Zöllner, der „Vater der Astro-physik“, Geister aus der vierten Di-mension beschwor? Dass NikolausKopernikus auf einem berühmtenBild die Fingernägel am falschen
benötigt, um die Theorie der Praxisanzupassen. Auf diesem Fundamenterrichten Kepler und Galilei ihre
Weltgebäude. Dabei müssen sie mitharten Lebensumständen kämpfenwie Johannes Kepler, der – häufigam Rand des Existenzminimums – inZeiten des Dreißigjährigen Kriegsunstet durch die Lande zieht, oder werden wie Galileo Galilei für ihrewissenschaftliche Überzeugung mas-siv angefeindet.
Ende des 18. Jahrhunderts findetHerschel heraus, dass die Sonne nur einer von unzähligen anderen Ster-nen in der Milchstraße ist. Die Gala-xis wiederum ist nur eine unter Mil-liarden anderen Galaxien, und allediese „Welteninseln“ streben vonei-nander fort. Diese Erkenntnisse ver-
danken wir Edwin Powell Hubble(1889 bis 1953), der sich zunächstals Boxer profiliert, im englischenOxford ein Jurastudium ab-bricht, danach an einer HighSchool im US-BundesstaatKentucky Spanisch unterrich-tet und sich 1914 schließlichder Astronomie verschreibt.
Am damals größten Teleskopder Erde, am 2,5-Meter-Spie-gelfernrohr auf dem Mount
Wilson, wird er wenige Jahrespäter den menschlichen Ho-rizont erweitern. „Hier ist der Brief,der mein Universum zerstört hat“,sagt der Astronom Harlow Shapley,als er von Hubbles Entfernungs-messung des „Andromeda-Nebels“erfährt, der demnach eine eigen-ständige Galaxie sein muss.
In sehr angenehmen Stil schildertThomas Bührke nicht nur die Wegeund Irrwege der Forschung (die sichbesonders drastisch im Streit um dieBerechnung des Planeten Neptunspiegeln). Stets zeichnet der Autor auch die Wege und Irrwege der For-scher, ihre Mühsal, ihre Zweifel –und ihre „Sternstunden“ nach. Sogerät das Buch zu einer anregendenEntdeckungsreise durch die Ge-schichte der Himmelskunde. Bührkehebt den Vorhang und lässt denLeser hinter die Kulissen blicken –auf die Menschen, die Wissenschaftmachen. HELMUT HORNUNG
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 54/59
INSTITUTE akt
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 107106 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
INSTITUTEaktuell aktuell
Gleich vier Jubiläen auf ein-mal – sozusagen eine Fusionbesonderer Art – haben EndeOktober die Mitarbeiter desMax-Planck-Instituts fürPlasmaphysik (IPP) in Gar-ching gefeiert, das sich seitnun 40 Jahren der Erfor-
schung der Kernfusion wid-met, um sie zur Energiege-winnung auf der Erde nutz-bar zu machen. In Anwesen-heit des bayerischen Minis-terpräsidenten EdmundStoiber und Max-Planck-Präsident Hubert Markl so-wie Vertretern des Bundes-forschungsministeriums,der Europäischen Union undvielen Ehrengästen wurdenaußerdem die 30-jährigeMitgliedschaft in der Max-Planck-Gesellschaft, dieweltweit erste Demonstrationreinen Stellaratorbetriebseines Fusionsexperimentsvor 20 Jahren sowie der 10- jährige erfolgreiche Betriebvon ASDEX Upgrade, dergrößten deutschen Fusions-anlage, gewürdigt.
Die Fusionsforschung begannEnde der vierziger Jahre mitdem Ziel, ein Kraftwerk zu ent-
wickeln, das – ähnlich wie dieSonne – Energie aus der Ver-schmelzung von Atomkernengewinnt. Zum Zünden desFusionsfeuers muss es gelingen,ein dünnes Plasma aus denWasserstoffsorten Deuteriumund Tritium in Magnetfeldernwärmeisolierend einzuschließenund auf mehr als 100 MillionenGrad aufzuheizen. 1960 wurdedas IPP als Institut für Plasma-physik GmbH durch die Max-
Planck-Gesellschaft und WernerHeisenberg als Gesellschaftergegründet und 1961 per Asso-ziationsvertrag mit Euratom indas europäische Fusionspro-gramm integriert und im Jahr1971 in das Max-Planck-Insti-tut für Plasmaphysik umge-wandelt. Heute ist es mit rund1000 Mitarbeitern eines dergrößten Fusionszentren Europas– und erfolgreich. Man feierewichtige Meilensteine mit deram IPP immer weiter ent-wickelten Stellarator- und To-kamak-Technik, um Plasmeneinzuschließen, erläuterteAlexander Bradshaw, wissen-schaftlicher Direktor am Insti-
tut, beim Jubiläumsfest. Und:„Kurz vor dem Ende des 20.Jahrhunderts ist es der welt-weiten Fusions-Communitygelungen, die Machbarkeit derKernfusion als Energiequellezu demonstrieren, indem eineerhebliche Leistung durch dieFusionsreaktion experimentellnachgewiesen wurde.“Die Arbeiten des IPP waren beider Gründung sehr breit ange-legt; man studierte das Verhal-
ten des Plasmas mit verschie-densten Methoden magneti-schen Plasmaeinschlusses.Schon 1961 ging der erste Stel-larator, WENDELSTEIN 1a, inBetrieb. Während in den sechzi-ger Jahren die experimentellenResultate trotz großer Kennt-nisfortschritte weltweit unbe-friedigend blieben, funktionier-te der kleine Stellarator in Gar-ching, das „Munich mystery“,gut. Und WENDELSTEIN 2akonnte 1969 mit relativ kaltenModellplasmen von geringerDichte nachweisen, dass in Stel-laratoren der gute Plasmaein-schluss, den die Theorie erwar-ten lässt, wirklich möglich ist.
Doch die internationale For-schung ging in eine andereRichtung. Im Jahr 1968 melde-ten sowjetische Fusionsforscheraußerordentlich gute Ergebnis-se ihres Tokamaks T3. Ihre Erfin-dung sollte wesentlich bessereEinschluss- und Stabilitätsei-genschaften besitzen als allebisherigen Anlagen. Dies warder Auslöser für ein weltweites„Tokamak-Fieber“. Doch wegender eigenen guten Ergebnisse
wurden im IPP die Stellaratorar-beiten weitergeführt. Zusätzlichbegann aber 1970 die Planungfür den ersten Tokamak, Pulsator,der 1973 in Betrieb ging. Seitherist das Institut das einzige welt-weit, das beide im Vergleichuntersucht.Tokamaks erzeugen den Mag-netfeldkäfig sowohl durch Mag-netspulen außerhalb des Plasmasals auch durch einen im Plasmafließenden elektrischen Strom.Da der Strom auch für die An-fangsheizung des Plasmas sorgt,gilt das Tokamak-Prinzip als be-sonders effektiv. Stellaratorendagegen schließen das Plasmadurch Magnetfelder ein, die aus-schließlich durch äußere Mag-netspulen erzeugt werden.
Im Jahr 1980 nahm das IPP sei-nen neuen Tokamak ASDEX (Axi-alsymmetrisches Divertor-Experi-ment) in Betrieb und entdecktedamit 1982 das so genannteH-Regime (High-confinementregime), mit dem die erzielbareWärmedämmung verdoppeltwerden konnte. Erreicht wurdedies durch eine besondere Mag-netfeldanordnung – den Divertor.Aber auch die Stellaratoren wa-ren erfolgreich: 1980 konnte inGarching weltweit zum erstenMal das reine Stellaratorprinzip –Einschluss ohne Plasmastrom –mit einem heißen Plasma de-monstriert werden. Aufbauendauf diesen Erfolgen betreibt dasIPP seit 1988 den weiter ent-wickelten Stellarator WENDEL-STEIN 7-AS. Er hat inzwischenalle Rekorde seiner Größenklassegebrochen.Parallel ging 1983 der europä-ische Tokamak JET (Joint Euro-pean Torus) als Gemeinschafts-
experiment mit IPP-Beteiligungin Betrieb. Weil JET bereits in derersten Betriebsphase sehr gutePlasmawerte erzielte, verständig-ten sich die Regierungschefs derSowjetunion, Frankreichs und derUSA 1985 auf das Fusionsexperi-ment ITER, den InternationalenThermonuklearen Reaktor. Er sollzeigen, dass es möglich ist, durchKernverschmelzung Energie zugewinnen und erstmals ein fürlängere Zeit brennendes und
PLASMAPHYSIK Vier Jahrzehnte
Energieforschung für die Zukunft
energielieferndes Plasma zu er-zeugen. Zudem sollen wesentlichetechnische Funktionen einesKraftwerks getestet werden. Von1988 bis 1990 arbeitete die eu-ropäisch-japanisch-amerikanisch-russische ITER-Planungsgruppeam IPP in Garching am Entwurf des Testreaktors.1991 gelang es mit dem europä-ischen Tokamak JET zum erstenMal in der Geschichte der Fusi-onsforschung, die in einem Kraft-werk vorgesehene Reaktion zuverwirklichen: In einem „ver-dünnten“ Deuterium-Tritium-Plasma wurde mehr als ein Mega-watt Fusionsleistung freigesetzt.1997 schaffte JET die Erzeugungvon 14 Megawatt Fusionsleistungfür zwei Sekunden; 65 Prozent
der zum Heizen aufgewandtenLeistung wurde dabei per Fusionzurückgewonnen. Voraussetzungfür diese Resultate war die Um-rüstung auf Divertorbetrieb nachdem Vorbild des IPP-ASDEX. Dieinzwischen erneut verbesserteDivertorkonstruktion ASDEX Up-grade schien darum unter denAnlagen des europäischen Fu-sionsprogramms besonders ge-eignet für ITER. Und tatsächlich:Die vor drei Jahren fertig gestell-ten ITER-Baupläne muten inwesentlichen Teilen wie eine ver-größerte Kopie der GarchingerAnlage an. Derzeit wird einStandort für den Bau des Test-reaktors gesucht. Das IPP führteaber auch die Stellaratorstudienweiter. So entsteht der nächsteStellarator WENDELSTEIN 7-Xderzeit im Teilinstitut in Greifs-wald. Das Teilinstitut wurde 1994gegründet, um zum Aufbau Ostim Forschungssektor beizutragen.Schon zwei Jahre zuvor war in
Berlin nach Auflösung des frühe-ren DDR-Zentralinstituts fürElektronenphysik der Forschungs-bereich Plasmadiagnostik gegrün-det worden. „Damit gelang es,die Forschungspotenziale derehemaligen DDR auf dem Gebietder Plasmaforschung zu erhaltenund in neue Zukunftsprojekteeinzubinden“, sagte PräsidentHubert Markl beim Jubiläums-festakt. Das IPP stehe heute„sicher auf zwei Beinen“.
Prominente
Geburtstagsgäste,
von links: Karl
Tichmann, adminis-
trativer Geschäfts-
führer des IPP,
Fritz Vahrenholt,
Vorstandsvorsitzen-
der der REpower
Systems AG,Hermann Schunck,
Bundesministerium
für Bildung und
Forschung, Max-
Planck-Präsident
Hubert Markl und
der bayerische
Ministerpräsident
Edmund Stoiber –
im Bild linkswährend seiner
Ansprache.
Heiß begehrt war der Science-Tunnel der Max-Planck-Gesellschaft 2001 im Reich der Mitte.Auf der Tournee durch China machte die etwa170 Meter lange Mulitmedia-Ausstellung, diein die Welt der Forschung führt, in Peking undShanghai Station. Den Science-Tunnel hattedie Max-Planck-Gesellschaft zum ersten Mal imThemenpark auf der EXPO 2000 in Hannovergezeigt.
Vom 29. April bis zum 10. Oktober 2001 war dieAusstellung im Pekinger Science and TechnologyMuseum zu sehen, wo sie den Einmillionsten Besu-cher verzeichnete. Mit Unterstützung durch dieShanghai Association for Science and Technologyund die Shanghaier Stadtregierung reiste der„Tunnel der Erkenntnis“ anschließend auf zweiLastzügen von Peking nach Shanghai und wurdedort vom 8. November bis 4. Dezember 2001gezeigt. In einer Art „Zoom“ bietet der Science-Tunnel Einblicke in den Mikro- und Makrokosmos.Der Weg verläuft über zwölf Stationen von denkleinsten Teilchen bis zu den größten Strukturen
im Universum. Diese ganzheitliche Darstellungmoderner Forschung zwischen Mikro- und Makro-kosmos entspricht durchaus chinesischer Denktra-dition und vermittelt den Besuchern zugleich einBild von der internationalen Leistungsfähigkeitund Attraktivität der Forschung in Deutschland.Im Jahr 2002 macht der Science-Tunnel in ver-schiedenen europäischen Städten Station. Unterwww.sciencetunnel.de/ können Interessierte jeder-zeit einen „virtuellen Rundgang“ durch die Aus-stellung unternehmen und unter http://2000plus.mpg.de/ in den „Forschungsperspektiven 2000+“der Max-Planck-Gesellschaft blättern. F
O T O : A R C H I M E D E S
SCIENCE-TUNNEL
Attraktion imReich der Mitte
F O T O S : M P I F Ü R P L A S M A P H Y S I K ,
I P P
Früh übt sich, wer einmal ein bedeutender Wissen-
schaftler werden will: Dieser Pekinger Schüler jedenfalls
ließ sich vom Science-Tunnel begeistern und gab bereit-
willig ein Interview für das Chinesische Staatsfernsehen.
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 55/59
Der Senat der Max-Planck-Gesellschaft hat auf seinerSitzung am 23. Novemberin Düsseldorf beschlossen,in Hannover ein Teilinstitutdes Max-Planck-Institutsfür Gravitationsphysik (Sitz:Golm bei Potsdam) zu grün-den. Das Teilinstitut soll ex-perimentell forschen unddamit die Arbeit des theore-tisch ausgerichteten GolmerHauptinstituts ergänzen.In enger Kooperation mitdem Laserzentrum und der
Universität Hannover willdie Max-Planck-Gesellschaftmit dem neuen Teilinstitutin der niedersächsischenLandeshauptstadt zukünftigein internationales Zentrumfür Gravitationswellen-Astronomie betreiben.
Vor mehr als 80 Jahren sagteAlbert Einstein die Existenz vonGravitationswellen voraus, abererst heute steht die notwendi-ge Technologie zur Verfügung,um diese kleinen Krümmungenvon Raum und Zeit nachzuwei-sen und zur Beobachtung derdunklen Seite des Universumszu nutzen. Die Max-Planck-Ge-sellschaft hat seit der Pionier-zeit der experimentellen Gravi-tationswellenforschung in den1970er Jahren eine internatio-nale Spitzenstellung inne. ImJahr 1994 errichtete das Gar-chinger Max-Planck-Institutfür Quantenoptik gemeinsam
mit der Universität Hannoverzunächst eine experimentellarbeitende Außenstelle in derniedersächsischen Landes-hauptstadt. In enger Koopera-tion wurde dann das ProjektGEO600 zur experimentellenErforschung von Gravitations-wellen gestartet. Der in diesemRahmen gebaute Gravitations-wellendetektor ist zwar sechs-mal kleiner als die in den USAund Italien entstehenden Anla-
gen. Doch dank des Einsatzesmodernster Technologie er-reicht er eine mit den größerenAnlagen vergleichbare Leis-tungsfähigkeit. Darüber hinauswurde der erste Testlaufbereits abgeschlossen.Im Jahr 1994 wurde auch dasMax-Planck-Institut für Gravi-tationsphysik in Golm gegrün-det. Das Forschungsprogrammdieses theoretisch ausgerich-teten Instituts erstreckt sichüber das gesamte Spektrumder Gravitationsphysik. Die drei
Abteilungen widmen sich vorallem den folgenden Themen:allgemeine Relativitätstheorie,astrophysikalische Anwendun-gen der Relativitätstheorieund Quantengravitation sowie Vereinheitlichte Theorien.Große Computersimulationenan institutseigenen Anlagengehören ebenso zum wissen-schaftlichen Alltag wie dieZusammenarbeit mit anderenGruppen und die Teilnahme anmehreren internationalen Pro- jekten, wie zum Beispiel denoben erwähnten Gravitations-wellendetektoren GEO600 undLISA. Darüber hinaus koordi-niert das Institut ein EU-Netz-werk über die theoretischenGrundlagen der Gravitations-wellenastronomie und ist Part-ner in zwei weiteren EU-Netz-werken zur Quantengravitationund Stringtheorie.Die Universität Hannover istweiterhin eng in das For-
schungskonzept eingebunden:Ein Kooperationsvertrag siehtvor, das Teilinstitut mit zweiexperimentellen Abteilungenauszustatten. Dabei bringt dieMax-Planck-Gesellschaft eineAbteilung unter der Leitungeines hauptamtlichen Direktorsein, die Universität Hannoverstellt mit Prof. Karsten Danz-mann (Jahrgang 1955), der ander Hochschule seit 1993 denLehrstuhl für Atom- und Mo-
lekülphysik innehat, den Leiterder zweiten Abteilung im Ne-benamt.Danzmann führt seit 1990 dieGravitationswellengruppe amGarchinger Max-Planck-Insti-tut für Quantenoptik. Alshauptverantwortlicher Wissen-schaftler von GEO600 – dasProjekt wird gemeinsam mitden britischen Universitäten inGlasgow und Cardiff betrieben– koordinierte Karsten Danz-mann seit 1994 erfolgreich dieEntwicklung und den Bau des
Gravitationswellendetektors.Außerdem ist der Forscher seitrund sieben Jahren feder-führender Wissenschaftler desLISA-Gravitationswellenexperi-ments und hat jetzt im Auftragder Europäischen Raumfahrt-agentur ESA dessen Leitungübernommen. Das Gemein-schaftsprojekt zwischen derESA und der US-amerikani-schen Raumfahrtbehörde NASAsoll im Jahr 2011 gestartetwerden.Die beiden Abteilungen desMax-Planck-Instituts für Gravi-tationsphysik in Hannover sol-len in frei werdende Räume derUniversität einziehen. Das LandNiedersachsen hat zugesagt,die Umbaukosten in Höhe vonrund 25 Millionen Mark zutragen; im Gegenzug wird dieMax-Planck-Gesellschaftanteilig Miete zahlen.
INSTITUTE akt
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 109
Der Senat der Max-Planck-Gesellschaft hat auf seiner Sit-zung am 23. November in Düs-seldorf Professor Peter Grusszum Präsidenten der For-schungsorganisation für dieAmtsperiode 2002 bis 2008gewählt. Der 52-jährige Ent-wicklungsbiologe ist Direktoram Göttinger Max-Planck-In-stitut für biophysikalischeChemie und folgt im Amt Hu-bert Markl nach, dessen Präsi-dentschaft Mitte nächstenJahres regulär enden wird.
Markl hatte bereits im Februarunter Hinweis auf Altersgrün-de seinen Verzicht auf einezweite Amtsperiode erklärt.Die Amtsübergabe wird imRahmen der 53. Hauptver-sammlung der Max-Planck-Gesellschaft im Juni 2002in Halle stattfinden.
Peter Gruss ist seit 1986 Direktoram Max-Planck-Institut für bio-physikalische Chemie in Göttin-gen. Dort leitet er die Abteilungfür molekulare Zellbiologie. Mitder Wahl von Gruss folgten dieSenatoren der Max-Planck-Gesellschaft dem Vorschlag derSenatskommission zur Vorbe-reitung der Präsidentenwahl.Das Gremium unter Leitungvon Max-Planck-VizepräsidentProf. Günther Stock hatte denWissenschaftler als einzigenKandidaten empfohlen.Peter Gruss wurde 1949 im hes-sischen Alsfeld geboren. Im Jahr
1968 nahm er das Biologiestu-dium an der Technischen Hoch-schule in Darmstadt auf undging im Anschluss daran an dasDeutsche Krebsforschungszent-rum nach Heidelberg, um dortam Institut für Virusforschungan seiner Dissertation zu arbei-ten. 1977 wurde Gruss an derHeidelberger Universität in Bio-logie promoviert. Im folgendenJahr wechselte er an das Labora-tory of Molecular Virology der
National Institutes of Health inBethesda, Maryland (USA). 1982nahm er einen Ruf der Heidel-berger Universität auf eine Pro-fessur am Institut für Mikrobio-logie an. Im Jahr darauf wurde erzudem in das Direktorium desZentrums für Molekulare Biolo-gie Heidelberg (ZMBH) berufen.1986 schließlich folgte er demRuf zum Direktor am Max-Planck-Institut für biophysikali-sche Chemie in Göttingen undzum Wissenschaftlichen Mitgliedder Max-Planck-Gesellschaft.
Seit 1990 hat er eine Honorar-professur an der Göttinger Uni-versität inne.Peter Gruss ist ein internationalausgezeichneter Forscher undakademischer Lehrer. Im Rahmenseiner Forschungsarbeiten be-schäftigt er sich vor allem mitden molekularen Mechanismender Wirbeltierentwicklung: Wieentsteht aus einer befruchtetenEizelle ein ganzer Organismus?Welche „Choreografie“ liegt derEmbryonalentwicklung zugrun-de? Wie wird festgelegt, welcheZelle zu welchem Zeitpunktund an welchem Ort gebildetwird? Und wie finden sich dieZellen dann zu funktionsfähigenOrganen zusammen? In umfang-reichen Forschungen konntenPeter Gruss und seine Mitarbei-ter Entwicklungskontrollgeneidentifizieren, die bei der Mausdie Bildung bestimmter Organesteuern. Im Vordergrund standenStudien zur Augenentwicklung
sowie zur Entwicklung undRegeneration der Bauchspei-cheldrüse.Für seine herausragenden For-schungsleistungen erhielt PeterGruss 1994 den Leibniz-Preisder Deutschen Forschungs-gemeinschaft und 1995 denrenommierten Louis-Jeantet-Preis für Medizin. Für die anwen-dungsorientierte Umsetzung vonErgebnissen aus der Grundlagen-forschung wurde ihm gemein-
sam mit seinem Kollegen Prof.Herbert Jäckle im Jahr 1999 derWissenschaftspreis des Stifter-verbands und der mit einerhalben Million Mark dotierte
Deutsche Zukunftspreis desBundespräsidenten verliehen.Peter Gruss engagiert sich da-rüber hinaus intensiv in der For-schungspolitik der verschiedenennationalen und internationalenGremien. So ist er Mitglied imLenkungsgremium „NationalesGenomforschungsnetz“ des Bun-desministeriums für Bildung undForschung und war deutscherRepräsentant des wissenschaft-lichen Gremiums des HumanFrontier Science Program.Daneben gehört er der Interna-tional Society for DevelopmentalBiology an, deren Präsident ervier Jahre lang war.Derzeit führt Gruss den Vizevor-sitz der European DevelopmentalBiology Organisation (EDBO)und ist Mitglied in der EuropeanMolecular Biology Organisation(EMBO) sowie der DeutschenAkademie der NaturforscherLeopoldina. Darüber hinaus ister Vorsitzender des Rates des
European Molecular BiologyLaboratory (EMBL). Auch inner-halb der Max-Planck-Gesell-schaft hat Peter Gruss in seinerFunktion als Vorsitzender derKommission für Forschungsper-spektiven, des ArbeitskreisesGenomforschung der Biologisch-Medizinischen Sektion sowieals stellvertretender Vorsitzen-der dieser Sektion wichtigeforschungspolitische Impulsegegeben.
STITUTE aktuell
108 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
F O T O : M P I F Ü R B I O P H Y S I K A L I S C H E C H E M I E
Peter Gruss
wird im Sommer
2002 sein Amt
als Präsident der
Max-Planck-
Gesellschaft an-treten.
NAT
eter Gruss nächster Präsident
er Max-Planck-Gesellschaft
GRAVITATIONSWELLEN-ASTRONOMIE
Neues Teilinstitut
in Hannover gegründet
Diese Spiegel
gehören zurMessanlage de
Gravitations-
wellendetekto
GEO600.
F O T O : W O L F G A N G F I L S E R
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 56/59
INSTITUTE akt
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 111
STITUTE aktuell
110 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
Nicht nur in DeutschlandForschung zu betreiben, son-dern sich auch internationalzu engagieren, Kontakteweltweit zu knüpfen undNachwuchs zu fördern: DieseZiele verwirklichen Mitarbei-ter des Max-Planck-Institutsfür ausländisches und inter-nationales Strafrecht inFreiburg und des GöttingerMax-Planck-Instituts fürGeschichte mit zwei neuenForschungsvorhaben. DieJuristen arbeiten an einem
Projekt zur „Polizei im latein-amerikanischen Rechtsstaat“;die Historiker laden nachder erfolgreichen Premierein diesem Jahr für 2002 zueiner deutsch-russischenSommerschule für Dokto-randinnen und Doktorandender Geschichte und Wissen-schaftsgeschichte zumThema „Historische Anthro-pologie – Geschichte vonHaushalt, Familie und Ver-wandtschaft“ ein.
Am Max-Planck-Institut fürausländisches und internatio-nales Strafrecht haben Kai Am-bos und Teresa Manso bereitsmit der Arbeit am neuen Pro- jekt begonnen, das von denzwei externen Beratern LuisGómez Colomer (UniversitätCastellon, Spanien) sowie Rich-ard Vogler (Universität Sussex,Großbritannien) begleitet wird.Bei einem Workshop mit weite-
ren Kollegen aus 14 lateiname-rikanischen Staaten stellten siees im August parallel zum Kon-gress über aktuelle Themen desStrafverfahrens in Sao Paulo(Brasilien) vor. Zu dieser Veran-staltung hatte das Max-Planck-Institut in Kooperationmit der Generalstaatsanwalt-
schaft (Ministerio Público)des Bundesstaats Sao Pauloeingeladen. Auf dem Kongresswurden vier Hauptvorträge zuFragen des strafprozessualenErmittlungsverfahrens, der(staatsanwaltschaftlichen)Kontrolle der Polizei, der Un-tersuchungshaft und Formenkonsensualer Streiterledigunggehalten, die jeweils vonzwei brasilianischen Kollegenkommentiert wurden.Im begleitenden Workshopzum Projekt „Die Polizei imlateinamerikanischen Rechts-staat“ wurde mit den Kollegenaus Argentinien, Bolivien, Bra-silien, Chile, Ecuador, El Salva-dor, Guatemala, Kolumbien,Mexiko, Nicaragua, Paraguay,Peru, Uruguay und Venezuelaein Gliederungsvorschlag fürdie Landesberichte diskutiertund in einer erheblich modifi-
zierten und erweiterten Formverabschiedet. Bis Ende März2002 müssen die insgesamt16 Landesberichte – neben dengenannten Staaten beteiligensich auch noch Kuba und CostaRica – nun erstellt und an dasFreiburger Institut geschicktwerden. Dort werden sie in
gemeinsamer Redaktion mitden externen Beratern geprüftund anschließend ausgewertet.Die Länderuntersuchung istein Nachfolgeprojekt eines inKooperation mit der Konrad-Adenauer-Stiftung (KAS) un-ternommenen Forschungsvor-habens zur „Strafverfahrens-reform in Lateinamerika“, dasim vergangenen Jahr beendetwurde. Es schließt inhaltlichdaran an und wurde von Teil-nehmern des ersten Projektsübereinstimmend für notwen-dig gehalten – zum einen an-gesichts der in Lateinamerikaalltäglichen polizeilichen Will-kür und den damit verbunde-nen Menschenrechtsverletzun-gen, zum anderen wegen derIneffizienz und Bestechlichkeitder Polizei. Außerdem, so derProjektleiter Kai Ambos, ent-schieden im Hinblick auf das
Strafverfahren Qualität undGewicht der polizeilichen Er-mittlungen maßgeblich überErfolg oder Misslingen derlateinamerikanischen Reform-bestrebungen.Noch nicht abschließend ge-klärt ist bislang die Finanzie-rung des Forschungsprojekts,
INTERNATIONALE PROJEKTE
Engagements in Lateinamerika
und Russland
Luis Gómez
Colomer von
der Universität
Castellon während
seines Vortrags.
das unter anderem mit Eigen-mitteln gefördert wird. DerKongress sowie der Workshopwurden vom Ministerio Públicound vom Auswärtigen Amtfinanziell unterstützt. DieFriedrich-Ebert-Stiftung (FES)hat drei nationale Experten ausGuatemala, El Salvador undKolumbien unter Vertrag ge-nommen, die Gesellschaft fürtechnische Zusammenarbeit(GTZ) die Teilnahme von para-guayischen Kollegen ermög-licht. Die Projektverantwort-lichen und die Landesbericht-erstatter beabsichtigen überdie Erarbeitung der Landesbe-richte hinaus einen intrakonti-nentalen Diskussionsprozessdurch ähnliche Veranstaltun-
gen auf nationaler Ebene inGang zu setzen. Dazu bedarfes freilich einer besseren Ver-netzung und der Hilfe interna-tionaler und nationaler Insti-tutionen, die eine lokale Infra-struktur besitzen – ein stärke-res Engagement von FES undGTZ wäre dafür notwendig.International agiert auch dasMax-Planck-Institut für Ge-schichte in Göttingen. Gemein-sam mit der Europäischen Uni-versität St. Petersburg hat es indiesem Jahr die erste deutsch-russische Sommerschule fürDoktorandinnen und Dokto-randen der Geschichte undder Wissenschaftsgeschichteausgerichtet. Gefördert wurdedie Sommerschule, die unterder Überschrift „Mikroge-schichte – Mikrokosmen desWissens“ stand, von der Volks-wagen-Stiftung.30 Doktorandinnen und Dokto-randen aus deutschsprachigen
Ländern und aus Russland –von St. Petersburg bis Barnaulin Sibirien – haben sich zweiWochen lang intensiv mitneuen Tendenzen der Mikro-und Alltagsgeschichte sowieder Wissenschaftsgeschichtebefasst. Geleitet wurde die Ver-anstaltung von drei Lehrenden
aus Deutschland, JürgenSchlumbohm vom Max-Planck-Institut für Geschichte, MichaelHagner vom Max-Planck-Insti-tut für Wissenschaftsgeschich-
te und Thomas Sokoll von derFernuniversität Hagen, sowievon drei Professoren der jun-gen Europäischen UniversitätSt. Petersburg, Daniel Alexan-drov, Elena Campbell undMichail Krom. Alle Nachwuchs-wissenschaftler stellten ihreForschungsprojekte vor. Jedeseinzelne wurde unter den Dok-toranden und mit den Lehren-den über die Grenzen der na-tionalen Wissenschaftskulturenhinweg intensiv diskutiert.Auch zwischen den Disziplinender Geschichte und der Wis-senschaftsgeschichte entspannsich ein lebhafter Dialog. Dabeiging es um so unterschiedlicheThemen wie das spannungsrei-che Zusammenleben zwischenKatholiken und Juden in einemSchweizer Dorf, die Durchset-zung von Zeitdisziplin in einersowjetischen Fabrik in den1930er Jahren, den Einfluss derWissenschaft auf den Umgang
mit dem Tod im 19. Jahrhun-dert oder die Beschäftigungmit Geschichte in einer sibiri-schen Provinzstadt um 1900.Es blieb aber nicht bei derArbeit in den Räumen derEuropäischen Universität St.Petersburg, die in einem Adels-palais des 19. Jahrhunderts
untergebracht ist. Unter fach-kundiger Führung wurde dieBeziehung von Macht, Wissen-schaft und Städtebau bei derGründung von St. Petersburgim frühen 18. Jahrhundert er-kundet. Besichtigt wurde dieKunstkammer, die seit der ZeitPeters des Großen Sammlungenaus allen Wissensgebieten be-herbergt. Vor den in Weingeistkonservierten Objekten sprachMichael Hagner über die Be-deutung von Monstergeburtenfür die Wissenschaft im 18.
Jahrhundert.Wegen des großen Erfolgs der Veranstaltung ist für August2002 bereits der nächste Som-merkurs in St. Petersburg ge-plant. Er wird sich der histori-schen Anthropologie widmen –der Geschichte von Haushalt,Familie und Verwandtschaft.
Deutsche und russische Dok-
torandinnen und Doktoranden
bewundern den „Großen Globus
von Gottorp“, der 1664 in
Deutschland gebaut und zu Be-
ginn des 18. Jahrhunderts dem
Zaren Peter den Großen vomHerzog von Holstein geschenkt
wurde. Sein Durchmesser beträgt
über drei Meter. Auf der Innen-
seite des Globus ist der Sternen-
himmel dargestellt. Im Globus
befinden sich außerdem ein Tisch
und eine Bank, sodass man beim
Speisen den künstlichen Ster-
nenhimmel bewundern konnte,der von einem kunstreichen
Mechanismus gedreht wurde.
F O T O : M P I F Ü R N A T I O N A L E S U N D I N T E R N A T I O N A
L E S S T R A F R E C H T
F O T O : A .
K U P R I J A N O V
Das Projekt
im Internet:
www.iuscrim.mpg.
de/de/forsch/straf/
projekte/ambos.html
www.iuscrim.mpg.
de/de/forsch/straf/ projekte/ambos3.
html
@
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 57/59
INSTITUTE akt
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 113
STITUTE aktuell
112 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
F O T O : M P G
Mit einem Startkapital vonrund 7,2 Millionen Mark hatdie iOnGen AG in Göttingenihre Arbeit aufgenommen.Das Unternehmen wurde vonden Wissenschaftlern WalterStühmer und Luis Pradovom Max-Planck-Institut fürexperimentelle Medizin inGöttingen gegründet und willneuartige Nachweissystemezur Früherkennung bestimm-ter Krebskrankheiten undentsprechende Medikamenteentwickeln.
Das zunehmende Wissen ausder Grundlagenforschung überdie komplexen Eigenheiten vonKrebszellen ermöglicht die Ent-wicklung neuartiger und ge-zielter Therapien. Diesem Zielhat sich auch die seit Mai 2001bestehende iOnGen AG ver-pflichtet. Die Firma ist bereitsdas vierte „spin-off“-Unterneh-men eines Göttinger Max-Planck-Instituts. Es wurde vonder Garching InnovationGmbH, einem Tochterunter-nehmen der Max-Planck-Ge-sellschaft, in der Konzept- undGründungsphase betreut.iOnGen ist in der ersten Finan-zierungsrunde mit 7,2 Millio-nen Mark ausgestattet wordenund wird darüber hinaus durchdas BioChance-Programmdes Bundesministeriums fürBildung und Forschung unter-stützt. Die wissenschaftlichenGründer sind Walter Stühmer,
Direktor am Max-Planck-Insti-tut für experimentelle Medizin,und Luis Pardo, der vom selbenMax-Planck-Institut als wis-senschaftlicher Leiter zuriOnGen AG wechselte.Die wissenschaftliche Expertiseder Gründer liegt in der Struk-tur- und Funktionsaufklärungvon Ionenkanälen. Ionenkanälesind Membranproteine, dieden Ionenaustausch auf beidenSeiten der Zellmembran kon-
trollieren und vor allem anSignalverarbeitung und -wei-terleitung beteiligt sind. Sieeignen sich besonders alsAngriffspunkte, da sie in derZellmembran für Therapeutikaleicht zugänglich sind und ihreFunktion auf der Ebene ein-zelner Moleküle in Echtzeit ge-nau bestimmt werden kann.Im Mittelpunkt der Aktivitätender iOnGen AG steht dermenschliche EAG-Ionenkanal,der in der von Stühmer geleite-ten Abteilung des Max-Planck-
Instituts als neuartiges „Tumor-protein“ identifiziert und cha-rakterisiert wurde und der sichin einzigartiger Weise als Zielneuer Krebsdiagnose- und–therapieverfahren eignet. DerEAG-Ionenkanal kommt im ge-sunden Organismus fast aus-schließlich im zentralen Ner-vensystem vor und wird inmehr als 90 Prozent der bishergetesteten menschlichen Tu-more vermehrt gebildet. UnterZellkulturbedingungen lässtder EAG-Ionenkanal Zellen zuKrebszellen entarten und trägtauch im Maustumormodellzu einem aggressiven Wachs-tum der Tumorzellen bei.„Wir beobachteten, dass wirdas Tumorzellwachstum sogarunter Zellkulturbedingungenerheblich hemmen konnten,indem wir den EAG-Ionenkanalspezifisch blockierten oderseine Expression verhinderten.Fasst man diese Beobachtun-
gen zusammen, sollten wirnicht nur in der Lage sein,einen Großteil der menschli-chen Tumore in einem frühenStadium mithilfe des EAG-Ionenkanals zu erkennen, son-dern auch durch eine gezielteTherapie gegen den Ionenkanalden Tumor bekämpfen kön-nen”, sagt Luis Pardo.
AUSGRÜNDUNG
iOnGen AG
hat Krebs im Visier
Auf eine lange Forschungs-geschichte kann das Max-Planck-Institut für auslän-disches und internationalesPrivatrecht in Hamburgzurückblicken: Es feierte imJahr 2001 sein 75-jährigesBestehen. Zunächst solltedas Institut mit seiner For-schung bei der Abwicklungder juristischen Folgen desErsten Weltkriegs helfen.Deutsche Richter und An-wälte wussten nur wenigüber die Rechtsentwicklungim Ausland während desKriegs. Der Versailler Vertragwar jedoch von den Begriffenausländischer Rechtsnormengeprägt. Gemischte Schieds-gerichte mit deutschen Bei-sitzern sollten unter anderem
über privatrechtliche Strei-tigkeiten entscheiden, diesich aus Vorkriegsverträgenergaben.
Dabei war es für die deutschenJuristen schwierig, mit ihrenausländischen Kollegen mitzu-halten, denen die Auslegungs-grundsätze des Common Law
und des französischen Rechtsgeläufig waren. Schon 1924forderte deshalb Ernst Rabel,der Gründungsdirektor des Pri-vatrechtsinstituts: „Das Haupt-bedürfnis aber scheint mir,dass ein genügender Stammvon deutschen Juristen um die juristische Mentalität des Aus-lands wisse.“Auch der Reichsverband derdeutschen Wirtschaft hatte an-gesichts der wachsenden Ver-flechtung der Weltwirtschaft inden zwanziger Jahren ein In-teresse an Forschung zum aus-ländischen und internationalen
Privatrecht: Welche Rechtsord-nung gilt beispielsweise, wennein deutscher Händler in Lon-don mit einem Italiener Verträ-ge schließt? Welche Rechtskol-lisionen ergeben sich dabei?Der Verband beteiligte sichdeshalb neben der Kaiser-Wil-helm-Gesellschaft an dem Trä-gerverein, der das Institut fürausländisches und internatio-nales Privatrecht finanzierte.Als Gegenleistung für die fi-nanzielle Unterstützung liefer-te das Institut dem Reichsver-band Gutachten zu allgemei-nen privatrechtlichen Fragen.Ursprünglich sollte aus finan-ziellen Gründen lediglich eineAbteilung für internationalesPrivatrecht im „Kaiser-Wil-helm-Institut für ausländischesöffentliches Recht und Völker-recht“ geschaffen werden.Am 1. April 1926 nahm dannschließlich doch ein eigen-ständiges „Institut für auslän-
disches und internationalesPrivatrecht“ seine Arbeit imBerliner Stadtschloss auf.Dessen prägende Figur war seinGründungsdirektor Ernst Rabel.Er schuf die noch heute ver-folgte Verbindung von juristi-scher Grundlagenforschung mitpraktischer Gutachtertätigkeitfür Gesetzgeber und Wirt-
schaft. Rabel war beteiligt ander Gründung des Internatio-nalen Instituts für die Verein-heitlichung des Privatrechts(UNIDROIT) in Rom. Sein Werk„Das Recht des Warenkaufs“stellt bis heute eine wesent-liche Grundlage für das UN-Kaufrecht dar. Und die vom In-stitut herausgegebene „Zeit-schrift für internationales undausländisches Privatrecht“ wur-de von Rabel gegründet. We-gen seiner jüdischen Abstam-mung wurde Ernst Rabel 1937gezwungen, sein Amt als In-stitutsdirektor niederzulegen;
zwei Jahre später emigrierteer in die USA. Nach dem Kriegkehrte Rabel – inzwischen66-jährig – jedoch als wissen-schaftlicher Berater undGastwissenschaftler wiederan „sein“ Institut zurück.Unter Rabels Nachfolger ErnstHeymann passte sich das Insti-tut politisch an und blieb auchdeswegen vor weiteren direk-ten politischen Eingriffen derNationalsozialisten verschont.Durch die Evakuierung nachTübingen im Jahr 1944 konntedie umfangreiche Bibliothek –die heute rund 400.000 Bändeumfasst – über den Krieg ge-rettet werden. Im Jahr 1949wurde das Institut Teil derMax-Planck-Gesellschaft undmietete als Provisorium Anfang1950 ein ehemaliges Korpora-tionshaus an, das jedoch baldzu klein für Mitarbeiter undBibliothek wurde. Zwar ver-suchten Frankfurt und Mün-
chen, die Privatrechtler fürsich zu gewinnen, doch wurdeHamburg von 1956 an neuerInstitutsstandort. Die Hanse-stadt baute auf eigene Kostenein neues Gebäude, das zugroßzügigen Konditionen andie Max-Planck-Gesellschaftvermietet wurde. Außerdemerschien Hamburg wegen sei-
PRIVATRECHT
75 Jahre in der Tradition Ernst Rabels
Gründungs-
direktor Ernst
Rabel, 1924
ner weltweiten Handelsbezie-hungen als neuer Sitz des Insti-tuts besonders geeignet. DessenLeitung übernahm in den erstenJahrzehnten der NachkriegszeitHans Dölle (1946 bis 1963),gefolgt von Konrad Zweigert(1963 bis 1979).Im Lauf der Jahre erweitertedas Institut sein Forschungs-spektrum: Neben dem Pri-vatrecht entwickelte sich aus-ländisches und internationalesWirtschaftsrecht zu einem neu-en Schwerpunkt. Die Leitungdes Instituts obliegt deshalb seit1979 einem Kollegium aus meh-reren Direktoren, das heute dieProfessoren Klaus J. Hopt undJürgen Basedow bilden. Sieverstärkten die Forschung auf
Gebieten wie Gesellschafts-,Bank- und Kapitalmarktrechtsowie Verkehrs-, Transport- und Versicherungsrecht. Ein aktuel-les Forschungsthema ist dieHarmonisierung des europäi-schen Privat-, Gesellschafts-und Stiftungsrechts. Doch auchdie Förderung des wissenschaft-lichen Nachwuchses – in derTradition Ernst Rabels – ist eineAufgabe des Instituts: Es grün-dete in diesem Jahr zusammenmit dem Max-Planck-Institutfür ausländisches öffentlichesRecht und Völkerrecht unddem Max-Planck-Institut fürMeteorologie sowie der Uni-versität Hamburg eine Fortbil-dungsstätte für Postgraduierte.Die gemeinsa m betriebeneInternational Max Planck Re-search School for MaritimeAffairs in Hamburg befasst sichaus interdisziplinärer Sicht mitden Fragen der Nutzung, desSchutzes und der Ordnung der
Weltmeere, deren Bedeutungals Lebensraum, Transportwegund Rohstoffquelle in Zukunftwachsen wird. Natur- undwirtschaftswissenschaftlicheErkenntnisse sollen dabeiin der Research School mitden rechtlichen Aspekten derMeeresnutzung verknüpftwerden.
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 58/59
STITUTE aktuell
114 M A X P L A N C K F O R S C H U N G 4 / 2 0 0 1
STANDo
4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 115
MAXPLANCKFORSCHUNG
wird herausgegeben vom Referatfür Presse- und Öffentlichkeitsarbeitder Max-Planck-Gesellschaft zurFörderung der Wissenschaften e.V.
Vereinsrechtlicher Sitz: Berlin.ISSN 1616-4172
Redaktionsanschrift:
Hofgartenstraße 8, 80539 MünchenTel. 089/ 2108-0 (-1276)Fax 089/2108-1207E-Mail: [email protected]: http://www.mpg.de.
Verantwortlich für den Inhalt:
Dr. Bernd Wirsing (-1276)
Leitender Redakteur:
Helmut Hornung (-1404)
Biologie, Medizin:
Dr. Christina Beck (-1306)Walter Frese (-1272)
Chemie, Physik, Technik:
Eugen Hintsches (-1257)Helmut Hornung (-1404)
Geisteswissenschaften:
Susanne Beer (-1342)
Online-Redaktion:Dr. Andreas Trepte (-1238)
Gestaltung: Rudi GillDTP-Operating: Franz PagelSenftlstraße 1, 81541 MünchenTel. 089/448 21 50E-Mail: [email protected]
Litho: kaltnermediaDr.-Zoller-Str. 186399 Bobingen
Druck+Vertrieb:
Druckhaus BeltzTilsiter Straße 17
69502 Hemsbach
Anzeigen:Brigitte Bell
Verlagsgruppe BeltzPostfach 10015469441 WeinheimTel. 06201/6007-380Fax 06201/18 46 84
Für Mitarbeiter der MPG ist einemTeil der Auflage die Mitarbeiterzeit-schrift MAXPLANCKINTERN beigefügt:Dr. Christina Beck (-1306/Redaktion)Carin Gröner (-1231/Personalien)
MAXPLANCKFORSCHUNG will Mitar-beiter und Freunde der Max-Planck-Gesellschaft aktuell informieren. DasHeft erscheint in deutscher und eng-lischer Sprache (MAXPLANCKRESEARCH)
jeweils in vier Ausgaben pro Jahr. DieAuflage beträgt zurzeit 28.000 Exem-plare. Der Bezug des Wissenschafts-magazins ist kostenlos.
Alle in MAXPLANCKFORSCHUNG ver-tretenen Auffassungen und Meinun-gen können nicht als offizielleStellungnahme der Max-Planck-
Gesellschaft und ihrer Organeinterpretiert werden.
MAXPLANCKFORSCHUNG wird auf chlor-frei gebleichtem Papier gedruckt.Nachdruck der Texte unter Quellen-angabe gestattet. Bildrechte könnennach Rücksprache erteilt werden.
Die Max-Planck-Gesellschaft zurFörderung der Wissenschaften unter-hält 80 Forschungsinstitute, in denenrund 11.200 Mitarbeiter tätig sind,davon etwa 3100 Wissenschaftler.Hinzu kamen im Jahr 2001 rund 7900
Stipendiaten, Gastwissenschaftlerund Doktoranden. Der Jahresetat um-fasste insgesamt 1245 Millionen Eurodavon stammten 1186 Millionen Euroaus öffentlichen Mitteln.
Die Forschungsaktivität erstrecktsich überwiegend auf Grundlagen-forschung in den Natur- und Geistes-wissenschaften. Da die Max-Planck-Gesellschaft ihre Aufgabe vor allemdarin sieht, Schrittmacher der For-schung, insbesondere in Ergänzungzu den Hochschulen zu sein, kann sie
nicht in allen Forschungsbereichentätig werden. Sie versucht daher, ihreMittel und Kräfte dort zu konzentrie-ren, wo besondere Forschungsmög-lichkeiten erkennbar sind.
Die Max-Planck-Gesellschaftist einegemeinnützige Organisation des pri-vaten Rechts in der Form eines einge-tragenen Vereins. Ihr zentrales Ent-scheidungsgremium ist der Senat, indem eine gleichwertige Partnerschaftvon Staat, Wissenschaft und sach-verständiger Öffentlichkeit besteht.
NIEDERLANDE
NijmegenITALIEN
Rom
Florenz
SPANIEN
AlmeriaFRANKREICH
Grenoble
BRASILIEN
Manaus
Forschungseinrichtungen der
Max-Planck-Gesellschaft
Institut/
Forschungsstelle Teilinstitut/
Außenstelle
❍ Sonstige
Forschungs-
einrichtungen
WISSENSCHAFTSMAGAZIN
MPF jetzt
ls PDF-Version
ne Angst: Die MAXPLANCKFORSCHUNG wird esch weiterhin vier Mal pro Jahr in gedruckterm geben. Darüber hinaus bieten wir jetzt einenätzlichen Online-Service und stellen ab der
sgabe 1/2001 jedes Heft als PDF-Version insernet. „Surfer“ können entweder das gesamtegazin in diesem Format laden oder jeweilsr einen einzelnen Artikel. Unter der Adressew.mpg.de/deutsch/aktuell/forschung/gibt es
elbild und Inhaltsverzeichnis eines jeden Hefts.Klick auf eine dieser Seiten führt zur Listeeinzelnen Artikel. Diese sind nach Rubriken
ordnet und lassen sich jeder für sich aufrufen.r hoffen, dass die MAXPLANCKFORSCHUNG durchse Synergie mit dem Internet noch attraktiverworden ist.
100 JAHRE WERNER HEISENBERG
Ausstellung, Symposium
und eine Briefmarke
Mit einer Gedenkfeier,einem wissenschaftlichenSymposium und einer Aus-stellung hat die Max-Planck-Gesellschaft den 100. Ge-burtstag von Werner Heisen-berg gefeiert. Die Post ehrteihn mit einer Sonderbrief-marke. Heisenberg begründe-te die Quantentheorie undhat mit späteren Pionierar-beiten zur Theorie der Fest-körper, Atomkerne und Ele-mentarteilchen die Entwick-lung der Physik im 20. Jahr-
hundert entscheidend beein-flusst. Von 1942 bis 1970leitete er das Max-Planck-Institut für Physik.
Werner Heisenberg wurde am5. Dezember 1901 in Würzburggeboren. Mit herausragendenLeistungen schloss er dasMünchner Maximilians-Gym-nasium ab. Er studierte Physik,Mathematik und Astronomiean den Universitäten Münchenund Göttingen. Zu seinen Leh-rern gehörten Arnold Sommer-
feld, Niels Bohr und Max Born.Heisenbergs Arbeit vom Juli1925 begründete eine neueAtomtheorie: Der Wissen-schaftler entdeckte Naturge-setze, in denen Begriffe wieOrt und Geschwindigkeit einesatomaren Teilchens ihre Be-deutung verloren. So lassensich der „Unschärferelation“zufolge Impuls und Ort einesTeilchens nicht gleichzeitig be-liebig genau bestimmen. Damitrührte der Forscher, der fürdiese Arbeiten im Jahr 1933
den Nobelpreis erhielt, an denGrundfesten der Kausalitätallen Naturgeschehens.Trotz Anfeindungen durch dieNationalsozialisten und ver-lockender Angebote aus denUSA blieb Werner Heisenbergauch nach 1933 in Deutsch-land. Nach Ausbruch des Zwei-ten Weltkriegs widmete ersich der großtechnischen Ge-winnung von Energie aus derAtomkernspaltung. Bis 1942war er Professor für theore-tische Physik in Leipzig, danachbis 1945 Direktor am BerlinerKaiser-Wilhelm-Institut fürPhysik, wo er auch an einerneuen Theorie der Elementar-teilchen arbeitete.Nach Ende des Zweiten Welt-kriegs trug Heisenberg wesent-lich zum Wiederaufbau derWissenschaften im westlichenTeil Deutschlands bei: als Direk-tor des Max-Planck-Institutsfür Physik in Göttingen (ab
1946), als Präsident des Deut-schen Forschungsrates (1949bis 1951) und als Präsident derAlexander von Humboldt-Stif-tung (seit 1953). In seinen letz-ten Lebensjahren suchte derForscher nach einer einheitli-chen Theorie der Elementarteil-chen und der zwischen ihnenwirkenden fundamentalen
Kräfte. Doch der Traum bliebunerfüllt: Werner Heisenbergstarb am 1. Februar 1976 inMünchen.Aus Anlass von Heisenbergs100. Geburtstag war vom4. Dezember bis 7. Januar imMünchner Max-Planck-Hausam Hofgarten eine von HelmutRechenberg (Max-Planck-Insti-tut für Physik) arrangierte Aus-stellung über Leben und Wir-ken des Forschers zu sehen.Zusätzlich organisierte dasMax-Planck-Institut für Physikgemeinsam mit der Bayeri-schen Akademie der Wissen-schaften am 5. Dezember eineGedenkfeier und veranstalteteam 6. und 7. Dezember unterdem Motto „Developments inModern Physics“ ein „WernerHeisenberg CentennialSymposium“.Außerdem gab die Post eine
Sonderbriefmarke (Tag derErstausgabe: 8. November2001) heraus. Das Motiv zeigtein Foto Werner Heisenbergsund, oben rechts, seine be-rühmte „Unschärferelation“.Die Briefmarke hat den Wertdrei Mark oder 1,53 Euro, derEntwurf stammt von demKieler Designer Ingo Wulff.
Die Sonder-briefmarke zum
100. Geburtstag
von Werner
Heisenberg.
7/23/2019 MPF_2001_4 Max Planck Forschung
http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 59/59
Im FOKUS
Neuer „Hightech-Schmuck“ für Meister Adebar: Anfang Juni wurden in Schloss Möggingen, dem Sitz der Vogelwarte Radolfzell, die ers-
ten Weißstörche mit einem neuartigen Kunststoffring versehen, der die herkömmlichen Metallringe ablösen soll. Der neue ELSA-Ring – „European
Laser Signed Advanced Ring“ – wurde am Fraunhofer-Institut für Chemische Technologie (ICT) in Pfinztal bei Karlsruhe entwickelt, und zwar auf Anre-
gung von Walther Feld, einem Weißstorch-Spezialisten und Vogel-Beringer, der seit langem mit der Vogelwarte Radolfzell verbunden ist. Der ELSA
Ring besteht aus einem Kunststoff, der sich mittels eines Laserstrahls – durch Farbumschlag des Materials – beschriften lässt und gegenüber Alumini-
um- oder Stahlringen viele Vorzüge aufweist: Er verschmutzt und verkrustet nicht und kann deshalb nicht die Beine der Störche abschnüren; er bleibt
dauerhaft und deutlich lesbar, und das auch aus größeren Entfernungen; er lässt sich durch einen Schnappverschluss einfach und sicher anlegen; er er-
laubt den Einsatz verschiedener Farben und Farbkombinationen zur eindeutigen Markierung des Vogels; und er heizt sich bei Sonnenbestrahlung weni-
ger stark auf als Metallringe. Von diesem Fortschritt erhoffen sich die Forscher Aufschluss über die in den vergangenen zwei bis drei Jahrzehnten ver-
änderten Zuggewohnheiten der Störche. Außerdem sollen auch Kraniche und Falken mit ELSA-Ringen markiert werden. FOTO: WOLFGANG FILSER